- Doppelgänger Update
- Posts
- KW9 - Chip-Champion vs. Champion-Chip
KW9 - Chip-Champion vs. Champion-Chip
Doppelgänger Update (BETA)
Von Philipp Klöckner · 26. Februar 2024
👋 Hallo! Du empfängst diesen Newsletter als eine(r) von 12.841 Abonnent:innen (+149).
❤️ Danke an Sascha, Patrick und Jonas, die diese Woche die meisten neuen Leser:innen auf unseren Newsletter aufmerksam gemacht haben, aber auch an alle anderen! Die “Share the Newsletter” Funktion findet ihr am Ende der aktuellen Ausgabe und das Rennen startet jeden Montag von neuem. Der heutige Newsletter hat 1.756 Worte und das vollständige Lesen dauert etwa 5 Minuten. Heute ist der 26. Februar 2024 und die KW9 startet.
🧮 Chip-Champions vs. Champion-Chips
Was ist passiert? Am Mittwoch berichtete der U.S. Chipgigant NVIDIA seine Ergebnisse für das abgelaufene Geschäftsjahr FY24. (Weil das Fiskaljahr am 31. Januar statt wie üblich Ende Dezember endet, ist das FY24 für NVIDIA damit schon abgeschlossen.) Die Ergebnisse des Chipriesen wurden gebannt erwartet. Nicht zuletzt, weil die Aktien des KI-Überflieger mit mehr als dem 30-fachen des Umsatzes der letzten 12 Monate (LTM) bewertet werden, und die Aktie viele Indizes mitreißt.
Doch mal wieder enttäuschte CEO Jensen Huang seine Aktionär:innen nicht. Um mehr als 400% wuchs der Umsatz der besonders florierenden Datenzentren-Sparte, hinter der sich vor allem die heißbegehrten A100/H100 GPUs verbergen, die zum absolut verknappten Flaschenhals der AI-Entwicklung geworden sind. Die großen Techkonzerne Google, Meta, Microsoft stehen ebenso Schlange wie souveräne Staaten, Unternehmen der Old Economy oder Startups welche ihr frisch investiertes VC-Geld direkt in die 30-50.000 US-Dollar teuren Schaltkreise stecken wollen.
Der Chip-Markt beziehungsweise der Fakt, dass NVIDIA selbst beim besten Willen nicht genug Angebot für die enorme Nachfrage produzieren lassen kann spielt Huang in die Karten. Während sich das Data Center Segment verfünffacht, stiegen die operativen Ausgaben von NVIDIA nur um 23 Prozent. Im Ergebnis führt das dazu, dass NVIDIA nicht nur drei Viertel des Umsatzes als Rohmarge (Gross Margin) einbehält; selbst nach operativen Kosten bleibt eine operative Rekordmarge von 62% stehen. Oder einfach gesagt: Kauft ein Kunde die H100 Platine für 32.000 US-Dollar, behält NVIDIA nach allen Kosten rund 20.000 US-Dollar Gewinn übrig. (Profitmargen jenseits der 60 Prozent kennt man sonst höchstens noch aus dem Kreditkartengeschäft, einem Duopol mit stärksten Netzwerkeffekten.)
Kein Ende in Sicht. Für das nächste Jahr rechnen Analysten mit weiterem Umsatzwachstum und noch mehr Gewinnen. Dass die KI-Hardware-Nachfrage plötzlich abreißt ist ebenso unwahrscheinlich, wie dass von heute auf morgen die Konkurrenz und damit das Angebot explodiert. Insofern ist davon auszugehen, dass NVIDIA seinen Triumphzug vorerst fortsetzt. Im Verlauf der Woche war das Unternehmen erstmals mehr als 2 Billionen US-Dollar wert. So viel wie der Ölkonzern Saudi Aramco oder das Bruttosozialprodukt von Kanada. Nur Microsoft und Apple sind noch circa 50 Prozent wertvoller.
Und doch, das beste Mittel gegen hohe Margen sind hohe Margen. Denn letztlich locken sie mittelfristig eben doch Konkurrenz an. Nicht nur OpenAI CEO Sam Altman plant einen neuen Chip-Produzenten aus dem Boden Wüstensand zu stampfen. Große Techkonzerne entwerfen und produzieren längst eigene Chips und die gesamte Halbleiterbranche (Intel, AMD, etc.) bietet sich als Auftragsproduzenten an.
Innovation versprechen auch neue Chip Startups. Das US-Startup Cerebras kooperiert mit Abu Dhabi und baut einen Supercomputer aus 27 Millionen (!) Kernen, der 1018 FLOPS, bzw. die Rechenleistung einer halben Million MacBooks erreichen könnte, indem man sämtliche Transistoren statt auf Chips auf einer Halbleiterplatte (Wafer) unterbringt und mehrere davon verbindet. Diese Wafer Scale Engine, profitiert dann von schnellerer Kommunikation und einem höheren Datendurchsatz als herkömmliche Setups.
Groq, der “Champion Chip”? Ganz ähnlich funktioniert die neue Chiparchitektur des von Jonathan Ross gegründeten Unternehmens Groq. Ross hat einen Chip konzipiert, der hyperspezialisiert auf den Antwortprozess der künstlichen Intelligenz, auch “Inference” genannt ist. Durch das hohe Maß an Spezialisierung auf schnellen Output, antworten Open Source Modelle wie Metas LLAMA oder das französische Mixtral 8x7B in Rekordgeschwindigkeit. Der zeitliche Verzug der Antworten, auch Latenz oder Latency genannt, stellt für viele Modelle noch eine große Schwachsteller gegenüber menschlicher Kommunikation dar.
Dank der Groq Plattform antworten sie nun aber binnen Millisekunden. Und während sie damit mindestens 10 mal schneller arbeiten als Microsofts Azure oder Amazons Bedrock Infrastruktur, sind sie auch noch um den Faktor 2 bis 3 günstiger! (siehe Grafik) Gründer Ross ist kein Unbekannter: Für Google entwickelte er vor 10 Jahren die ersten AI-Chips, sogenannte TPUs oder Tensor Processing Units, welche die für Machine Learning wichtige Matrix-Multiplikation besonders performant erledigen.
Fazit: Die Leistungsfähigkeit künstlicher Intelligenz wird nicht nur auf dem Software- bzw. Modell-Layer immer weiter verbessert. Auch die Hardware unterliegt noch massiven Verbesserungen durch Innovation und Application Specific Integrated Circuits (Anwendungsspezifische integrierte Schaltkreise, kurz: ASICs) spielen dabei eine wichtige Rolle. NVDIA baut mit seinen H100 Chips und derem Nachfolger B100 gerade das Äquivalent eines relativ vielseitigen Porsche SUV zu einem stolzen Preis. Für den weiteren Fortschritt und mehr Performanz werden hochspezialisierte Rennwagen und Traktoren aber ebenso wichtig sein. Und sollten die Chips jemals zur Selbstverständlichkeit werden, sind es Daten und der Kundenzugang, die den Unterschied im AI-Wettrennen machen…
🔗 CNBC | Financial Times | Gizmodo (Groq Video) | Twitter
Das sind die weiteren News der Woche:
🛫 Luftfracht boomt, dank Fast Fashion. Grund dafür sind ausgerechnet die chinesischen Shopping-Plattformen Temu, Shein und Alibaba. Diese jagen westlichen Konkurrenten nicht nur die Kund:innen ab. Zunehmend machen sie ihnen auch die Transportkapazitäten streitig. Mehr als 10.000 Tonnen (!) transportieren die jungen Plattformen täglich. Das entspricht rund 100 Boeing 777 Frachtflugzeugen. Reuters berichtet außerdem, dass bereits jeder fünfte Fast Fashion Artikel auf Shein verkauft wird.
🔗 Reuters
🥇 Google OpenSource Modell Gemma. Google veröffentlichte letzte Woche sein OpenSource Modell Gemma und es schlug die Konkurrenz von Meta (LLAMA) und Mistral recht deutlich. Sein Modell zu öffnen könnte mehrere Vorteile für Google haben. Nutzer:innen könnten sich letztlich doch für die Bezahlvariante Gemini entscheiden. Und falls nicht, so helfen sie indirekt bei der Weiterentwicklung mit. Auch die Open Source Community und Aufsichtsbehörden, sollten den Schritt zu schätzen wissen.
🔗 Hugging Face
🔝 Sam Altman ist Großaktionär bei Reddit. Dass YCombinator-Legende, Super-Angel und OpenAI CEO Sam Altman an Reddit beteiligt ist war landläufig bekannt. Dass er mit fast 9 Prozent nach der Newhouse Familie und dem chinesischen Techkonzern Tencent aber der drittgrößte Anteilseigner der Diskussionsplattform ist, stellte sich erst durch das jüngste IPO-Prospekt von Reddit heraus. Mit seinem Anteil könnte Altman durchaus erheblichen Einfluss auf Reddit nehmen. Kontrovers ist die Beteiligung, weil Reddit bisher eine der beste Quellen für das Training von Machine Learning Modellen, wie OpenAI sie baut, war.
🔗 The Hollywood Reporter | SEC.gov (S-1 Prospekt) | The Verge
🪙 Satoshi Nakamoto Korrespondenz aufgetaucht: Einer der frühesten Kollaborateure des Bitcoin Erfinder Satoshi Nakamoto, über dessen Identität bis heute spekuliert wird, veröffentlichte kürzlich seinen eMail-Verlauf mit der Crypto-Legende. Spannende Insights aus der Inbox von Martii “Sirius” Malmi und Nakamoto fasst nun ein Twitter-Thread zusammen.
🔗 Twitter
👩⚖️ Arbeitgeber-Portal Kununu muss Klarnamen nennen oder Bewertungen löschen. Das Oberlandesgericht (OLG) Hamburg urteilte im Eilverfahren, dass das Bewertungsportal Kununu (gehört zur New Work SE), auf dem man auch anonym seine Arbeitgeberin bewerten kann, verpflichtet sei auf Antrag des Arbeitgebers entweder den Namen des Rezensierenden preiszugeben oder den Beitrag zu löschen. Bewertungen sind oft dann anfechtbar, wenn unklar bleibt, ob die Person tatsächlich im Unternehmen tätig war.
🔗 OpenJur | OHN
🎰 Chart der Woche: Deine Chips schon gesetzt?
Quellen: Siehe LinkedIn
Roulette Chips oder ETF-Sparplan? Diese Woche habe ich gleich zwei schockierende Fakten gelernt: Nämlich einerseits, dass die Glücksspielbranche mehr als 20% der Einsätze/Umsätze der Spieler:innen als sogenannte Bruttospielerträge verdient. Diese Erträge entsprechen definitorisch den gesammelten Verlusten der Glücksspieler:innen, in Höhe von 13,4 Mrd Euro.
Noch trauriger ist vielleicht, dass noch im Jahr 2022 - trotz wohlbekannter Rentenlücke und vieler kostenminimaler ETF-Sparplan Vorsorgeangebote - mehr Geld beim Glücksspiel verloren wird, als die Deutschen in ETF Sparpläne stecken.
🔗 LinkedIn (Chart) | extraETF Studie
PS: Andere Sparpläne spielen eine untergeordnete Rolle, Riester ist sogar rückläufig, und natürlich kann man auch anders vorsorgen. Das gesamte ETF Volumen zu betrachten, macht aber weniger Sinn weil dann auch Investitionen inkludiert wären, die mit klassischen Altersvorsorgemotiven nichts mehr zu tun haben.
📺 Sehenswert: Computer Chips Background - CPU, GPU und TPUs einfach erklärt (nur 8 min) 🇬🇧
Wer verstehen möchte was nochmal der Unterschied zwischen einer CPU, GPU und Googles TPUs ist, dem könnte dieses 8-minütige englischsprachige YouTube Video helfen.
Den spannendsten Fakt überhaupt, finde ich immer noch, dass Google spätestens 2013, also vor mehr als 10 Jahren, damit begonnen hat seine eigene Hardware, die Tensor Processing Units (TPUs) zu bauen, um einen Vorsprung beim Machine Learning zu entwickeln. Zusammen mit Googles TensorFlow Software haben TPUs gewisse Machine Learning Aufgaben so effizient wie kein anderes Setup gelöst.
🔗 YouTube
🎧 Hörenswert: a16z Podcast - AI Hardware, Explained
Auch bei der Podcast-Empfehlung geht es heute um Chips-Architektur. Erklärt wird sie unter anderem von Guido Appenzeller. Für den a16z Podcast “AI Hardware, Explained” erklärt der deutschstämmige Special Advisor des renommierten Wagniskapitalgebers Andreessen Horowitz einfach verdaulich die Evolution von KI-optimierter Hardware.
Trivia: Appenzeller war einst an der Gründung von Google beteiligt, entschied sich aber in Stanford weiter zu studieren, nachdem er den Gründern Larry Page und Sergej Brin beim Businessplan half, aufgrund dessen sie ihr erstes Geld von Andy Bechtolsheim einsammelten.
So schlimm lief es für Appenzeller aber auch nicht, denn dieser verkaufte später seine eigene Gründung Big Switch Networks an Bechtolsheims Arista Networks. Die ganze Story gibt es beim Spiegel.
🔗 a16z.com (Andreessen Horowitz) | Spotify | Apple Podcasts | Podlink (Alle Player)
“It is only proper to realize that language is largely a historical accident.”
🖨️ Earnings Season: Quartalsergebnisse der Woche
Montag 26. Feb: Berkshire Hathaway (BMO), Unity (AMC), Zoom (AMC), workday (AMC), hims | hers (AMC)
Dienstag 27. Feb: Macy’s (BMO), Beyond Meat (AMC), Splunk(AMC), Lemonade (AMC)
Mittwoch 28. Feb: Baidu (BMO), Auto1 (BMO) Snowflake (AMC), Salesforce (AMC), C3.ai (AMC), okta (AMC), duolingo (AMC)
Donnerstag 22. Feb: Best Buy (BMO), Birkenstock (BMO), ZScaler (AMC), Ginkgo Bioworks (AMC), Autodesk (AMC), Veeva (AMC), elastic (AMC)
Freitag 23. Feb: Plug Power (BMO)
AMC: After Markets Close (nach Börsenschluss 22 Uhr) | BMO: Before Markets Open (morgens)
Nicht vollständig, lediglich Aktien, die wir als relevant erachten oder im Podcast/Sheet covern.
Dieser Newsletter wird auch weiterhin jeden Montagmorgen auf wundersame Weise in Deiner Inbox erscheinen. Einen Faxabruf gibt es leider nicht. Vielleicht solltest Du die Absender-eMail in Deinem eMail-Programm whitelisten oder den Newsletter in Deine Primary Inbox verschieben, um keine Ausgabe zu verpassen.
Danke für Deine Zeit und Aufmerksamkeit! ❤️
📮 Schick mir gern Dein Feedback an [email protected] oder leite diese Mail an Freunde und Kollegen weiter, wenn Du sie nützlich fandest.
Oder nutze diesen Link um ihn in sozialen Netzwerken und mit Freunden zu teilen: https://doppelgaenger.beehiiv.com/subscribe?ref=PLACEHOLDER
Die erfolgreichsten Helfer:innen, erwähnen wir im nächsten Newsletter.