Google und Intel fordern die Dominanz von Nvidia bei KI-Chips heraus. Das wird nicht einfach werden.

Der KI-Chip-Hersteller sieht sich wachsender Konkurrenz ausgesetzt, sogar von seinen größten Kunden. Doch man sollte nicht damit rechnen, dass das Unternehmen seinen Glanz in absehbarer Zeit verliert.

Für die Links auf dieser Seite können wir eine Provision verdienen.
Jensen Huang steht vor einem Generative AI Schild
Nvidia-CEO Jensen Huang hält eine Keynote-Rede während der Nvidia GTC Artificial Intelligence Conference im SAP Center am 18. März 2024 in San Jose, Kalifornien.
Foto: Justin Sullivan (Getty Images)

Nvidia wurde nach dem lateinischen Wort für Neid benannt, „Invidia“. Und es gibt viel, was man an dem Halbleitergiganten beneiden kann. Die Unternehmen haben ihn gierig aufgekauft. seine sehr teuren KI-Chips in ihrem Wettlauf um die Entwicklung neuer generativer künstlicher Intelligenztechnologien. Die Nvidia-Aktie schoss im letzten Jahr um 220% in die Höhe als Die Einnahmen gingen durch die Decke, es machen das drittwertvollste Unternehmen der Welt. Es ist praktisch „Geld drucken“, sagte ein Analyst.

Werbung

Jetzt führen andere Technologiegiganten ihre eigenen KI-Chips vor : Metas MTIA, Microsofts Maia, Amazons Trainium, und Googles TPUs. Ganz zu erst Intel und Advanced Micro Devices, Halbleiterchiphersteller, die direkte Konkurrenten von Nvidia sind. Innerhalb von zwei Tagen dieser Woche zeigten Google Alphabet , Facebook Mutter Meta und Intel alle neue KI-Hardware, Teil von eine wachsende Herausforderung für Nvidias Dominanz.

Aber Nvidia wird nicht so so untergehen .

Nvidias wachsende Konkurrenz

Zwei Drittel von Nvidias Umsatz stammen laut Gil Luria, Analyst bei DA Davidson, von seinen fünf größten Kunden. Dazu gehören Meta, Microsoft, Google und Amazon. Alle vier haben begonnen, KI-Hardware selbst herzustellen, was Nvidias Umsatz in Zukunft ernsthaft gefährden könnte.

Werbung

Google stellt TPU v5p vor am Dienstag, gefolgt von Metas Veröffentlichung der nächsten Iteration seines MTIA am Mittwoch waren die neuesten Anzeichen dafür, dass Käufer von Nvidias KI-Chips unabhängiger werden. Namhafte KI-Startups verwenden bereits Google-Dienste auf der neuen Hardware anstelle von Nvidias KI-Chips die auch als GPUs oder Grafikprozessoren bezeichnet werden. Anthropic verwendet Google-Technologie für seinen KI-Chatbot Claude, während Hugging Face und AssemblyAI sie verwenden um ihre Bilderzeugungs- und Spracherkennungsfunktionen zu verbessern.

Werbung

„Nvidia konnte in den letzten Jahren enorme Mehrgewinne erzielen, da sie das richtige Produkt zur richtigen Zeit hatten“, sagte Luria in einem Interview. „Aber jetzt, wo der Markt diese Größe hat, gibt es mehrere Unternehmen die in der Position sind, Nvidia durch andere Produkte zu ersetzen – und vor allem Nvidias eigene Kunden.“

Werbung

Auch Nvidias Halbleiterrivalen Intel und AMD rüsten bei der Entwicklung von KI-Chips auf. Intel stellte seinen Gaudi 3 KI-Beschleuniger vor auf seiner Intel Vision 2024-Konferenz am Dienstag und sagte das Gerät , dass es für das Training von KI-Modellen eine bessere Leistung und Effizienz biete als Branchenalternativen – darunter der heiß begehrte H100-Chip von Nvidia. Intel sagte, sein neuer Chip verfüge über mehr KI-Rechenleistung , Netzwerkbandbreite und Speicher als sein Vorgänger, der Gaudi 2.

Intel sagte auch , sein Gaudi 3 -Beschleuniger kann die Sprachlernmodelle (LLMs), die KI-Chatbots antreiben, 50% schneller trainieren als Nvidias beliebter 40.000-Dollar-H100-Chip, und bieten 30% schnellere „Inferenz“ (oder Daten zur Erstellung von Vorhersagen verwenden) für Top-LLMs im Vergleich zu Der H200-Chip von Nvidia. Das Unternehmen wartet auf die Veröffentlichung von Leistungsergebnissen von Nvidia für sein neu vorgestellter Blackwell-Chip bevor es einen Vergleich mit Gaudi 3 ermöglicht .

Werbung

Intel-CEO Pat Gelsinger sagte Reportern am Dienstag, dass das Unternehmen über einen eigenen „Innovationsfahrplan“ verfüge, der die Weiterentwicklung seines Gaudi-3-Beschleunigers gemeinsam mit Kunden und Geschäftspartnern vorsieht, um mit den Produktveröffentlichungen von Nvidia zu konkurrieren.

„Gaudi 3 übertrifft heute eindeutig die Leistung des H100“, sagte Gelsinger und fügte hinzu, dass die TCO (Total Cost of Ownership) „ein gewaltiges Unterscheidungsmerkmal“ zwischen den beiden Chipherstellern seien.

Werbung

Er wollte zwar keine Details zur Preisgestaltung von Gaudi 3 bekannt geben, sagte aber, Intel sei „sehr zuversichtlich“, dass das Produkt „deutlich unter den Preisen liegen wird, die für H100s und Blackwell genannt wurden“.

Doch bei Intels Konkurrenz mit Nvidia geht es nicht nur um die Leistung – es geht auch um Kosten, Verfügbarkeit und Datenzugriff , sagt Christoph Schell, Chief Commercial Officer von Intel.

Werbung

„Wir erfüllen alle Anforderungen“, sagte Schell und sind damit Nvidia deutlich voraus.

Nach einer riesigen Rallye zum Jahresbeginn 2024 Nvidia-Aktie fällt auf Korrekturniveau am Dienstag, um 10% unter seinem jüngsten Hoch, als Google und Intel seinen KI-Rainmaker ins Visier nahmen.

Werbung

Aber Nvidia wird seinen KI-Glanz nicht so so verlieren

Die Korrektur hielt nicht lange an: Die Nvidia-Aktie schloss am Mittwoch gleich wieder 2% im Plus, selbst an einem Tag Der breitere Markt erlebte einen Ausverkauf.

Werbung

Laut Analysten der Bank of America hat Nvidia einen Marktanteil von 75 Prozent im Bereich KI-Beschleuniger. „Die meisten Unternehmen wissen mittlerweile, wie man KI-Chip-Hardware herstellt“, sagt Benjamin Lee, Professor für Ingenieurwissenschaften und Informatik an der University of Pennsylvania. „Der größte Vorteil der Nvidia-Chips seien ihre Softwarebibliotheken, die es Entwicklern leicht machen, KI-Anwendungen zu erstellen, ohne den Code von Grund auf neu schreiben zu müssen.“

Im Moment versuchen Intel und AMD lediglich, aufzuholen, sagte Lee.

„Nvidia arbeitet seit mindestens zehn Jahren daran“, sagte Lee, was „die Reife ihres Tool-Sets widerspiegelt“ im Vergleich zu Intel, das nur brachte 2019 seinen ersten KI-Chip auf den Markt.

Werbung

In der Zwischenzeit, sagte Lee, stellen Nvidias Kunden KI-Beschleuniger hauptsächlich her, um ihre eigenen Kosten zu senken – und nicht, um direkt mit Nvidia zu konkurrieren.

Andererseits merkte Luria an, dass Google bereits Dienste verkauft, die auf seinen TPUs laufen, oder Tensor-Verarbeitungseinheiten. Amazon investiert 4 Milliarden Dollar in Anthropic legt vor, dass seine zukünftigen KI-Modelle nur auf Amazon-Chips laufen werden. Und die Überlegenheit der Software von Nvidia wird nicht auf Ewig anhalten, so Luria, denn die Kunden sind hoch motiviert, Wege zu finden, um ihre Ausgaben für die Chips zu senken, indem sie ihre eigenen KI-Produkte entwickeln und Nvidias Konkurrenten stützen.

Werbung

Luria verwendete Microsoft als Beispiel.

„Als Microsoft jährlich weniger als 2 Milliarden Dollar für Nvidia-GPUs ausgab, mussten sie vielleicht nicht unbedingt so viel Aufwand in ihre eigenen Chips stecken“, sagte er. „Aber letztes Jahr haben sie 11,5 Milliarden Dollar für GPUs ausgegeben. Das erzeugt also ein Gefühl der Dringlichkeit.“

Werbung

Luria sagte, bei Amazon, Google und Meta sei es ähnlich.

„Jetzt, wo die Ausgaben so hoch sind, wie sie sind“, sagte er, „arbeiten sie viel härter daran, Nvidia durch ihre eigenen, maßgeschneiderten Chips zu ersetzen, die speziell für [ihre] KI-Anwendungen entwickelt wurden.“

Werbung

Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier

Werbung