Meta Platforms, das Unternehmen hinter Facebook und Instagram, rechnet nicht damit erhalten in diesem Jahr Lieferungen des neuen KI-Chips „Blackwell“ von Nvidia, ein Unternehmenssprecher erklärte Reuters am Dienstag.
Die Nachricht kommt nur einen Tag, nachdem Nvidia einen leistungsstärkeren und schnelleren Nachfolger seines H100-KI-Chips der nächsten Generation vorgestellt hat – den B200. auf seiner jährlichen Entwicklerkonferenz.Der neue Chip ist eine sogenannte Grafikverarbeitungseinheit (GPU) und ist die Grundlage für Sprachmodelle, die in KI-Chatbots verwendet werden wie ChatGPT von OpenAI
„Wir freuen uns darauf Verwendung von Nvidias Blackwell zur Unterstützung des Trainings „Unsere Open-Source-Llama-Modelle entwickeln die nächste Generation von Meta-KI und Verbraucherprodukten“, sagte Meta-Gründer und CEO Mark Zuckerberg eine Stellungnahme am Montag.
Facebook reagierte nicht sofort auf eine Bitte um einen Kommentar
Meta ist einer der größten Kunden von Nvidia
Anfang dieses Jahres kündigte der Social-Media-Riese Pläne an, seinen Vorrat an älteren Nvidia-Chips zu vergrößern
Im Januar sagte Zuckerberg in einem Beitrag über den X-Konkurrenten des Unternehmens, Threads, den Meta plant haben bis Ende dieses Jahres etwa 350.000 H100-Chips. Die Zahl ist beeindruckend, wenn man bedenkt, dass jeder Chip einen Preis von 40.000 US-Dollar hat
Letzte Woche gab Meta bekannt, dass es seine KI-Modelle auf zwei GPU-Clustern trainiert, die aus Folgendem bestehen: jeweils etwa 24.000 H100-Chips.
Blackwell wird die nächste Generation der KI einläuten
Die Nvidia-Aktie stieg am Dienstag um 2 %, nachdem Nvidias Finanzchefin Colette Kress den Anlegern mitgeteilt hatte, dass es sich um neue B200-Chips handelt wird später in diesem Jahr auf den Markt kommen.
Darüber hinaus sagte Nvidia-CEO Jensen Huang gegenüber CNBC, dass es sich um einen Blackwell-Chip handeln würde Der Preis liegt zwischen 30.000 und 40.000 US-Dollar.
Der Blackwell besteht aus 208 Milliarden Transistoren und wird beim Training der KI 2,5 mal schneller sein als sein Vorgänger und fünf mal schneller bei Inferenz, der Prozess, den KI-Modelle verwenden, um Schlussfolgerungen zu ziehen
Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier