Amazons KI-Trainingschip der nächsten Generation ist da

Amazon Web Services stellte Trainium3 vor und kündigte allgemeine Verfügbarkeit seiner Trainium2 -Chips an

Für die Links auf dieser Seite können wir eine Provision verdienen.
eine Nahaufnahme des Trainium 2 KI-Chips
Trainium2
Foto: Amazon Web Services

Amazon Web Services hat seinen Trainingschip der nächsten Generation für künstliche Intelligenz vorgestellt, der schneller sein und voraussichtlich weniger Energie verbrauchen soll.

Werbung

Trainium3 ist der erste Chip von AWS , der mit dem 3-Nanometer-Prozess — bisher die fortschrittlichste Halbleitertechnologie — die eine bessere Leistung und Energieeffizienz ermöglicht. Die ersten Trainium3-Chips werden voraussichtlich Ende nächsten Jahres verfügbar sein, kündigte AWS am Dienstag auf seiner re:Invent-Konferenz an.

Laut AWS sollen UltraServer, die mit Trainium3 betrieben werden, eine viermal bessere Leistung erbringen als solche, die mit den Trainium2-Chips betrieben werden. „Kunden können so beim Erstellen von Modellen noch schneller iterieren und bei der Bereitstellung eine überlegene Echtzeitleistung erzielen.“

Werbung

Die Trainium2-Chips des Cloud-Riesen, die viermal schneller sind als ihr Vorgänger, seien jetzt allgemein verfügbar, teilte AWS mit. Die Trainium2-betriebenen Amazon Elastic Compute Cloud (Amazon EC2)-Instanzen ermöglichen ein um 30 bis 40 Prozent besseres Preis-Leistungs-Verhältnis als aktuelle Chips und verfügen über 16 Trainium2-Chips. Die neuen Amazon EC2-Instanzen seien „ideal für das Training und die Bereitstellung von LLMs mit Milliarden von Parametern“, sagte AWS.

Werbung

Der Cloud-Riese sagte, er baue zusammen mit dem KI-Startup Anthropic einen EC2-UltraCluster aus Trainium2-basierten UltraServern namens Project Rainier. Im November gab AWS bekannt, dass es eine vorherige 4-Milliarden-Dollar-Investition in das KI-Startup mit folgenden Schritten fortführe: weitere 4 Milliarden Dollar. In der nächsten Phase der Partnerschaft wird Anthropic AWS als seinen primären KI-Trainingspartner nutzen.

Werbung

„Trainium2 wurde speziell dafür entwickelt, die größten und modernsten generativen KI-Workloads sowohl für Training als auch Inferenz zu unterstützen und das beste Preis-Leistungs-Verhältnis auf AWS zu bieten“, sagte David Brown, Vice President of Compute and Networking bei AWS, in einer Erklärung. „Mit Modellen von nahezu Billionen Parameter, verstehen wir, dass Kunden auch einen neuartigen Ansatz benötigen, um diese massiven Workloads zu trainieren und auszuführen. Die neuen Trn2 UltraServer bieten die schnellste Trainings- und Inferenzleistung auf AWS und helfen Organisationen jeder Größe, die weltweit größten Modelle schneller und zu geringeren Kosten zu trainieren und bereitzustellen.“

AWS-Geschäftsführer Matt Garman kündigte außerdem die nächste Generation der P6-Instance-Familie von Nvidia und AWS an, die mit den neuen Blackwell-Chips des Chipherstellers ausgestattet ist. Blackwell habe eine 2,5-mal schnellere Rechenleistung als die aktuelle Generation von Grafikprozessoren (GPUs), sagte Garman.

Werbung

Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier

Werbung