Microsoft trainiert sein KI-Modell, um mit Google und OpenAI zu konkurrieren, heißt es in einem Bericht

Microsoft hat eine Milliarden-Dollar-Partnerschaft mit openAI

Für die Links auf dieser Seite können wir eine Provision verdienen.
Nahaufnahme, Unteransicht des Microsoft-Logos auf der Gebäudefront
Microsoft Experience Center auf der Fifth Avenue am 3. April 2024 in New York City.
Foto: Michael M. Santiago (Getty Images)

Microsoft ist angeblich Training eines eigenen künstlichen Intelligenzmodells um mit Modellen von Google und OpenAI zu konkurrieren, was es hat eine mehrjährige, milliardenschwere Partnerschaft mit.

Werbung

Das neue, firmeneigene Modell des Technologiegiganten, das intern als MAI-1 bezeichnet wird, wird vom ehemaligen KI-Chef von Google, Mustafa Suleyman, geleitet, berichtete The Information unter Berufung auf mit der Angelegenheit vertraute Personen. Microsoft Suleyman eingestellt, Mitbegründer der KI-Startups DeepMind (2014 von Google übernommen) und Inflection, dessen CEO er war, übernahm im März zusammen mit einem Großteil der Belegschaft von Inflection die Leitung der KI-Abteilung. Das Unternehmen zahlte außerdem 650 Millionen Dollar für die geistigen Eigentumsrechte von Inflection. Das neue Modell unterscheidet sich jedoch von den zuvor veröffentlichten Modellen von Inflection, teilten Personen The Information mit. The Information berichtete jedoch, dass Microsofts neues Modell möglicherweise auf Trainingsdaten und anderer Technologie von Inflection basiert.

Microsoft lehnte es ab, den Bericht zu kommentieren.

Kevin Scott, Chief Technology Officer bei Microsoft, schrieb: ein Beitrag auf LinkedIn das Unternehmen baut „große Supercomputer, um KI-Modelle zu trainieren“ und OpenAI „verwendet diese Supercomputer, um bahnbrechende Modelle zu trainieren.“

Werbung

„Jeder Supercomputer, den wir für Open AI bauen, ist viel größer als der vorherige, und jedes Spitzenmodell, das sie trainieren, ist viel leistungsfähiger als seine Vorgänger“, schrieb Scott. „Wir werden diesen Weg weiterverfolgen und immer leistungsfähigere Supercomputer für Open AI bauen, um die Modelle zu trainieren, die auch in Zukunft das Tempo für das gesamte Feld vorgeben werden.“ Scott fügte hinzu, dass Microsoft seit Jahren KI-Modelle baut und einige der „Modelle Namen wie Turing und MAI haben.“

MAI-1 wird teuer sein, da es große Mengen an Rechenleistung und Trainingsdaten benötigt, da es „viel größer“ sein wird als die kleineren Open-Source-Modelle, die Microsoft trainiert hat, teilten Leute The Information mit. Im Vergleich zu Open-Source-Modellen von Meta und Mistral, die 70 Milliarden Parameter haben – oder die Variablen, die Modelle während des Trainings lernen – Vorhersagen machen — MAI-1 wird Berichten zufolge über rund 500 Milliarden Parameter verfügen. OpenAIs leistungsstärkstes Modell, GPT-4, verfügt Berichten zufolge über eine Billion Parameter.

Werbung

Microsoft könnte das Modell noch in diesem Monat auf seiner jährlichen Entwicklerkonferenz Build vor vorstellen, berichtete The Information. Das Unternehmen verfügt über einen großen Server-Cluster mit GPUs oder Grafikprozessoren von Nvidia sowie großen Datenmengen zum Training des Modells, hinzugefügt wurde.

Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier

Werbung