Im vergangenen Juli kündigte OpenAI an, „Superalignment“-Team, eine Einheit, die sich der Kontrolle der existenziellen Gefahren der künstlichen Intelligenz widmet – ein Vorhaben, dem das Unternehmen nach eigenen Angaben in den nächsten vier Jahren 20 % seiner Rechenleistung widmen wird. Berichten zufolge hat seine Verpflichtungen nicht eingehalten.
Berichten zufolge wurden die Anfragen des Superalignment-Teams nach Zugriff auf GPUs (Grafikprozessoren, die beim Trainieren und Ausführen von KI-Modellen verwendet werden) von der OpenAI-Führung wiederholt abgelehnt. Auch das versprochene Rechenleistungsbudget des Teams kam nie in die Nähe von 20 %, berichtete Fortune unter Berufung auf namentlich nicht genannte Personen, die mit dem Team vertraut sind. OpenAI hat das Team aufgelöst letzte Woche, nachdem seine Co-Leiter Ilya Sutskever und Jan Leike aus dem Unternehmen ausgetreten sind. OpenAI antwortete nicht sofort auf eine Bitte um einen Kommentar.
Quellen erzählten Fortune, dass dem Superalignment-Team die versprochene Rechenleistung nie zugeteilt wurde und es vom Unternehmen nur einen großen Geringfügigen Teil des regulären Rechenbudgets erhielt. Eine Person sagte, OpenAI habe keine klaren Bedingungen festgelegt, wie die versprochenen 20% der Rechenleistung zugeteilt werden sollten, beispielsweise ob es „20% pro Jahr für vier Jahre“ oder „5% pro Jahr für vier Jahre“ sei.
In der Zwischenzeit wurde das Superalignment-Team von Bob McGrew, dem Vizepräsidenten für Forschung bei OpenAI, wiederholt darüber informiert, dass es ist Anfragen für zusätzliche GPUs über das bereits budgetierte hinaus wurden abgelehnt. Aber Andere Führungskräfte von OpenAI –darunter Chief Technology Officer Mira Murati – waren an der Ablehnung der Anfragen beteiligt, erzählten Quellen Fortune.
Diese Verlagerung der Investitionen verhieß nichts Gutes für das Sicherheitsteam. Ohne die zugewiesene Rechenleistung war das Superalignment-Team nicht in der Lage, anspruchsvollere Forschungsarbeiten durchzuführen, teilte Fortune eine Person mit. Quellen bestätigten auch Leike’s Erfahrungsbericht des Teams das er auf X teilte, nachdem er seinen Rücktritt aus dem Unternehmen angekündigt hatte. Leike schrieb, „Sicherheitskultur und -prozesse seien hinter glänzenden Produkten hinter der Zentrale gestanden und das Team manchmal „Rechenprobleme hat und es immer schwieriger wurde, diese entscheidende Forschung durchzuführen.“
Einige Quellen erzählten Fortune, der Zugriff des Teams auf die Rechenleistung habe sich verschlechtert, nachdem OpenAI-Geschäftsführer Sam Altman im November vorübergehend entlassen wurde – eine Aktion, die von Sutskever geleitet wurde, einem Mitbegründer und leitenden Wissenschaftler des Unternehmens. Eine Person sagte jedoch, die Probleme hätten bereits vor der Entlassung bestanden. Quellen zufolge hatte Sutskever nach Thanksgiving keinen Zugriff mehr auf das Superalignment-Team.
Sutskever und Leike schlossen sich einer Liste anderer OpenAI-Mitarbeiter, die ausgeschieden sind das Unternehmen vor kurzem, darunter auch andere Mitglieder aus dem Superalignment-Team und Forscher, die an der KI-Politik und der Verwaltung arbeiten.
Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier