Das OpenAI-Team, das für die existenziellen Gefahren der künstlichen Intelligenz verantwortlich war, existiert nicht mehr, nachdem Mitbegründer und Chefwissenschaftler Ilja Sutskever — und sein Co-Leiter des „Superalignment“-Teams Jan Leike — trat am Dienstag zurück.
OpenAI erklärte Wired , dass es löste das Team aufund fügte hinzu, dass seine Arbeit von anderen Forschungsbemühungen im gesamten Unternehmen absorbiert werde. Das Unternehmen gab bekannt, dass Superausrichtungsteam letzten Juli, mit Sutskever und Leike am Ruder.
„Superintelligenz wird die wirkungsvollste Technologie sein, die die Menschheit je erfunden hat, und könnte uns helfen, viele der wichtigsten Probleme der Welt zu lösen“, sagte OpenAI damals. „Aber die enorme Macht der Superintelligenz könnte auch sehr gefährlich sein und zur Entmachtung der Menschheit oder sogar zur Ausrottung der Menschheit führen.“
Dem Team wurde die Arbeit an diesem Problem übertragen und OpenAI teilte mit, dass es in den nächsten vier Jahren 20 % seiner Rechenleistung für diese Aufgabe bereitstellen werde.
Sutskever, der im November eine Rolle bei der vorübergehenden Absetzung von OpenAI-Geschäftsführer Sam Altman spielte, schrieb am X Am Dienstag hat er die Entscheidung getroffen, das Unternehmen nach fast einem Jahrzehnt zu verlassen. „Ich bin gespannt auf das Nächste – ein Projekt, das mir persönlich sehr bedeutet und über das ich zu recht Einzelheiten bekannt geben werde“, schrieb er.
Am Freitag teilte Leike einen Thread auf X über seine Entscheidung, das Unternehmen zu verlassen, was er als „eines der schwierigsten Dinge, die ich je getan habe, bezeichnete, denn wir müssen dringend herausfinden, wie wir KI-Systeme, die viel intelligenter sind als wir, steuern und kontrollieren können.“
Leike schrieb, er komme OpenAI, weil er dachte, es wäre „der beste Ort der Welt für diese Forschung“, aber er „seit geraumer Zeit uneins mit der Führung von OpenAI über die Kernprioritäten des Unternehmens war, bis wir schließlich einen Knackpunkt erreicht haben.“ Er führte den Thread fort und schrieb, OpenAI sollte bei der Verbreitung der künstlichen allgemeinen Intelligenz (AGI) der Sicherheit Priorität einräumen.
Sutskever und Leike nehmen an einer Liste anderer OpenAI-Mitarbeiter, die ausgeschieden sind das Unternehmen vor kurzem gemeinsam mit anderen Mitgliedern des Superalignment-Teams und Forschern die an der KI-Politik und Governance arbeiten. Die Ankündigungen kamen einen Tag nach der Enthüllung von OpenAI
neuester multimodaler KI-Chatbot, ChatGPT-4o. the company recently, including others from the superalignment team and researchers working on AI policy and governance. The announcements came a day after OpenAI revealed its newest multimodal AI chatbot, ChatGPT-4o.
Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier