Weniger als zwei Wochen nachdem er OpenAI verlassen hatte, gab einer der ehemaligen Sicherheitsleiter für künstliche Intelligenz des Unternehmens bekannt, dass er bei einem der Konkurrenten gelandet sei.
Jan Leike, Co-Leiter von OpenAIs inzwischen aufgelöstes „Superalignment-Team“”, das für die existenziellen Gefahren der KI verantwortlich war, trat Anfang dieses Monats aus dem Unternehmen zurück. Am Dienstag sagte Leike auf X, er sei „aufgeregt“, dem KI-Unternehmen Anthropic beizutreten „um die Superalignment-Mission fortzusetzen.“ Er fügte hinzu, dass sein neues Team „an skalierbarer Überwachung, schwacher zur starken Generalisierung und automatisierter Ausrichtungsforschung arbeiten wird.“
Anthropic, das kürzlich einen 4 Milliarden Dollar Investition von Amazon, sagte seine neueste im März veröffentlichte KI-Modellfamilie, Claude 3, übertraf OpenAIs GPT-4.
Das Unternehmen wurde 2021 von den ehemaligen OpenAI-Mitarbeitern Daniela und Dario Amodei gegründet, um „sicherere“ Chatbots zu entwickeln. Die Geschwister Amodei habe einen Versuch an OpenAI unternommen Anfang dieses Monats sagte das Unternehmen auf dem Technology Summit von Bloomberg, dass sein Modell Claude 3 Opus „das leistungsfähigste und leistungsstärkste KI-Modell ist, das überall auf der Welt verfügbar ist.“
Leike seinen Abschied bekannt gegeben von OpenAI , nachdem sein Co-Leiter Ilya Sutskever, der auch das Unternehmen mitbegründet und als dessen Chefwissenschaftler fungierte, seinen Wechsel ankündigte. Leike nannte seine Entscheidung zu gehen „eine der schwierigsten Entscheidungen die ich je getan habe, weil wir dringend herausfinden müssen, wie wir KI-Systeme steuern und kontrollieren können, die viel intelligenter sind als wir.“
Leike schrieb, er komme zu OpenAI, weil er dachte, dass das Unternehmen „der beste Ort der Welt sei, um diese Forschung durchzuführen“, aber er „seit geraumer Zeit uneins mit der Führung von OpenAI über die Kernprioritäten des Unternehmens war, bis wir schließlich an einem Knackpunkt ankamen.“ Er schrieb weiter, dass OpenAI bei der Verbreitung einer künstlichen allgemeinen Intelligenz (AGI) die Sicherheit an Priorität einräumen sollte.
OpenAI berichten zufolge hat seine Verpflichtungen gegenüber dem Superalignment-Team nicht eingehalten das es letzten Juli ankündigte. Die Anfragen des Teams nach Zugriff auf GPUs oder Grafikprozessoren wurden wiederholt abgelehnt, und es kam nie auch auch auch nahe an das versprochene Rechenleistungsbudget von 20% . Fortune berichtete, und verwies dabei auf mit der Angelegenheit vertraute Quellen.
Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier