OpenAI startete sein Superalignment-Team vor fast einem Jahr mit dem ultimativen Ziel, hypothetische superintelligente KI-Systeme zu kontrollieren und zu verhindern, dass sie sich gegen die Menschen wenden. Natürlich machten sich viele Menschen Sorgen: Warum musste ein solches Team überhaupt existieren? Nun ist etwas Besorgniserregenderes passiert: Die Leiter des Teams, Ilya Sutskever und Jan Leike, beenden Sie OpenAI einfach.
Der Rücktritt der Superalignment-Führung ist der jüngste in einer Reihe bemerkenswerter Abgänge aus dem Unternehmen, von denen einige aus dem sicherheitsorientierten Team von Sutskever und Leike kamen. Bereits im November 2023 führten der Vorstand von Sutskever und OpenAI einen gescheiterten Versuch an, Superalignment abzusetzen. CEO Sam Altman. Sechs Monate später haben mehrere Mitarbeiter von OpenAI das Unternehmen verlassen, die sich entweder offen zur Sicherheit von KI geäußert haben oder in wichtigen Sicherheitsteams mitgearbeitet haben.
Sutskever entschuldigte sich schließlich für den Putsch (mein Fehler, Kumpel!) und unterzeichnete zusammen mit 738 OpenAI-Mitarbeitern (von insgesamt 770) einen Brief, in dem er die Wiedereinstellung von Altman und Präsident Greg Brockman forderte. Kopie des Briefes, den die New York Times mit 702 Unterschriften erhalten hat (die vollständigste öffentliche Kopie, die Gizmodo finden konnte), mehrere Mitarbeiter, die inzwischen gekündigt haben, haben die Unterstützungsbekundung für die Führung von OpenAI entweder nicht unterzeichnet oder waren Nachzügler.
Die Namen der Superalignment-Teammitglieder Jan Leike, Leopold Aschenbrenner und William Saunders – die inzwischen ausgestiegen sind – erscheinen nicht neben den mehr als 700 anderen OpenAI-Mitarbeitern, die Altman und Brockman unterstützen. Mal‘ Kopie. Der weltbekannte KI-Forscher Andrej Karpathy und die ehemaligen OpenAI-Mitarbeiter Daniel Kokotajlo und Cullen O’Keefe erscheinen ebenfalls nicht in dieser frühen Version des Briefes und haben OpenAI mittlerweile verlassen. Diese Personen haben die spätere Version des Briefes möglicherweise unterzeichnet, um ihre Unterstützung zu signalisieren, aber wenn das dem zutrifft, scheinen sie die letzten gewesen zu sein, die das taten.
Gizmodo hat OpenAI um einen Kommentar dazu gesucht, wer das Superalignment-Team von nun an leiten wird, aber wir haben nicht sofort eine Antwort erhalten.
Im weiteren Sinne war die Sicherheit bei OpenAI schon immer ein kontroverses Thema. Das war es, was Dario und Daniela Amodei im Jahr 2021 dazu veranlasste, ein eigenes KI-Unternehmen zu gründen, Anthropic, neben neun anderen ehemaligen OpenAI-Mitarbeitern. Die Sicherheitsbedenken waren Berichten nach auch der Grund der gemeinnützigen Vorstandsmitglieder von OpenAI, Altman und Brockman abzusetzen. Diese Vorstandsmitglieder wurden durch einige berühmte Unternehmer aus dem Silicon Valley ersetzt.
Bei OpenAI arbeiten immer noch viele Leute an der Sicherheit des Unternehmens. Schließlich besteht die erklärte Mission des Startups darin, eine sichere künstliche Intelligenz (AGI) zu schaffen, die der Menschheit zugutekommt! Vor diesem Hintergrund finden Sie hier Gizmodos laufende Liste namhafter KI-Sicherheitsbefürworter, die OpenAI seit Altmans Absetzung verlassen haben. Klicken Sie sich auf Ihrem Desktop durch oder scrollen Sie einfach auf Ihrem Mobilgerät weiter.