Der ehemalige Chefwissenschaftler von OpenAI gründet ein neues KI-Startup, das sich auf sichere „Superintelligenz“ konzentriert

Ilya Sutskever leitete früher das OpenAI-Team, das sich auf die Eindämmung der Gefahren fortgeschrittener KI konzentrierte

Für die Links auf dieser Seite können wir eine Provision verdienen.
Ilya Sutskever verließ OpenAI im Mai, wo er das „Super-Alignment“-Team des Unternehmens mitleitete.
Ilya Sutskever verließ OpenAI im Mai, wo er das „Super-Alignment“-Team des Unternehmens mitleitete.
Foto: Jack Guez/AFP (Getty Images)

Nachdem ich fast ein Jahrzehnt als Chefwissenschaftler der Superintelligenz beaufsichtigt habe künstliche Intelligenz Startup OpenAI, Ilja Sutskever ging im Mai. Einen Monat später gründete er sein eigenes KI-Unternehmen — Safe Superintelligence Inc.

Werbung

„Wir haben das weltweit erste SSI-Labor mit direktem Zugang gegründet, mit einem Ziel und einem Produkt: einer sicheren Superintelligenz“, Sutskever schrieb Mittwoch am X, früher Twitter. „Wir werden es durch revolutionäre Durchbrüche erreichen, die von einem kleinen Highlight-Team erzielt werden.“

Sutskever wird bei seinem neuen Unternehmen von Daniel Gross unterstützt, der zuvor die KI-Bemühungen von Apple leitete, sowie von Daniel Levy, einem weiteren ehemaligen OpenAi-Forscher. Das Startup hat Niederlassungen in Tel Aviv und Palo Alto, Kalifornien.

Werbung

Neben Jan Leike, der OpenAI im Mai ebenfalls verließ und nun bei Anthropic, einem KI-Unternehmen, arbeitet, gestartet von ehemaligen OpenAI-Mitarbeitern — Sutskever leitete das Superalignment-Team von OpenAI. Das Team konzentrierte sich auf die Kontrolle von KI-Systemen und darauf zu sichern, dass fortgeschritte KI keine Bedrohung darstellt Gefahr für die Menschheit. Sie wurde kurz nach dem Ableben beider Staatschefs aufgelöst.

Werbung

Safe Intelligence wird sich – wie der Name schon impliziert – auf ähnliche Sicherheitsbemühungen konzentrieren wie Sutskevers altes Team.

Werbung

„SSI ist unsere Mission, unser Name und unsere gesamte Produkt-Roadmap, denn darauf konzentrieren wir uns ausschließlich“, schrieben die Mitbegründer des Unternehmens in einem öffentlicher Brief„Unsere einzigartige Konzentration bedeutet, dass wir nicht durch Management-Overhead oder Produktzyklen abgelenkt werden, und unser Geschäftsmodell bedeutet, dass Sicherheit, Schutz und Fortschritt von kurzfristigem kommerziellen Druck abgeschirmt sind.“

Das Unternehmen verspricht außerdem, dass sein „einzigartiger Fokus“ verhindern werde, dass Einmischungen des Managements oder Produktzyklen ihre Arbeit behindern. Mehrere Mitglieder von OpenAI, darunter Gründungsmitglied Andrej Karpathy, haben das Unternehmen in den letzten Monaten verlassen. Mehrere ehemalige Mitarbeiter unterzeichneten letzten Monat einen offener Brief Alarm schlagen über „ernsthafte Risiken“ bei OpenAI aufgrund von Problemen mit Aufsicht und Transparenz.

Werbung

Sutskever war eines der Vorstandsmitglieder von OpenAI, die versuchten, den Mitbegründer und CEO zu verdrängen. Sam Altman im November, der schnell wieder eingesetzt wurde. Die Vorstände wurden Kritik über Altmans Handhabung der KI-Sicherheit und Vorwürfe über missbräuchliches Verhalten geäußert. Das ehemalige Vorstandsmitglied Helen Toner sagte, Altmans manipulatives Verhalten und seine toxische Kultur geschaffen hätten die Führungskräfte als „toxischen Missbrauch “ bezeichneten.

Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier

Werbung