OpenAI hat ein neues Sicherheitsausschuss nach seiner Existential Dangers Team wurde aufgelöst Anfang dieses Monats.
Die neues Aufsichtsteam wird vom Vorstandsvorsitzenden Bret Taylor, den Direktoren Adam D’Angelo und Nicole Seligman sowie dem Geschäftsführer von OpenAI geleitet. Sam Altman, gab das Künstliche-Intelligenz-Unternehmen am Dienstag bekannt. Die erste Aufgabe des Ausschusses werde darin bestehen, in den nächsten 90 Tagen die Prozesse und Sicherheitsvorkehrungen von OpenAI zu bewerten und weiterzuentwickeln, teilte das Unternehmen mit.
Am Ende des dreimonatigen Zeitraums wird das Komitee seine Empfehlungen dem gesamten Vorstand vorlegen, und das Unternehmen wird nach der Prüfung öffentlich ein Update zu den angenommenen Empfehlungen veröffentlichen.
Das Unternehmen bestätigte außerdem, dass es mit dem Training seines „Next-Frontier“-KI-Modells begonnen hat. Es soll die Nachfolge des GPT-4-Modells antreten, das hinter dem Chatbot ChatGPT steckt, und ihm dabei helfen, künstliche allgemeine Intelligenz (AGI).
Dem Sicherheitsausschuss gehören auch technische und politische Experten von OpenAI an, darunter der Leiter der Bereitschaft Aleksander Madry, die Leiterin der Sicherheitssysteme Lilian Weng, der Leiter der Ausrichtungswissenschaft John Schulman, der Sicherheitsleiter Matt Knight und der Chefwissenschaftler Jakub Pachocki.
Dies geschah, nachdem das Unternehmen das für die existenziellen Gefahren der KI verantwortliche Team geschlossen hatte, nachdem die beiden Co-Leiter des sogenannten „Superalignment“-Teams des Unternehmens – Mitbegründer und Chefwissenschaftler Ilja Sutskever und Jan Leike — am 14. Mai zurückgetreten.
Nach seinem Abgang schrieb Leike in einem Thread auf X: er hatte einen „Bruchpunkt“ erreicht über Unstimmigkeiten in den Kernprioritäten des Unternehmens und fügte hinzu, dass „Sicherheitskultur und -prozesse in den letzten Jahren hinter glänzenden Produkten hinter der Zwischenposition stehen seien“.
Sutskever – der dabei half, Altman Ende letzten Jahres kurzzeitig aus der Führung von OpenAI zu verdrängen – und Leike schlossen sich den Reihen mehrerer anderer OpenAI Mitarbeiter , die haben das Unternehmen in den letzten Monaten verlassen, darunter auch andere Mitglieder des Superalignment-Teams sowie Forscher, die an der KI-Politik und -Governance arbeiten und den Eindruck haben, dass das Unternehmen von seiner ursprünglichen Mission abgewichen sei.
Als Reaktion auf die prominenten Abgänge sagten Altman und OpenAI-Präsident Greg Brockman in einem mitunterzeichneter Beitrag auf X dass sie weiterhin die Grundlagen für die sichere Bereitstellung von immer leistungsfähigeren KI-Modellen legen. „Wir müssen unsere Sicherheitsarbeit weiter verbessern, um den Anforderungen jedes neuen Modells gerecht zu werden“, sagten sie.
Dazu gehören ein „sehr enger Feedback-Kreislauf, rigorose Tests, sorgfältige Abwägung jedes einzelnen Schritts, Sicherheit auf Weltklasseniveau und eine Harmonie von Sicherheit und Fähigkeiten“, schrieben die beiden.
Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier