Offener Brief von KI-Mitarbeitern: KI-Unternehmen bergen „ernste Risiken“ und benötigen Aufsicht

11 ehemalige OpenAI-Mitarbeiter und zwei ehemalige Mitarbeiter von Google DeepMind und Anthropic forderten Unternehmen auf, „eine Kultur der offenen Kritik“ zu fördern

Für die Links auf dieser Seite können wir eine Provision verdienen.
Bild für Artikel mit dem Titel Offener Brief von KI-Mitarbeitern: KI-Unternehmen bergen „ernste Risiken“ und benötigen Aufsicht
Foto: Jaap Arriens/NurPhoto (Getty Images)

Mitarbeiter führender KI-Unternehmen schlagen Alarm wegen der „ernsthaften Risiken“, die die Evolution der künstlichen Intelligenz mit Lichtgeschwindigkeit mit sich bringe. In einem heute veröffentlichten offenen Brief warnten rund 13 ehemalige und aktuelle Mitarbeiter von OpenAI, Google DeepMind und Anthropic – 11 der Gruppe waren oder sind mit OpenAI verbunden –, dass es den KI-Technologieunternehmen an Aufsicht und Transparenz mangele.

Werbung

Sie forderten Unternehmen, die Spitzentechnologien der künstlichen Intelligenz entwickeln, dazu auf, den Schutz von Whistleblowern zu stärken und eine Kultur zu schaffen, die Kritik fördert. Ihr Brief wurde von den sogenannten „Paten“ der KI unterstützt – Yoshua Bengio und Geoffrey Hinton — sowie der Informatiker Stuart Russell. Sie alle leisteten wichtige Forschung , die zur Schaffung der modernen KI führte und wurden dann zu ihren größten Kritikern.

Lesen der offene Brief hier.

Wir sind aktuelle und ehemalige Mitarbeiter bei bahnbrechenden KI-Unternehmen und glauben an das Potenzial der KI-Technologie, der Menschheit beispiellose Vorteile zu bringen.

Wir sind auch der ernsthaften Risiken bewusst, die von diesen Technologien ausgehen. Diese Risiken reichen von der weiteren Verfestigung bestehender Ungleichheiten über Manipulation und Desinformation bis zum Kontrollverlust über autonome KI-Systeme, der möglicherweise zum Aussterben der Menschheit führt. KI-Unternehmen selbst haben diese Risiken eingeschätzt, ebenso wie Regierungen auf der ganzen Welt und andere KI-Experten.

Wir hoffen , dass diese Risiken mit ausreichender Anleitung durch die wissenschaftliche Gemeinschaft, die politischen Entscheidungsträger und die Öffentlichkeit angemessen gemindert werden können. Allerdings haben KI-Unternehmen starke finanzielle Anreize, einer wirksamen Aufsicht zu entgehen, und wir glauben nicht, dass maßgeschneiderte Unternehmensführungsstrukturen ausreichen um die Änderung daran zu ändern.

KI-Unternehmen verfügen über umfangreiche nicht-öffentliche Informationen über die Fähigkeiten und Grenzen ihrer Systeme, die Angemessenheit ihrer Schutzmaßnahmen und die Risikostufen verschiedener Arten von Schäden. Allerdings sind sie derzeit nur schwach verpflichtet, einige dieser Informationen mit Regierungen zu teilen, und überhaupt nicht mit der Zivilgesellschaft. Wir glauben nicht, dass man sich darauf verlassen kann, dass sie diese Informationen alle freiwillig weitergeben.

Werbung

Derzeit gibt es keine bundesstaatliche Regulierung für KI.

Solange es keine wirksame staatliche Aufsicht über diese Unternehmen gibt, gehören aktuelle und ehemalige Mitarbeiter zu den wenigen Menschen, die sie gegenüber der Öffentlichkeit zur Verantwortung ziehen können. Dennoch hindern uns umfassende Vertraulichkeitsvereinbarungen daran, unsere Bedenken zu äußern – außer gegenüber genau den Unternehmen, die diese Probleme möglicherweise nicht angehen.

Werbung

OpenAI-Mitarbeiter sind an strenge Vertraulichkeitsvereinbarungen gebunden… und diejenige(n), die sich entscheiden, diese Vereinbarungen nicht zu unterzeichnen, verlieren ihre Beteiligung an OpenAI. Daniel Kokotajlo ist einer der sieben Autoren des Briefes, die mit ihrem Namen unterzeichnet haben, anstatt sich für Anonymität zu entscheiden. Kokotajlo ist ein Forscher, der OpenAI letzten Monat verlassen hat. „aufgrund des Vertrauensverlusts, dass es zur Zeit der AGI [ein Akronym für eine fortgeschrittenere Form der künstlichen Intelligenz mit der „künstlichen allgemeinen Intelligenz“] verantwortungsvoll verhalten würde.“

Werbung

Kokotajlo enthüllte letzten Monat in einem Beitrag auf seiner Website , dass er von der Vertraulichkeitsvereinbarung abgewichen ist, er verlor sein Eigenkapital, damit er das Unternehmen offen kritisieren konnte.

Der gewöhnliche Schutz von Hinweisgebern ist unzureichend, da er sich auf illegale Aktivitäten konzentriert, während viele der Risiken, die uns Sorgen bereiten, noch nicht reguliert sind. Angesichts der zahlreichen Fälle, die es in der Branche bereits gibt, fürchten einige von uns berechtigterweise Vergeltungsmaßnahmen in verschiedenen Formen. Wir sind nicht die Ersten, die mit diesen Problemen konfrontiert sind oder darüber sprechen.

Wir fordern daher fortschrittliche KI-Unternehmen auf, sich zu folgenden Grundsätzen zu verpflichten:

  1. Dass das Unternehmen keine Vereinbarung abschließt oder durchsetzt jede Vereinbarung, die die „Verunglimpfung“ oder Kritik gegen das Unternehmen aufgrund risikobezogener Bedenken verbietet oder Vergeltung für risikobezogene Kritik durch die Verhinderung jeglicher erzielter wirtschaftlicher Vorteile verbietet;
  2. Dass das Unternehmen einen nachweislich anonymen Prozess ermöglicht dass aktuelle und ehemalige Mitarbeiter die Möglichkeit haben, risikobezogene Bedenken dem Vorstand des Unternehmens, den Aufsichtsbehörden und einer geeigneten unabhängigen Organisation mit entsprechender Sachkenntnis zu melden;
  3. Dass das Unternehmen eine Kultur der offenen Kritik fördert und seinen aktuellen und ehemaligen Mitarbeitern die Möglichkeit zu ermöglichen, risikobezogene Bedenken hinsichtlich seiner Technologien der Öffentlichkeit gegenüber dem Vorstand des Unternehmens, den Aufsichtsbehörden oder einer geeigneten unabhängigen Organisation mit entsprechender Sachkenntnis zu äußern, solange Geschäftsgeheimnisse und andere geistige Eigentumsrechte angemessen geschützt werden;
  4. Dass das Unternehmen keine Vergeltungsmaßnahmen gegen aktuelle und ehemalige Mitarbeiter ergreifen wird, die risikobezogene vertrauliche Informationen öffentlich weitergeben, nachdem andere Prozesse fehlgeschlagen sind. Wir akzeptieren, dass bei jeder Meldung von risikobezogenen Bedenken die unnötige Veröffentlichung vertraulicher Informationen vermeiden sollte. Sobald ein angemessener Prozess zum anonymen Äußern von Bedenken gegenüber dem Vorstand des Unternehmens, den Aufsichtsbehörden und einer geeigneten unabhängigen Organisation mit entsprechender Expertise existiert, akzeptieren wir daher, dass Bedenken zunächst über ein solches Verfahren geäußert werden sollten. Solange jedoch ein solches Verfahren nicht existiert, sollten aktuelle und ehemalige Mitarbeiter die Freiheit behalten, ihre Bedenken der Öffentlichkeit zu melden.
Werbung

Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier

Werbung