Die Mitbegründer von Anthropic sagen, dass ihre KI-Modelle Lehren aus den Schäden der sozialen Medien ziehen

Daniela und Dario Amodei sprachen über ihre Mission, eine sicherere und verantwortungsvollere KI zu entwickeln

Für die Links auf dieser Seite können wir eine Provision verdienen.
Bild für Artikel mit dem Titel Die Mitbegründer von Anthropic sagen, dass ihre KI-Modelle Lehren aus den Schäden der sozialen Medien ziehen
Foto: Pavlo Gonchar/SOPA Images/LightRocket (Getty Images)

Während sich die Mission von OpenAI darauf konzentriert, KI auf großem Maßstab zu bringen, konzentriert sich der Konkurrent Anthropic auf Sicherheit und Schutz. Und die Mitbegründer, Geschwister und ehemaligen OpenAI-Mitarbeiter Daniela und Dario Amodei sagen, dass ihre Bedenken hinsichtlich des Schadenspotenzials von KI daher rühren, dass sie die Entwicklung anderer Technologien beobachten.

Werbung

„Wir haben das starke Gefühl , dass aus früheren Technologiewellen oder Innovationen einige Lehren gelernt werden können“, sagte Daniela Amodei Brad Stone von Bloomberg während eines Interviews auf dem Bloomberg Technology Summit am Donnerstag. „Wir hatten einfach mehrere Jahrzehnte Zeit um auf Dinge wie soziale Medien zurückzublicken und zu sagen: ‚Wow, wissen Sie , das hat viel Gutes hervorgebracht, aber diese Technologie hat auch viel Schaden angerichtet.‘

„Ob man das im Voraus hätte vorhersehen können oder nicht, ist schwer zu sagen, aber ich denke, wir versuchen, so verantwortungsvoll wie möglich zu handeln und darüber nachzudenken, welche potenziellen externen Effekte diese Technologie unbeabsichtigt verursachen könnte“, sagte sie.

Werbung

Die Risiken der generativen KI sind stärker in den Fokus gerückt im letzten Jahr, als immer mehr Chatbots von immer mehr Unternehmen online gingen. Microsofts Copilot empfahl einem Benutzer Selbstverletzung, OpenAIs ChatGPT erstellte gefälschte Rechtsrecherchen und Googles Gemini machte historisch ungenaue Bilder, um nur einige Beispiele zu nennen. Unterdessen wurden KI-Deepfakes von Prominenten, Politikern und Journalisten eingesetzt, um ihre Opfer zu verleumden und Desinformation zu verbreiten.

Werbung

Die Amodeis verließ OpenAI im Jahr 2020 aufgrund von Bedenken, dass generative künstliche Intelligenztechnologien zu schnell skalieren ohne angemessene Schutzmaßnahmen, und Sie wollten ein vertrauenswürdigeres Modell aufbauen. Sie haben genau daran gearbeitet mit Anthropics Chatbot Claude, der sich selbst als „sicheres, präzises und geschütztes“ Tool bewirbt. Anthropics neueste Iteration des Produkts, Claude 3 , wurde als eines der leistungsstärksten KI-Modelle bezeichnet, wenn auch nicht das leistungsstärkste Tool, wobei Amode behauptet es es ChatGPT-4 übertreffen kann. Das Startup wird von Amazon und Google unterstützt.

Werbung

Anthropics „Constitutional AI“, ein Regelwerk zum Trainieren von KI-Systemen, trägt dazu bei, sicherzustellen, dass Modelle so trainiert werden, dass toxische und diskriminierende Reaktionen vermieden werden. Derartige Bemühungen, sagen die Amodeis, setzen die gesamte Branche unter Druck, sicherere und verantwortungsvollere Modelle zu entwickeln.

„Wir haben dieses Konzept der ein verantwortungsvoller Skalierungsplan”, ein Framework, das Technologieunternehmen dabei helfen soll, die Risiken zu vermeiden, die mit der Entwicklung immer leistungsfähigerer KI-Systeme verbunden sind”, sagt Dario Amodei. „Wir haben das letzten September herausgegeben, und wenige Monate lang hat OpenAI etwas Ähnliches herausgebracht, und es schien uns wirklich so, dass unser Projekt dazu bei half, die Bemühungen anderer anzuspornen. Nun haben wir gehört, dass Google das Gleiche tut.“

Werbung

Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier

Werbung