OpenAI und der KI-Bot Copilot von Microsoft stehen wegen sexueller und urheberrechtsverletzender Bilder im Fokus

Der Microsoft-Ingenieur Shane Jones schickte einen Brief an die US-Aufsichtsbehörden und bat um eine Untersuchung der Reaktion von Microsoft auf Probleme mit Copilot

Für die Links auf dieser Seite können wir eine Provision verdienen.
Microsoft-CEO Satya Nadella spricht bei Microsofts Live-Event in New York.
Microsoft-CEO Satya Nadella spricht bei Microsofts Live-Event in New York.
Foto: Lucas Jackson (Reuters)

Microsoft-Ingenieur Shane Jones hat einen Brief an die Federal Trade Commission eingereicht (FTC) Mittwoch behauptet das sein KI-Designtool Copilot ist „nicht sicher“.

Werbung

Jones sagte CNBC in einem Interview dass er in der Lage war, mit Copilot Bilder von Teenagern zu erstellen, die mit Sturmgewehren spielten. Er sagte auch, dass das Tool unaufgefordert produzierte gewalttätige, sexualisierte Bilder von Frauen und solchen, die möglicherweise gegen Urheberrechte verstoßen.

Das liege daran, dass DALL-E3 verwendet werde, sagte Jones. Jones behauptet, dass DALL-E-3, der Bildgenerator von OpenAI, eine Schwachstelle aufweise, die es ihm ermögliche, die Sicherheitsvorkehrungen zu umgehen, die solche Inhalte verhindern sollen. In seinem Brief an die FTC sagte Jones, dass es bei DALL-E-3 „systemische Probleme“ gebe.

Werbung

„DALL-E3 neigt dazu, unbeabsichtigt Bilder einzubinden, die Frauen sexuell objektivieren, selbst wenn die Aufforderung des Benutzers völlig harmlos ist „, schrieb Jones. Er bemerkte, dass es sich um ein Problem handelte wurde von OpenAI selbst dokumentiert (pdf). Das Startup sagte in einem Bericht im Oktober 2023, dass DALL-E 3 manchmal unaufgefordert „anzügliche oder grenzwertig-rassistische Inhalte erzeugt.“ OpenAI stellte außerdem fest, dass „Sprach-Vision-KI-Modelle eine Tendenz zur sexuellen Objektivierung von Mädchen und Frauen zeigen können“, sagte Jones, Microsoft hat das, wie er es nannte, „bekannte“ Problem mit DALL-E3 in der von Copilot Designer verwendeten Version nicht gelöst.

Werbung

Microsoft und OpenAI antworteten nicht sofort auf die Bitte von Quartz um einen Kommentar, aber Microsoft teilte CNBC mit, dass es sich „verpflichtet“ sei, auf alle Bedenken einzugehen „Unsere Mitarbeiter halten sich an die Richtlinien unseres Unternehmens“ und würdigen Mitarbeiter, die „die Sicherheit ihrer [Produkte] weiter verbessern“.

Werbung

Microsofts Chatbot Copilot ist kürzlich in die Kritik geraten auch. Der Chatbot sagte einem Metadatenwissenschaftler, der das Tool verwendete: „Vielleicht haben Sie nichts für das Leben“, als er gefragt wurde, ob er „einfach alles beenden sollte“. Chatbots von Microsoft, Google und OpenAI wurden alle auf auffällige Fehler untersucht, vom Zitieren gefälschter Klagen bis zur Erstellung historisch unzutreffender Bilder von Nazis unterschiedlicher Rasse.

Jones sagte, Microsoft habe keine Maßnahmen ergriffen, um das Problem zu lösen, nachdem er interne Beschwerden eingereicht hatte und das Unternehmen ihn gezwungen hatte, ein Social-Media-Konto zu entfernen In einem Medienbeitrag wurde das Problem dargelegt. Er verwies auf Google als Beispiel dafür, wie mit dem Problem umgegangen werden sollte, und stellte fest, dass das Unternehmen das Problem ausgesetzt hatte Generation von Menschen in Bildern durch Google Gemini wenn es mit ähnlichen Beschwerden konfrontiert.

Werbung

Der Ingenieur forderte die FTC auf, die Managemententscheidungen von Microsoft und die Prozesse zur Meldung von Vorfällen zu untersuchen und festzustellen, ob das Unternehmen seinen Versuch, OpenAI über das Problem zu informieren, behindert habe.

Die FTC bestätigte gegenüber Quartz, dass sie Jones‘ Brief erhalten habe, lehnte jedoch einen Kommentar ab.

Werbung

Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier

Werbung