Microsoft-Ingenieur Shane Jones hat einen Brief an die Federal Trade Commission eingereicht (FTC) Mittwoch behauptet das sein KI-Designtool Copilot ist „nicht sicher“.
Jones sagte CNBC in einem Interview dass er in der Lage war, mit Copilot Bilder von Teenagern zu erstellen, die mit Sturmgewehren spielten. Er sagte auch, dass das Tool unaufgefordert produzierte gewalttätige, sexualisierte Bilder von Frauen und solchen, die möglicherweise gegen Urheberrechte verstoßen.
Das liege daran, dass DALL-E3 verwendet werde, sagte Jones. Jones behauptet, dass DALL-E-3, der Bildgenerator von OpenAI, eine Schwachstelle aufweise, die es ihm ermögliche, die Sicherheitsvorkehrungen zu umgehen, die solche Inhalte verhindern sollen. In seinem Brief an die FTC sagte Jones, dass es bei DALL-E-3 „systemische Probleme“ gebe.
„DALL-E3 neigt dazu, unbeabsichtigt Bilder einzubinden, die Frauen sexuell objektivieren, selbst wenn die Aufforderung des Benutzers völlig harmlos ist „, schrieb Jones. Er bemerkte, dass es sich um ein Problem handelte wurde von OpenAI selbst dokumentiert (pdf). Das Startup sagte in einem Bericht im Oktober 2023, dass DALL-E 3 manchmal unaufgefordert „anzügliche oder grenzwertig-rassistische Inhalte erzeugt.“ OpenAI stellte außerdem fest, dass „Sprach-Vision-KI-Modelle eine Tendenz zur sexuellen Objektivierung von Mädchen und Frauen zeigen können“, sagte Jones, Microsoft hat das, wie er es nannte, „bekannte“ Problem mit DALL-E3 in der von Copilot Designer verwendeten Version nicht gelöst.
Microsoft und OpenAI antworteten nicht sofort auf die Bitte von Quartz um einen Kommentar, aber Microsoft teilte CNBC mit, dass es sich „verpflichtet“ sei, auf alle Bedenken einzugehen „Unsere Mitarbeiter halten sich an die Richtlinien unseres Unternehmens“ und würdigen Mitarbeiter, die „die Sicherheit ihrer [Produkte] weiter verbessern“.
Microsofts Chatbot Copilot ist kürzlich in die Kritik geraten auch. Der Chatbot sagte einem Metadatenwissenschaftler, der das Tool verwendete: „Vielleicht haben Sie nichts für das Leben“, als er gefragt wurde, ob er „einfach alles beenden sollte“. Chatbots von Microsoft, Google und OpenAI wurden alle auf auffällige Fehler untersucht, vom Zitieren gefälschter Klagen bis zur Erstellung historisch unzutreffender Bilder von Nazis unterschiedlicher Rasse.
Jones sagte, Microsoft habe keine Maßnahmen ergriffen, um das Problem zu lösen, nachdem er interne Beschwerden eingereicht hatte und das Unternehmen ihn gezwungen hatte, ein Social-Media-Konto zu entfernen In einem Medienbeitrag wurde das Problem dargelegt. Er verwies auf Google als Beispiel dafür, wie mit dem Problem umgegangen werden sollte, und stellte fest, dass das Unternehmen das Problem ausgesetzt hatte Generation von Menschen in Bildern durch Google Gemini wenn es mit ähnlichen Beschwerden konfrontiert.
Der Ingenieur forderte die FTC auf, die Managemententscheidungen von Microsoft und die Prozesse zur Meldung von Vorfällen zu untersuchen und festzustellen, ob das Unternehmen seinen Versuch, OpenAI über das Problem zu informieren, behindert habe.
Die FTC bestätigte gegenüber Quartz, dass sie Jones‘ Brief erhalten habe, lehnte jedoch einen Kommentar ab.
Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier