KI-Deepfake-Pornos sollten ein Bundesverbrechen sein, sagen Befürworter und Opfer

Deepfake-Nackt-Apps sind wie „virtuelle Waffen“ für Männer und Jungen, sagt ein Experte

Für die Links auf dieser Seite können wir eine Provision verdienen.
Bild für Artikel mit dem Titel KI-Deepfake-Pornos sollten ein Bundesverbrechen sein, sagen Befürworter und Opfer
Foto: Yuliya Taba (Getty Images)

Gesetzgeber und Interessenvertreter drängen auf eine Bundesgesetzgebung, um KI-generierte Pornografie zu kriminalisieren. Sie sagen, dass sogenannter Deepfake-Porno das Leben der Opfer, bei denen es sich meist um Frauen und Mädchen handelt, ruiniert.

Werbung

„Wenn es auf Bundes- und Landesebene keine eindeutigen Gesetze gibt, wird Opfern, die sich an die Strafverfolgungsbehörden wenden, häufig gesagt, dass man nichts tun könne“, sagte Andrea Powell, Leiterin der Interessenvertretung Image-Based Sexual Violence Initiative, kürzlich bei einer Rundtischdiskussion zu diesem Thema. Das Online-Forum wurde von der gemeinnützigen National Organization for Women (NOW) veranstaltet.

„Diese Personen waren dann offline Bedrohungen durch sexuelle Gewalt und Belästigung ausgesetzt. Leider haben wir auch festgestellt, dass einige [Opfer] nicht überleben“, fügte Powell hinzu. Sie bezeichnet KI-Deepfake-Nude-Apps als „virtuelle Waffe“ für Männer und Jungen.

Werbung

Der Begriff“Deepfake” war geprägt Ende 2017 von einem Reddit-Nutzer der Googles GOOGL-0.76% Open-Source-Technologie zum Gesichtsaustausch, um pornografische Videos zu erstellen. Von KI generierte, sexuell explizite Inhalte haben sich wie ein Lauffeuer verbreitet, seit ChatGPT generative künstliche Intelligenz in den Mainstream gebracht hat. Technologieunternehmen haben sich um einen Wettlauf um die Entwicklung besserer KI-Foto- und Videotools bemüht, und manche Menschen nutzen diese Tools für ihre Schäden. Laut Powell sind 9.000 Websites in der Google-Suche gelistet, die expliziten Deepfake-Missbrauch aufweisen. Und zwischen 2022 und 2023 Deepfake-sexuelle Inhalte im Internet haben um über 400 % zugenommen.

Werbung

„Es geht so weit, dass man 11- und 12-jährige Mädchen sieht, die Angst haben, online zu sein“, sagte sie.

Werbung

Die Deepfake-Bestimmungen sind von Bundesstaat aus unterschiedlich. Bisher 10 Staaten haben Gesetze in den Gesetzen, und sechs dieser Staaten verhängen strafrechtliche Sanktionen. Weitere Deepfake-Gesetze stehen in Florida, Virginia, Kalifornien und Ohio an. Und diese Woche in San Francisco hat eine bahnbrechende Klage eingereicht gegen 16 Deepfake-Porno-Websites.

Doch Befürworter meinen, dass ein Mangel an Einheitlichkeit zwischen den Gesetzen der Bundesstaaten Probleme schaffe und dass bundesstaatliche Regelungen längst überfällig seien. Sie meinen außerdem, dass Plattformen und nicht nur Einzelpersonen für nicht einvernehmliche Deepfakes haftbar gemacht werden sollten.

Werbung

Einige Bundespolitiker arbeiten daran. Der Abgeordnete Joe Morelle (NY) führte 2023 den Gesetz zur Verhinderung von Deepfakes intimer Bilder, was die nicht einvernehmliche Verbreitung von Deepfakes kriminalisieren würde. Kurz nachdem Deepfakes-Nacktbilder von Taylor Swift das Internet im Sturm eroberten, führten die Gesetzgeber Folgendes ein: DEFIANCE-Gesetz, wodurch das Recht der Opfer, zivilrechtliche Schritte einzuleiten, gestärkt würde. Und ein überparteilicher Gesetzentwurf namens „Intimate Privacy Protection Act“ würde Technologieunternehmen zur Verantwortung ziehen, wenn sie es versagen gegen Deepfake-Nacktbilder auf ihren Plattformen zu tun.

In der Zwischenzeit nehmen Opfer und Anwälte die Sache selbst in die Hand. Breeze Liu arbeitete als Risikokapitalgeberin, als sie 2020 zum Ziel sexueller Belästigung durch Deepfakes wurde. Sie entwickelte eine App namens Alecto AI, mit der Menschen Deepfake-Inhalte im Internet, die ihr Bild verwenden, aufspüren und entfernen können.

Werbung

Während des Online-Treffens der Befürworter sagte Liu im Rückblick auf ihre eigenen Erfahrungen als Opfer von Deepfake-Missbrauch: „Ich hatte das Gefühl, dass es für mich wahrscheinlich besser wäre, tot zu sein, denn es war einfach nur entsetzlich.“

„Wir haben lange genug unter dem Missbrauch von Online-Bildern gelitten“, fügte sie hinzu. „Ich habe dieses Unternehmen in der Hoffnung gegründet, dass wir alle und unsere zukünftigen Generationen es eines Tages als selbstverständlich ansehen würden, dass niemand mehr an den Folgen der Online-Gewalt sterben muss.“

Werbung

Neben AlectoAI setzt sich Liu auch für Änderungen der Bundespolitik ein, die nicht einvernehmliche KI-Deepfake-Pornografie unter Strafe stellen würden, wie etwa Morelles Gesetzentwurf von 2023. Der „Preventing Deepfakes of Intimate Images Act“ ist jedoch seit seiner Einführung im letzten Jahr nicht vorangekommen.

Bemerkenswerterweise haben einige Technologieunternehmen bereits Schritte unternommen, um das Problem anzugehen. Google hat am 31. Juli seine Richtlinien aktualisiert um nicht einvernehmliche Deepfake-Inhalte zu entschärfen. Andere stehen unter Druck. Metas META-0.45% Aufsichtsgremium Ende Juli sagte, das Unternehmen müsse mehr tun, um explizit KI-generierte Inhalte anzugehen auf seiner Plattform.

Werbung

Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier

Werbung