Die Amerikaner sind besorgt darüber, wie KI-Deepfakes könnte im Vorfeld der US-Präsidentschaftswahlen im Herbst zu einer Falschmeldung führen – und manche schränken aus dieser Befürchtung sogar ihre Nutzung sozialer Medien ein.
Mehrere Studien haben gezeigt, dass die Mehrheit der Amerikaner unsicher ist über die Verbreitung von generativer künstlicher Intelligenz zur Verbreitung von Fehlinformationen und eine Reihe haben bestätigt, dass viele (wenn nicht die meisten) Einwohner der USA sind insbesondere besorgt über von KI generierte Desinformation im Hinblick auf die Präsidentschaftswahlen 2024. Beispielsweise eine Axios Umfrage fanden heraus, dass 53 % der Amerikaner glauben, dass von KI verbreitete Fehlinformationen Einfluss darauf haben , welcher Kandidat gewinnt.
Adobe hat diesen Haufen an Forschungsergebnissen noch erweitert, indem es eine Opt-in-Umfrage unter mehr als 2.000 US-Bürgern im Alter von 18 Jahren und älter in Auftrag gab. Dabei stellte es fest, dass eine noch besorgniserregendere Zahl von Amerikanern, nämlich 80 %, darüber besorgt ist, dass Deepfakes das Wahlergebnis beeinflussen könnten. Die mit Quartz geteilte Studie ergab außerdem, dass 40 % der Befragten ihre Nutzung einer bestimmten Social-Media-Plattform aufgrund der Menge an Fehlinformationen, die dort zu finden sind, reduziert oder eingestellt haben.
Ihre Bedenken sind begründet: KI-generierte Inhalte werden bereits sowohl von Politikern als auch von Hackern verwendet. Der Gouverneur von Florida: Ron DeSantis‘ inzwischen aufgelöste Präsidentschaftskampagne veröffentlichte Deepfakes von Donald Trump Küssen Sie den ehemaligen Direktor des National Institute of Allergy and Infectious Diseases Anthony Fauci on X letzten Sommer. Auch im Sommer 2023 wird die politische Partei von Polens Ministerpräsident Donald Tusk veröffentlichte ein teilweise KI-generiertes Video seines Gegners während eines Wahlkampfes. Unter der von China unterstützte Online-Gruppe „Spamoflauge“ verbreitete unter der Zeit Videos von KI-generierten Nachrichtensprechern, die im Vorfeld der Präsidentschaftswahlen in Taiwan Falschmeldungen verbreiteten. Und eine Gruppe von Forschern bei Microsoft sagte, China werde wahrscheinlich KI nutzen, um sich in die US-Präsidentschaftswahlen einzumischen.
„Bei Adobe sehen wir das transformative Potenzial generativer KI bei der Steigerung von Kreativität und Produktivität. In einer Ära der Deepfakes stellen KI-gestützte Desinformationen jedoch ein erhebliches Risiko für die Integrität der Wahl dar“, sagte Andy Parsons, Senior Director der Content Authenticity Initiative bei Adobe. „Unsere Meinung im Team ist, dass KI bei dieser Wahl einen gewissen Einfluss haben wird. Es wird nicht das Ende der Zivilisation und der Demokratie sein, aber mit der Zeit wird sich die Situation ohne die entsprechenden Häkchen verschlechtern.“
„Wenn man einmal auf einen Deepfake hereingefallen ist, glaubt man vielleicht nicht mehr, was man online sieht. Und wenn die Leute anfangen, alles anzuzweifeln, wenn sie Fiktion nicht mehr von Fakten unterscheiden können, ist die Demokratie selbst bedroht“, sagte er.
Adobes Antwort: Inhaltsanmeldeinformationen
Adobe hat in den letzten Jahren Brancheninitiativen zur Bekämpfung von durch KI generierten Fehlinformationen angeführt.
Adobe startete die Content Authenticity Initiative (CAI) in Partnerschaft mit The New York Times und Twitter im Jahr 2019. Das CAI entwickelte einen Open Source-Code mit dem Namen Content Credentials, den Unternehmen kostenlos in ihre Produkte integrieren können. Die Technologie fügt digitalen Inhalten Metadaten an und sollte systemübergreifend kompatibel sein. . Das Endergebnis ist, dass Fotos und Videos ein Symbol haben, auf das Benutzer klicken können, um zu sehen, welcher Inhalt er erstellt wurde, wie viel er bearbeitet wurde und ob KI verwendet wurde; dieses Symbol wird dann mit dem Bild oder Video verknüpft, wenn es beispielsweise aus Adobe Premiere exportiert und auf Plattformen wie YouTube oder Instagram gepostet wird.
„Die Mission des CAI ist unerschütterlich und beständig geblieben, und zwar darin, Informationskonsumenten, Faktenprüfern [und] Kreativen die Möglichkeit zu geben, zu wissen, was sie tun“, sagte Parsons.
Adobe verdient kein Geld mit seiner Teilnahme am CAI oder dem Gemeinschaftsprojekt der Gruppe. Koalition für Inhaltsherkunft und -authentizität (C2PA), das 2021 mit großen Playern wie Microsoft, Arm und Intel eingeführt wurde, um einen Zertifizierungsstandard für digitale Inhalte zu schaffen. Meta kündigte im Februar an, Content Credentials zu verwenden und im gleichen Monat Google ist der C2PA beigetreten um die Weiterentwicklung dieser Standards in Zusammenarbeit mit Adobe und seinen mittlerweile 2.500 Partnern zu unterstützen. Microsoft und Adobe arbeiteten im Vorfeld der bevorstehenden Wahl auch an einem Content Credentials-Tool für politische Kampagnen.
„Dieser kleine CR-Anstecker [Content Credentials], der unserer Vorstellung nach in den nächsten Jahren ebenso bekannt sein wird wie das Copyright-Symbol, zeigt nicht an, ob [digitaler Inhalt] gut, wahr oder falsch ist, sondern dass weitere Informationen [darüber] vorhanden sind, woher der Inhalt stammt, weshalb uns diese Metapher der Nährwertkennzeichnung gefällt. Sie wissen, Sie können in einen Supermarkt gehen und niemand wird Sie davon abhalten, ungesunde Lebensmittel zu kaufen – aber Sie haben ein Grundrecht darauf zu wissen, was darin enthalten ist.“
Parsons sagte, Adobe habe mit dieser ganzen Initiative begonnen, als ein Referent auf der Jahreskonferenz des Unternehmens in Las Vegas im Jahr 2016 zeigte, wie einfach es sei, ein Deepfake-Audio von Jordan Peeles Stimme zu erstellen.
Parsons sagte, Adobes Bemühungen, mehr Standards für KI-generierte Inhalte zu schaffen, seien zum Vorteil ihrer Creative Cloud-Kunden, die sich solche Tools wünschen. Er sagte auch, Content Credentials seien stärker als digitale Wasserzeichen, ein Code, der KI-generierte Inhalte identifiziert und als potenzielle Lösung für Deepfakes eingeführt wurde.
„Es ist ziemlich einfach, eine KI darauf zu trainieren, Wasserzeichen zu umgehen. Deshalb unterstützen wir die Idee von Wasserzeichen, glauben jedoch, dass die Kombination aus einem Wasserzeichen und einem Content Credential eine viel stärkere Gegenmaßnahme darstellt“, sagte er.
Parsons räumt jedoch ein, dass noch mehr getan werden muss, um KI-bezogene Fehl- und Desinformationen zu verhindern. Er sagte, es seien die flächendeckende Einführung eines Zertifizierungsstandards für digitale Inhalte wie etwa Content Credentials und eine Schulung in Medienkompetenz erforderlich.
„Keine dieser Gegenmaßnahmen ist ein Allheilmittel. Um Fehlinformationen wirklich entgegenzuwirken, bedarf es der Regierung, der Zivilgesellschaft, der Technologieunternehmen und einer Vielzahl technologischer Ansätze“, sagte er.
Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier