Der Videogenerator Sora von OpenAI könnte Nacktheit zulassen. Experten sind besorgt

„Sora“ soll dieses Jahr herauskommen, und der Chief Technology Officer von OpenAI sagte, dass Nacktheit nicht ausgeschlossen sei

Für die Links auf dieser Seite können wir eine Provision verdienen.
Webseite für OpenAIs KI-Videogenerator Sora auf einem iPhone angezeigt
OpenAIs KI-Videogenerator Sora
Foto: Koshiro K (Shutterstock)

Eine Videowiedergabe eines coolen Traums oder einer Idee, die Sie haben, könnte bald Wirklichkeit werden Der Text-zu-Video-KI-Generator von OpenAI, Sora, ist wird öffentlich veröffentlicht „Auf jeden Fall dieses Jahr“, sagte Mira Murati, Chief Technology Officer des Unternehmens, gegenüber dem Wall Street Journal. Die Nachrichtenagentur wurde mit Beispielen versorgt von Soras Generationen einer Meerjungfrau mit einem Smartphone und einem Stier in einem Porzellanladen.

Werbung

Aber als wir sie nach der Nacktheit von Sora fragten, Murati sagte, sie sei sich nicht sicher, ob dies in Videogenerationen erlaubt sein würde, und fügte hinzu, dass Künstler aktuelle Generationen in kreativen Umgebungen verwenden könnten. Murati sagte , dass OpenAI „mit Künstlern und Schöpfern aus verschiedenen Bereichen zu arbeitet Finden Sie genau heraus, was nützlich ist und welchen Grad an Flexibilität Sora haben sollte.

Aber trotz der Bemühungen der Startups und Unternehmen, die an den Modellen arbeiten, Leitplanken für die Art der Inhalte zu implementieren, die generiert werden können, sind sie sensibel materiell artig Deepfake-Akte und Deepfake-Pornografie werden regelmäßig von großen generativen KI-Tools produziert. Und Experten sagen, dass OpenAI und andere Tech-Unternehmen an ähnlichen Technologien arbeiten die US-Regierung, sollte mehr sein proaktiv bei der Regulierung von Tools wie Sora, bevor sie allgemein veröffentlicht werden.

Werbung

Auf Leitplanken steigen

In einer Februarumfrage des AI Policy Institute (AIPI) unter US-Wählern sagten 77 % der Befragten, dass dies der Fall ist, wenn es um KI geht Videogeneratoren wie Sora, einschließlich Leitplanken und Sicherheitsvorkehrungen zur Verhinderung von Missbrauch wichtiger, als die Modelle allgemein verfügbar zu machen.Mehr als zwei Drittel der Befragten gaben an, dass der Entwickler eines KI-Modells für alle Fälle rechtlich zur Verantwortung gezogen werden sollte illegale Aktivitäten des Models, etwa das Erstellen gefälschter Videos zur Verleumdung oder Rache.

Werbung

„Das zeigt wirklich, wie ernst die Öffentlichkeit diese Technologie nimmt“, sagte Daniel Colson, Gründer und Geschäftsführer von AIPI. Sie halten es für leistungsstark. Sie haben gesehen, wie Technologieunternehmen diese Modelle, Algorithmen und Technologien einsetzen, und es führt dazu, dass dies vollständig gelingt gesellschaftsverändernde Ergebnisse.“

Werbung

Colson sagte jedoch, dass die Öffentlichkeit „den Technologieunternehmen nicht zutraut, dies verantwortungsvoll zu tun.“

Werbung

„OpenAI steht vor einer schwierigen Entscheidung, dies zu umgehen“, sagte er, „denn im Guten wie im Schlechten ist die Realität so, dass wahrscheinlich 90 % Ein Großteil der Nachfrage nach KI-generierten Videos wird auf Pornografie entfallen, und das führt zu einer unangenehmen Dynamik, wenn zentralisierte Unternehmen diese Modelle erstellen „Diesen Dienst nicht anbieten, was einen extrem starken Anreiz für den grauen Markt darstellt, diesen Dienst bereitzustellen.“

Colson sagte, dass dies bereits bei Open-Source-KI-Bildmodellen passiert sei, bei denen es nicht viele inhaltliche Einschränkungen oder Kontrollen gäbe

Werbung

Sora ist wird derzeit von Redteamern getestet, oder „Domänenexperten in Bereichen wie Fehlinformationen, hasserfüllten Inhalten und Voreingenommenheit“, hat OpenAI sagte, während es sich darauf vorbereitet, das Modell verfügbar zu machen. Das Unternehmen gab außerdem an, dass es an Tools zur „Erkennung irreführender Inhalte“ arbeite, darunter auch von Sora generierte Inhalte Videos. OpenAI antwortete nicht auf eine Anfrage nach einem Kommentar zu dieser Geschichte.

Nachher KI-generierte pornografische Bilder von Taylor Swift Eine AIPI-Umfrage ergab, dass 84 % der Befragten im Januar die sozialen Medien überschwemmten unterstützte die Gesetzgebung, um nicht einvernehmliche Deepfake-Pornos illegal zu machen. Mittlerweile unterstützten 86 % der Befragten eine Gesetzgebung, die von Unternehmen, die KI-Modelle entwickeln, vorschreibt, zu verhindern, dass diese für die Erstellung von Deepfake-Pornos genutzt werden.Mehr Mehr als 90 % der Befragten gaben an, dass sie glauben, dass Menschen, die KI-Modelle verwenden, um Deepfake-Pornos zu erstellen, nach dem Gesetz zur Rechenschaft gezogen werden sollten 87 % der Befragten gaben an, dass sie der Meinung sind, dass Unternehmen, die die Modelle entwickeln, rechtlich haftbar gemacht werden sollten. Dies gibt es derzeit keine US-amerikanischen Gesetze oder Vorschriften um dies. (In der Europäischen Union, die neuverabschiedete Gesetz über künstliche Intelligenz, die KI-Software auf Risiken bewerten und regulieren wird, muss noch offiziell verabschiedet werden.)

Werbung

„Die Regierung der USA hat in den letzten 25 Jahren – seit den Anfängen des Internets – keinen nennenswerten Schritt unternommen Sie regulieren diese Einheiten im Wesentlichen, und das ist bemerkenswert, wenn man bedenkt, dass immer mehr Teile der amerikanischen Gesellschaft tatsächlich von diesen Nichtregierungen regiert werden -demokratisch gewählte Einheiten“, sagte Colson.

Videogeneratoren wie Sora könnten auch von Cyberkriminellen genutzt werden, um Deepfakes von Führungskräften, Schauspielern und Politikern zu erstellen, die sich in kompromittierenden Situationen befinden Einfluss zu nehmen oder ein Lösegeld zu verlangen verbotene KI-generierte Stimmen in Robocalls nach mehreren Vorfällen, darunter einem gefälschten Anruf, der im Januar mit einer KI-generierten Stimme von Präsident Joe Biden die Wähler in New Hampshire verbreitete zu Hause zu bleiben, anstatt bei den Vorwahlen des Staates abzustimmen DeSantis veröffentlichte im Juni ein KI-generiertes Video der ehemalige Präsident Donald Trump umarmt den ehemaligen medizinischen Berater des WeißenHausesDr. Anthony Fauci – ohne offenzulegen, dass es nicht echt war.

Werbung

Es wäre jedoch möglich, Leitplanken wie Benutzerverifizierung, Content-Tagging, Risikobewertung und Beschränkungen vorzuschreiben, wie und wo KI-generierte Inhalte exportiert werden können helfen , Cyberkriminalität zu umgehen.

„Wir müssen von einer reaktiven Haltung zu einer proaktiven Haltung übergehen“, sagte Jason Hogg, Executive-in-Residence bei Great Hill Partners und ein ehemaliger globaler Vorstandsvorsitzender des Cybersicherheitsunternehmens Aon Cyber sagte über die US-amerikanische Regulierung von KI-Modellen (Great Hill Partners ist ein Investor). in Quartzs Muttergesellschaft G/O Media.)

Werbung

Hogg sagte, dass es Vorschriften und Strafen geben müsse, um mit „einem Tsunami der Cyberkriminalität, der auf unser Ufer zusteuert“, umzugehen.

Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier

Werbung