OpenAI sagt, es kann nun von OpenAI generierte Bilder identifizieren – meistens

Das Unternehmen gab an, dass sein neues Tool 98 % der von DALL-E3 generierten Bilder korrekt identifiziert.

Für die Links auf dieser Seite können wir eine Provision verdienen.
Sam Altman spricht auf der Bühne mit einem schwarz-roten Quadrat in der oberen rechten Ecke des Hintergrunds hinter ihm
OpenAI-CEO Sam Altman während des OpenAI-DevDay am 6. November 2023 in San Francisco, Kalifornien.
Foto: Justin Sullivan (Getty Images)

OpenAI befasst sich mit einem zunehmend dringlichen Problem: gefälschten Bildern, die durch seine eigene Technologie generiert werden.

Werbung

Das KI-Unternehmen kündigte am Dienstag an, dass es ein Tool zur Erkennung von DALL-E 3 erstellten Inhalten Text-zu-Bild-Generator. Das Unternehmen sagte auch, es öffne Bewerbungen für eine erste Gruppe von Testern für seinen Bilderkennungs-Klassifikator, der „die Wahrscheinlichkeit vorhersagt, dass ein Bild von seinem Gerät erzeugt wurde“. DALL-E 3.

„Unser Ziel ist es, unabhängige Forschung zu ermöglichen, die die Wirksamkeit des Klassifikators bewertet, seine Anwendung in der realen Welt analysiert, relevante Überlegungen für eine solche Verwendung ans Licht bringt und die Eigenschaften von KI-generierten Inhalten untersucht“, sagte OpenAI in eine Aussage.

Werbung

OpenAI sagte, interne Tests einer frühen Version seines Klassifikators zeigten eine hohe Genauigkeit bei der Erkennung von Unterschieden zwischen nicht von KI generierten Bildern und von DALL-E 3 erstellten Inhalten. Das Tool erkannte 98 Prozent der von DALL-E 3 generierten Bilder richtig, während weniger als 0,5 Prozent der nicht von KI generierten Bilder fälschlicherweise als von KI generiert identifiziert wurden.

Werbung

Bildbearbeitungen wie Komprimierung, Zuschneiden und Sättigung haben laut OpenAI „minimale Auswirkungen“ auf die Leistung des Tools. Das Unternehmen gab jedoch an, dass andere Arten von Änderungen „die Leistung verringern können“. Das Unternehmen stellte außerdem fest, dass sein Tool bei der Unterscheidung zwischen mit DALL-E3 generierten Bildern und von anderen KI-Modellen generierten Inhalten nicht so gut funktioniert.

Werbung

„Die Sorge um die Wahlen ist der eigentliche Motor für einen Großteil dieser Arbeit“, so David Robinson, Leiter der politischen Planung bei OpenAI. sagte dem Wall Street Journal„Es ist der Kontext, der uns von politischen Entscheidungsträgern am meisten Sorgen bereitet.“

Eine Umfrage des AI Policy Institute unter US-Wählern im Februar ergab, dass 77 % der Befragten sagten, wenn es um KI-Videogeneratoren geht – wie Sora von OpenAI, das noch nicht öffentlich verfügbar ist –Es ist wichtiger, Leitplanken und Sicherheitsvorkehrungen zu setzen, um Missbrauch zu verhindern als die Modelle einer breiteren Verfügbarkeit zu verschaffen. Mehr als zwei Drittel der Befragten sagten, Entwickler von KI-Modellen sollten für jegliche illegale Aktivitäten rechtlich verantwortlich gemacht werden.

Werbung

„Das zeigt wirklich, wie ernst die Öffentlichkeit diese Technologie nimmt“, sagte Daniel Colson, Gründer und Geschäftsführer von AIPI. „Sie halten sie für leistungsstark. Sie haben gesehen, wie Technologieunternehmen diese Modelle, Algorithmen und Technologien einsetzen, und das führt zu Ergebnissen, die die Gesellschaft völlig verändern.“

Zusätzlich zur Einführung seines Erkennungstools gab OpenAI am Dienstag bekannt, dass es dem Lenkungsausschuss von C2PA, der Coalition for Content Provenance and Authenticity, beitritt. weit verbreiteter Standard zur Zertifizierung digitaler Inhalte. Das Unternehmen sagte, es habe anfang dieses Jahres damit begonnen , C2PA-Metadaten zu den von DALL-E 3 generierten und bearbeiteten Bildern in ChatGPT und seiner API hinzuzufügen, und werde C2PA-Metadaten für Sora integrieren, wenn es allgemein veröffentlicht ist.

Werbung

Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier

Werbung