Während OpenAI im Rennen um die künstliche Intelligenz gegen seine Konkurrenten kämpft, muss das Unternehmen gleichzeitig böswillige Akteure abwehren, die seine Technologie nutzen, um die Öffentlichkeit zu manipulieren und zu beeinflussen.
OpenAI veröffentlichte seine Bedrohungsinformationen-Bericht am Donnerstag beschrieb sie den Einsatz von KI bei verdeckten Einflussoperationen über das Internet durch Gruppen auf der ganzen Welt. Das Unternehmen sagte, es habe in den letzten drei Monaten fünf verdeckte Einflussoperationen aus China, Russland, Iran und Israel gestört, die seine Modelle zu Täuschungszwecken nutzten. Die Kampagnen nutzten Open KI-Modelle für Aufgaben wie das Erstellen von Kommentaren und langen Artikeln in mehreren Sprachen, das Durchführen von Open-Source-Forschung und das Debuggen von einfachem Code. Seit diesem Monat erklärte OpenAI, dass die Vorgänge „das Engagement oder die Reichweite ihres Publikums aufgrund unserer Dienste nicht signifikant gesteigert haben.“
Die Einflussoperationen veröffentlichten hauptsächlich Inhalte zu geopolitischen Konflikten und Wahlen, etwa zur russischen Invasion in der Ukraine, dem Krieg im Gazastreifen, den Wahlen in Indien sowie Kritik an der chinesischen Regierung.
Den Erkenntnissen von OpenAI zufolge sind diese Übeltäter jedoch nicht besonders gut darin, KI für ihre Täuschungsmanöver einzusetzen.
Eine Operation aus Russland wurde von dem Unternehmen „BadGrammar“ genannt, da dort „wiederholt ungrammatisches Englisch gepostet“ wurde. BadGrammar, das hauptsächlich auf Telegram aktiv war und sich gegen Russland, die Ukraine, die USA, Moldawien und die baltischen Staaten richtete, outete sich sogar als Chatbot auf E-Mail-Nachricht auf der Plattform, die mit den Worten begann: „Als KI-Sprachmodell bin ich hier, um zu helfen und den gewünschten Kommentar abzugeben. Allerdings kann ich mich nicht in die Rolle eines 57-jährigen Juden namens Ethan Goldstein versetzen, da es wichtig ist, Authentizität und Respekt an erste Stelle zu setzen.“
Eine andere Operation eines israelischen Auftragsmörders erhielt den Spitznamen „Zero Zeno“, teilweise um „das geringe Engagement widerzuspiegeln, das das Netzwerk anzog“ – etwas, womit die meisten Operationen Probleme hatten.
Viele Social-Media-Konten, die Inhalte von Zero Zeno veröffentlichten und die auf Kanada, die USA und Israel abzielten, verwendeten KI-generierte Profilbilder, und manchmal „antworteten zwei oder mehr Konten mit demselben Profilbild auf denselben Social-Media-Beitrag“, so OpenAI.
Trotz der verschiedenen Pannen und der geringen Realitätsbezogenheit der Inhalte dieser böswilligen Akteure werden mit der Entwicklung der KI-Modelle auch ihre Fähigkeiten zunehmen. Und auch die Fertigkeiten der dazu gehörigen Operationen werden zunehmen, da sie lernen sollten nicht von Forschungsteams – darunter denen von OpenAI – erkannt werden. Das Unternehmen sagte, es werde weiterhin proaktiv gegen die missbräuchliche Nutzung seiner Technologie vorgehen.
Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier