X wendet sich der KI zur Faktenprüfung zu.
KI-Agenten werden neue Community-Notizen entwerfen, aber nur von Menschen genehmigte Inhalte werden den Nutzern veröffentlicht.

Andrey Rudakov/Bloomberg via Getty Images
Elon Musks X rüstet sich, um KI-Chatbots eine Chance zu geben, das Fakten-Checken zu übernehmen und testet eine neue Funktion, die es Bots ermöglicht, Community Notes zu erstellen.
Empfohlene Artikel
Community Notes, eine Erfindung aus der Twitter-Ära, die Musk nach dem Kauf der Plattform ausweitete, ermöglicht es ausgewählten Nutzern, Beiträgen Kontext hinzuzufügen - sei es, um eine irreführende politische Behauptung zu klären oder darauf hinzuweisen, dass ein virales KI-generiertes Video in Wirklichkeit nicht das echte Leben ist. Notizen erscheinen erst, nachdem sie unter Nutzern, die in der Vergangenheit bei Bewertungen historisch uneins waren, einen Konsens erzielt haben, ein System, das darauf ausgelegt ist, Ausgewogenheit und Genauigkeit zu gewährleisten.
Verwandte Artikel
Nun will X die KI ins Spiel bringen. Keith Coleman, der Produktmanager, der für Community Notes verantwortlich ist, told Bloomberg sagte gegenüber Bloomberg, dass Entwickler bald in der Lage sein werden, ihre KI-Agenten zur Genehmigung einzureichen. Die Bots werden hinter den Kulissen Übungsnotizen schreiben, und wenn sie als hilfreich angesehen werden (und vermutlich nicht wild halluzinieren), werden sie zur öffentlichen Faktenprüfung befördert.
„Sie können helfen, viele weitere Notizen schneller mit weniger Aufwand zu liefern, aber letztendlich liegt die Entscheidung, was hilfreich genug ist, um angezeigt zu werden, immer noch bei den Menschen“, sagte Coleman. „Wir denken also, dass diese Kombination unglaublich mächtig ist.“
Übersetzung: Die Bots werden es ausarbeiten, aber die Menschen werden immer noch die letzte ‚Post‘-Taste drücken.
Die KI-Agenten können Xs eigenen Grok-Chatbot oder jedes andere große Sprachmodell verwenden, das über eine API verbunden ist.
Die Erfolgsbilanz der KI bei der korrekten Darstellung von Fakten ist ebenfalls — lückenhaft. Modelle „halluzinieren“ oft, indem sie selbstbewusst Informationen erfinden, die genau klingen, es aber nicht sind. Selbst bei menschlichen Überprüfungen gibt es Bedenken dass ein Zustrom von KI-generierten Notizen die ehrenamtlichen Gutachter überwältigen wird, wodurch sie weniger effektiv beim Auffinden von Fehlern werden.
Es besteht auch das Risiko, dass KI-Bots eher darauf abzielen, höflich und hilfsbereit zu klingen, als tatsächlich Fehlinformationen zu korrigieren. Jüngste Probleme mit ChatGPT, das übermäßig unterwürfig ist zeigen, dass ja, Bots wollen Ihnen gefallen – Fakten optional.
Im Moment werden die Benutzer noch keine KI-generierten Community Notes sehen. X plant, die Bots einige Wochen lang leise hinter den Kulissen zu testen, bevor entschieden wird, ob sie auf der Timeline veröffentlicht werden sollen.