Mittlerweile sind die Horrorgeschichten von Nachrichtenverlagen fehlerhafte, KI-generierte Inhalte produzieren sind bekannt. Andere Anwendungen der KI haben Journalisten dabei geholfen, aus den richtigen Gründen Schlagzeilen zu machen – wie der New York Times Verwendung von Computervision für Satellitenbilder um die Bombenkrater im Gazastreifen zu zählen.
Doch jenseits der spektakulärsten Erfolge – und Stürze – verändern dezente, aber wirkungsvolle Anwendungen generativer künstlicher Intelligenz still und leise Nachrichtenredaktionen auf der ganzen Welt. Generative KI bietet neue Möglichkeiten, den Berichterstattungsprozess und das Geschichtenerzählen selbst zu verbessern. Von der Unterstützung beim Lektorat bis hin zu Die neueste Generation künstlicher Intelligenz (KI) bringt Erkenntnisse ans Licht, die in riesigen Datenmengen verborgen sind. Sie kann Journalisten mit leistungsstarken Tools ausstatten, mit denen sie ihr Handwerk verbessern können. In einigen Fällen tut sie dies bereits. Und während sich die Technologie weiterentwickelt, verspricht ihr Potenzial, Genauigkeit, Effizienz und Tiefe der Berichterstattung zu verbessern, eine Umgestaltung des Journalismus und der Nachrichtenbranche.
Eine Umfrage im Jahr 2023 unter 105 Nachrichtenorganisationen in 46 Ländern ergab, dass die Mehrheit sehen in generativen KI-Tools ein potenzielles Vorteilspotenzial für den Journalismus wie ChatGPT. In der Umfrage von JournalismAI, einer globalen Initiative mit dem Ziel Nachrichtenorganisationen über KI auf dem Laufenden zuhalten, sagten fast drei Viertel der Befragten, solche KI-Anwendungen bieten neue Möglichkeiten für das Feld. Und 85 % der Befragten – darunter Journalisten, Techniker und Leiter von Nachrichtenredaktionen – haben mit der Verwendung von KI für Aufgaben wie der Erstellung von Bildern und der Generierung von Storyzusammenfassungen experimentiert.
Semafor, das sechs Wochen vor ChatGPT gestartet ist, ist eine dieser experimentierenden Nachrichtenredaktionen. Das Medien-Startup hat zwei KI-Tools im Einsatz – einen internen Bearbeitungs-Bot und MISO. Letzteres hilft dabei, die Geschichten zu finden, die Signale, ein von Journalisten und generativer KI kuratierter Eilmeldungen-Feed, der Nachrichten aus Publikationen auf der ganzen Welt hervorhebt. „Semafors Ansatz zur KI besteht darin, sich ihrer aktuellen Fähigkeiten bewusst zu sein und ihre Verwendung auf diese Bereiche zu beschränken“, sagt Gina Chua, Chefredakteurin von Semafor.
„Im Wesentlichen haben Sie einen Englisch-Studenten, der eine Menge Sachen kann“, sagte Chua.
Über diese Werkzeuge hinaus ist sie Experimentieren mit der sogenannten Retrieval-Augmented-Generation, oder RAG. Mit dieser Technik kann ein KI-Chatbot relevante Informationen sofort herausgeben und dabei eine Bibliothek mit von Chua bereitgestellten Daten priorisieren. Dieser Ansatz hilft dabei sogenannte Halluzinationen oder Vorkommnisse zu bekämpfen, bei denen generative KI-Modelle Dinge erfinden.
Chua baute ein RAG-Tool, das die Definition eines Hassverbrechens des Justizministeriums verwendete, und gab dem Chatbot bestimmte Szenarien vor, wie etwa einen Angriff eines weißen Mannes auf eine asiatische Frau. Der Chatbot konnte es als Hassverbrechen bezeichnen oder auch nicht und die Gründe für diesen Anruf erklären. Das zweite Modell fütterte sie mit dem Stil und dem Cover der Trans Journalists Association. Richtlinien für die Berichterstattung. Anschließend bat sie die KI, Feedback zu veröffentlichten Geschichten und zum Grad der darin enthaltenen Fehlinformationen zu Trans-Themen zu geben. Beides hat gut funktioniert, und Chua möchte die Erstellung von RAG-Modellen prüfen, die den Journalisten von Semafor dabei helfen könnten, herauszufinden, wie sie über sensible Themen berichten oder sich schnell in eine Story einarbeiten können.
Chua hat diese Chatbots in ihrer Freizeit mit benutzerfreundlichen Tools erstellt. Sie sagte, Journalisten aller Art müssten mit KI experimentieren – und dürften sie nicht als für bestimmte Aufgaben nicht so gut wie sie selbst abtun.
„Es wird in manchen Dingen wahrscheinlich nicht so gut sein wie ein Mensch“, sagte sie. „Es ist ein Fehler zu sagen: ‚Ich möchte, dass dies ein Mensch ist.‘ Der Trick besteht darin, zu sagen: ‚Ich möchte, dass dies ein möglichst gutes Werkzeug ist, und wie ergänze ich es, und wie ergänzt es mich?‘“
Chatbots fördern Abonnements
Die häufigste Art und Weise, wie Menschen mit generativer KI interagieren, ist über Chatbots wie ChatGPT von OpenAI oder Googles Gemini. Nachrichtenredaktionen entwickeln auch Chatbots für ihre Leser, darunter Skift, eine Website für Wirtschaftsnachrichten die über die Reisebranche berichtet.
ChatGPT war erst seit ein paar Wochen auf dem Markt, als Skift-CEO Rafat Ali einem Publikum aus Reisefachleuten sagte: „Das wird riesig, Sie müssen jetzt damit beginnen, daran zu arbeiten“, erinnert sich Jason Clampet, Mitbegründer und Präsident von Skift.
Clampet nahm sich diesen Rat zu Herzen und die Skift-Ingenieure bauten bald darauf einen KI-Assistenten namens „Fragen Skift.“ Der Chatbot, der anhand der 30.000 Nachrichten und Berichte von Skift trainiert wurde, kann die Reisefragen der Benutzer beantworten und sogar vorhandene Skift-Geschichten zur weiteren Lektüre vorschlagen.
„Für uns ist das eine tolle Möglichkeit, herauszufinden, wie wir über Geschichten berichten“, sagte Clampet. „Eine andere Nachrichtenseite muss vielleicht einfach als sachkundiger Beobachter über etwas schreiben. Wir können sagen: ‚Oh, wir sehen, worum es hier geht.‘“
Ask Skift beantwortet jetzt jede Woche Tausende von Fragen. Der Chatbot funktioniert ähnlich wie die Paywall von Skift: Benutzer können drei kostenlos Fragen stellen, bevor sie aufgefordert werden können, zahlende Abonnenten zu werden. Die Paywall von Ask Skift führt bereits zu jährlichen Abonnements im Wert von 365 US-Dollar, sagte Clampet.
Er sagte, dass Skift die Fragen der Leser beobachtet, um Trends und potenzielle Ideen für Geschichten zu erkennen. Dies führt zu neuen Berichten, beispielsweise zu einem Artikel über warum die Reisekosten so stark gestiegen sind.
„Fast auf die selbe Art wie jemand bei Google Trends recherchieren würde, um herauszufinden was die Leute vorhaben und nach ihren Suchen sucht“, sagt Clampet. „So können wir sehen, was die Leute gefragt haben und so können wir zu diesem Thema weiter kommen.“
Ask Skift war nur das erste Experiment mit generativer KI – das Entwicklungsteam hat auch eine App herausgegeben, mit Benutzern Fragen auf Slack stellen können, der weit verbreiteten Chat-Plattform für Büros. Da die Technologie je Tag einfacher zu verwenden wird, sagt Clampet, werden weitere Ideen in Überlegungen angestellt.
„Das meiste ist einfach eine Art Versuch und Irrtum und man versucht, jedes Mal herauszufinden, wie man es ein bisschen besser machen kann“, sagte er.
„Im Wettlauf ums Weiterkommen“
Aufsehenerregende Fehler bei Sports Illustrated sind nur die Spitze des Eisbergs. Fast ein Dutzend anderer Medien haben KI-generierte Artikel veröffentlicht, die Fehler enthielten, ein Problem, das auf der Tech-Site Futurism ausführlich dokumentiert wurde.
Die Fehltritte scheinen darauf zurückzuführen zu sein, dass Unternehmen sich beeilen, als erste generative KI-Funktionen einzusetzen, ohne gründliche Prüfprozesse durchgeführt zu haben, sagt Felix M. Simon, ein Kommunikationsforscher und Doktorand am Oxford Internet Institute.
„Von außen betrachtet können wir erkennen, dass es in allen Fällen darum ging, schnell voranzukommen und KI so schnell wie möglich umzusetzen“, sagte er.
Die Einbeziehung von Journalisten während der Produktion und dann vor der Veröffentlichung sei unerlässlich, sagte Simon. Die Notwendigkeit menschlicher Aufsicht ist ein weiterer Grund dafür, dass Journalisten den Umgang mit KI-Tools erlernen müssen.
„Es wird eine Lernkurve geben“, sagte Simon. „Wir müssen uns daran gewöhnen, mit diesen Systemen zu arbeiten, wenn wir überhaupt mit ihnen arbeiten wollen, und ihre Stärken, aber auch ihre Schwächen erkennen.“
„KI ist ein Werkzeug. Es ist nur ein Werkzeug“
Auch wenn menschliche Kontrolle weiterhin von entscheidender Bedeutung ist, warnte Simon davor, sich in Bezug auf das Potenzial von KI, Arbeitsplätze zu vernichten, auf den Lorbeeren auszuruhen. KI wird nicht der Grund dafür sein, dass Journalisten in naher Zukunft ersetzt werden – tiefer liegende systemische Probleme, darunter der Kostensenkungsdruck und der Mangel an nachhaltigen Geschäftsmodellen für die Medien, führten schon lange vor der generativen KI zu Massenentlassungen von Journalisten.
Doch mit der Weiterentwicklung der KI-Technologie könnte weniger menschliche Hilfe erforderlich sein und selbst bei ihren derzeitigen Fähigkeiten den Personalbedarf reduzieren. Das Management könnte KI zudem nutzen, um weitere Entlassungen zu rechtfertigen, sagte Simon.
Andere sind besorgt, dass die Abhängigkeit von riesigen Technologieunternehmen die ohnehin schon erheblichen Probleme der Nachrichtenmedien noch verschärfen könnte. Rodney Gibbs, leitender Direktor für Strategie und Innovation beim Atlanta Journal-Constitution, schrieb Ende letzten Jahres im Nieman Lab: Die Diskussion über ChatGPT erinnert an die „Umstellung auf Video“ das hat viele Nachrichtenredaktionen im Facebook-Zeitalter der digitalen Medien auf die Irre geführt.
Nikita Roy, Leiterin des AI Journalism Lab an der Craig Newmark Graduate School of Journalism, hat diese Befürchtung zwar gehört, schenkt ihr aber keinen großen Glauben. Nachrichtenredaktionen seien diesmal nicht auf Technologieunternehmen angewiesen, um Leser anzuziehen, sagt sie. Stattdessen seien Nachrichtenredaktionen Kunden, die ein Produkt kaufen, was den Nachrichtenagenturen in der Beziehung mehr Macht verleiht.
Wichtig sei, dass KI-Tools so einfach zu verwenden seien, dass selbst die kleinsten Nachrichtenredaktionen davon profitieren könnten, sagte Roy. Und bei richtiger Verwendung könne KI einer ständig bedrängten Branche zugutekommen.
„KI ist ein Werkzeug“, sagte sie. „Es ist nur ein Werkzeug. Aber es ist ein Werkzeug, das uns hilft, mehr Arbeit zu erledigen und mehr Zielgruppen zu erreichen, und das sind die beiden Dinge, die wir tun müssen.“
Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier