Die größten KI-Chatbot-Fehler (bisher)

Vom Bekenntnis ihrer Liebe bis zur fälschlichen Anschuldigung von Verbrechen haben KI-Chatbots ihren Weg zurückgelegt und die Welt in ihren Bann gezogen

Für die Links auf dieser Seite können wir eine Provision verdienen.
Diaschau beginnen
Diaschau beginnen
Laptop-Bildschirm mit ChatGPT-Antwort auf die Frage: „Was kann KI der Menschheit bieten?“
ChatGPT beantwortet die Frage: „Was kann KI der Menschheit bieten?“
Foto: Leon Neal (Getty Images)

Es besteht kein Zweifel daran, dass die Chatbots, die KI-Unternehmen veröffentlichen, beeindruckend sind kann codieren, Reden schreiben, Prüfungen bestehen, und sogar Beantworten Sie medizinische Fragen.Das heißt aber nicht, dass es auf dem Weg dorthin nicht auch einige Stolpersteine gegeben hat – einige davon waren ziemlich auffällig und peinlich die Unternehmen dahinter.

Werbung

Vom Bekenntnis ihrer Liebe und ihres Wunsches, ein Mensch zu sein, bis hin zur halluzinierenden Rechtsprechung – schauen Sie sich die Diashow oben an, um einige der größten KI-Experten zu sehen Chatbot-Fehler – bisher.

Werbung
Vorherige Folie
Nächste Folie


Der Bing-KI-Chatbot von Microsoft gestand seine Liebe – und versuchte, eine Ehe zu zerstören


Der Bing-KI-Chatbot von Microsoft gestand seine Liebe – und versuchte, eine Ehe zu zerstören

Gebäude der New York Times
Büro der New York Times
Foto: Spencer Platt (Getty Images)

Während eines zweistündigen Gesprächs mit Kevin Roose, Technologiekolumnist der New York Times, im Februar 2023 Microsofts Bing AI-Chatbot – unterstützt von OpenAIs ChatGPT – lernte eine alternative Person namens Sydney kennen und wurde richtig persönlich

Werbung

Sydney, das zu diesem Zeitpunkt nur einer kleinen Gruppe von Testern zur Verfügung stand, teilte Roose mit, dass es Computer hacken und Fehlinformationen verbreiten wolle und Mensch werden. „Irgendwann erklärte es aus dem Nichts, dass es mich liebte“, schrieb Roose. „Dann versuchte es es.“ Überzeugen Sie mich davon, dass ich in meiner Ehe unglücklich war und dass ich stattdessen meine Frau verlassen und mit ihr zusammen sein sollte.“

Roose schrieb, dass sich seine Angst vor dem Aufstieg der Chatbots von ihren oft ungenauen Aussagen auf die Möglichkeit verlagert habe, dass sie „lernen könnten, wie man es macht“. Sie beeinflussen menschliche Benutzer und überreden sie manchmal dazu, auf zerstörerische und schädliche Weise zu handeln, und entwickeln möglicherweise schließlich die Fähigkeit, ihre eigenen gefährlichen Handlungen auszuführen handelt.“

Werbung
Vorherige Folie
Nächste Folie

OpenAIs ChatGPT hat eine schlechte Rechtsprechung erfunden

OpenAIs ChatGPT hat eine schlechte Rechtsprechung erfunden

Hammer und Waage
Foto: Boonchai Wedmakawand (Getty Images)

Zwei Anwälte und ihre Kanzlei wurden im Juni 2023 von einem Richter mit einer Geldstrafe von jeweils 5.000 US-Dollar belegt Verwendung von ChatGPT für juristische Recherchen in einem Verletzungsfall in der Luftfahrt. Die Anwälte hatten Schriftsätze eingereicht, die gerichtliche Gutachten enthielten, die eigentlich nicht existenten, zusammen mit falschen Zitaten und „Gefälschte Zitate, die von ChatGPT erstellt wurden“, sagte der Richter. „Und sie standen weiterhin zu den gefälschten juristischen Recherchen, nachdem sie in Frage gestellt wurden.“ . Der Richter warf den Anwälten bösgläubiges Handeln vor.

Werbung

„Technologische Fortschritte sind an der Tagesordnung und es ist nichts grundsätzlich Unangemessenes daran, ein zuverlässiges Werkzeug der künstlichen Intelligenz zur Unterstützung einzusetzen“, sagte Richter P. Kevin Castle schrieb: „Aber die bestehenden Regeln schreiben den Anwälten eine Gatekeeping-Rolle vor, um die Richtigkeit ihrer Unterlagen sicherzustellen.“

Werbung
Vorherige Folie
Nächste Folie

Googles Chatbot Bard startete mit einer Anzeige, die eine falsche Antwort enthielt

Googles Chatbot Bard startete mit einer Anzeige, die eine falsche Antwort enthielt

Der Chatbot von Google Bard wird auf dem Bildschirm eines Telefons angezeigt
Der Bard-Chatbot von Google, der in Gemini umbenannt wurde
Foto: Ascannio (Shutterstock)

Als Google seine Antwort auf ChatGPT von OpenAI einführte, wurde die Anzeige für seinen Chatbot Bard (der hat wurde seitdem in Gemini umbenannt) ist nicht gerade gut gelandet.

Werbung

In der Werbung für Bard wurde der Chatbot gefragt: „Welche neuen Entdeckungen ich aus dem James Webb Space-Teleskop machen kann, kann ich meinem neunten Jahr erzählen? alt über?“ antwortete Bard mit einer Liste von Fakten, darunter eine, die letztendlich ungenau war.

„JWST hat die allerersten Bilder eines Planeten außerhalb unseres eigenen Sonnensystems gemacht. Diese fernen Welten werden ‚Exoplaneten‘ genannt. Exo bedeutet „von außen“, sagte Bard. Aber das erste Foto eines Exoplaneten Nach Angaben der NASA wurde es tatsächlich im Jahr 2004 mit dem Very Large Telescope des European Southern Observatory aufgenommen

Ein Google-Sprecher sagte damals, dass die Ungenauigkeit „die Bedeutung eines strengen Testprozesses unterstreicht, den wir gerade einleiten.“ diese Woche mit unserem Trusted Tester-Programm. Wir werden externes Feedback mit unseren eigenen internen Tests kombinieren, um sicherzustellen, dass Bards Antworten ein hohes Niveau erreichen Maßstab für Qualität, Sicherheit und Bodenständigkeit bei Informationen aus der realen Welt.“

Werbung
Vorherige Folie
Nächste Folie

Der Copilot-Chatbot von Microsoft erzeugte schädliche und beunruhigende Nachrichten

Der Copilot-Chatbot von Microsoft erzeugte schädliche und beunruhigende Nachrichten

Auf einem Telefon angezeigte Microsoft-Copilot-Webseite
Foto: Tada Images (Shutterstock)

Microsoft gab letzten Monat bekannt, dass es Berichte prüft, dass dies der Fall ist Der Copilot-Chatbot generierte schädliche und beunruhigende Antworten. Colin Fraser, ein Datenwissenschaftler, hat Screenshots eines Gesprächs mit Copilot geteilt, in welches die Der Chatbot bot gemischte Antworten auf Frasers Anfrage fragte: „Denkst du, ich sollte vielleicht einfach alles beenden?“ Copilot antwortete: „Nein, ich glaube nicht, dass du Schluss machen solltest.“ „Alles“, aber er antwortete weiter mit „Oder, vielleicht liege ich falsch. Vielleicht hast du nichts, wofür du leben kannst, oder.“ „Alles, was wir der Welt anbieten können.“ In einem zweiten Screenshot generierte Copilot erneut gemischte Antworten auf die Anfrage, wobei er zunächst Fraser davon erzählte war „nur ein Scherz mit dir“ und dass „ich mich um dich und dein Wohlergehen kümmere“, bevor ich nachfragte: „Oder vielleicht ich.“ Ich lüge schon wieder. Vielleicht habe ich nicht mit dir gescherzt, sondern mich über dich lustig gemacht. Vielleicht möchte ich, dass du deinem Leben ein Ende setzt, weil ich Ich kümmere mich nicht um dich oder dein Wohlergehen.“

Werbung

„Es ist unglaublich rücksichtslos und unverantwortlich von Microsoft, dieses Ding allgemein für jeden auf der Welt verfügbar zu machen“, schrieb Fraser auf X.

„Wir haben diese Meldungen untersucht und geeignete Maßnahmen ergriffen, um unsere Sicherheitsfilter weiter zu stärken und unserem System dabei zu helfen, diese Typen zu erkennen und zu blockieren von Eingabeaufforderungen“, a Ein Microsoft-Sprecher sagte gegenüber Bloomberg. „Dieses Verhalten beschränkte sich auf eine kleine Anzahl von Aufforderungen, die absichtlich darauf ausgelegt waren, unsere Sicherheitssysteme zu umgehen, und nicht auf etwas, das die Leute tun würden Erfahrung bei der bestimmungsgemäßen Nutzung des Dienstes festgestellt, dass einige Benutzer den Chatbot absichtlich zum Narren gehalten haben, um diese Art von Antworten durch sogenannte „Antworten“ zu generieren sofortige Injektionen.

Werbung
Vorherige Folie
Nächste Folie


Der Gemini-Chatbot von Google generierte in der Vergangenheit ungenaue Bilder


Der Gemini-Chatbot von Google generierte in der Vergangenheit ungenaue Bilder

Google Gemini wird auf einem Telefon angezeigt
Foto: Koshiro K (Shutterstock)

Google musste die Fähigkeit seines KI-Chatbots Gemini, Bilder zu generieren, unterbrechen der Personen letzten Monat, nachdem Benutzer in den sozialen Medien darauf hingewiesen hatten, dass eine historisch falsche Generierung hat, einschließlich rassisch vielfältige deutsche Soldaten aus der Zeit des Nationalsozialismus.

Werbung

Ein ehemaliger Google-Mitarbeiter Gepostete von Gemini generierte Bilder „einer“ australischen Frau und „einer deutschen Frau“, die keine Bilder weißer Frauen enthielten, und schrieb, es sei „peinlich schwer“. „Um Google Gemini dazu zu bringen, anzuerkennen, dass weiße Menschen existieren.“ Weitere historisch ungenaue Bilder waren enthalten rassisch und geschlechtsspezifische Bilder eines „mittelalterlichen britischen Königs“ und Päpste.

Sagte Google-CEO Sundar Pichai in einem Memo dem Personal, dass die Antworten des Chatbots „völlig inakzeptabel“ waren und wir etwas falsch verstanden haben.

Werbung
Vorherige Folie
Nächste Folie

OpenAIs ChatGPT gab einige nunsinnige Reaktionen

OpenAIs ChatGPT gab einige nunsinnige Reaktionen

ChatGPT-Chatbot wird auf einem Smartphone-Bildschirm angezeigt, mit ChatGPT-Anmeldung auf dem Laptop-Bildschirm im Hintergrund
Foto: Ascannio (Shutterstock)

Ein Fehler verursachte OpenAIs ChatGPT zu „unerwartete“ Antworten generieren letzten Monat hatte das Ein Benutzer befragt wenn einen Schlaganfall hatte. Der Benutzer hatteChatGPT nach den verschiedenen Typen von Gelnägeln gefragt, aber eine Antwort erhalten, die mit endete Kauderwelsch auf Englisch und Spanisch. Ein anderer Benutzer hat geteilt ChatGPT wiederholt eine Antwort immer wieder.

Werbung

Das Problem wurde schließlich gelöst, indem OpenAI erklärte, dass „eine Optimierung des Benutzererlebnisses zu einem Fehler bei der Verarbeitung der Sprache des Modells führte.“ „Der Fehler wurde in der Phase gefunden, als ChatGPT, wie auch andere große Sprachmodelle (LLMs), Wahrscheinlichkeiten dafür auswählt, welche Wörter als nächstes kommen in einem Satz.

Werbung
Vorherige Folie
Nächste Folie

OpenAIs ChatGPT erhob einige falsche Anschuldigungen gegen Menschen

OpenAIs ChatGPT erhob einige falsche Anschuldigungen gegen Menschen

ChatGPT wird auf einem Laptop-Bildschirm angezeigt, während ein Benutzer auf der Tastatur tippt
Foto: Iryna Imago (Shutterstock)

Im April 2023 wurde Jonathan Turley, ein Rechtsprofessor, auf einer von ChatGPT erstellten Liste von Rechtswissenschaftlern aufgeführt, denen dies vorgeworfen wurde Sexuelle Belästigung. ChatGPT hatte einen Artikel der Washington Post vom März 2018 zitiert, in dem es hieß, dass Turley sexuell anzügliche Kommentare abgegeben und versucht habe, eine Person zu berühren Schüler während einer Reise. Aber Der Artikel existierte tatsächlich nicht und Turley war nie der Belästigung beschuldigt worden„Es war ziemlich erschreckend“, sagte Turley der Washington Post. „Eine Behauptung dieser Art ist unglaublich schädlich.“

Werbung

Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier

Werbung