Künstliche Intelligenz-Chatbots wie ChatGPT von OpenAI werden als revolutionäre Tools verkauft, die Arbeitnehmern dabei helfen können, ihre Arbeit effizienter zu erledigen, und die diese Menschen in Zukunft möglicherweise vollständig ersetzen. Aber eine erstaunliche neue Studie hat festgestellt, dass ChatGPT in 52% der Zeiten Fragen zur Computerprogrammierung falsch beantwortet.
Die Forschung der Purdue University, die zuerst von einer Nachrichtenagentur entdeckt wurde, Futurismus, wurde Anfang dieses Monats vorgestellt auf der Computer-Mensch-Interaktionskonferenz in Hawaii und habe 517 Programmierfragen auf Stack Overflow angesehen, die dann an ChatGPT eingereicht wurden.
„Unsere Analyse zeigt, dass 52 % der ChatGPT-Antworten falsche Informationen enthalten und 77 % sehr ausführlich sind“, heißt es in der neuen Studie. „Dennoch bevorzugten die Teilnehmer unserer Benutzerstudie in 35 % der Fälle die Antworten von ChatGPT, da sie umfassender und klar formuliert waren.“
Beunruhigenderweise war es den Programmierern in der Studie nicht immer bewusst, welche Fehler der KI-Chatbot machte.
„Allerdings übersahen sie auch in 39% der Zeiten die Fehlinformationen in den ChatGPT-Antworten“, so die Studie. „Daraus folgt die Notwendigkeit, Fehlinformationen in ChatGPT-Antworten auf Programmierfragen gegenzuwirken und das Bewusstsein für die Risiken zu schärfen, die mit scheinbar richtigen Antworten verbunden sind.“
Offensichtlich ist dies nur eine Studie, die verfügbar ist online lesen, aber es weist auf Probleme hin, die jeder kennt , der diese Tools verwendet hat. Große Technologieunternehmen stecken derzeit Milliarden von Dollar in KI, um die zuverlässigsten Chatbots zu liefern. Meta, Microsoft und Google führen alle in einem Wettlauf um die Beherrschung eines neuen Bereichs, der das Potenzial hat, unsere Beziehung zum Internet radikal umzugestalten. Aber dabei stehen eine Reihe von Hürden im Weg.
Das Hauptproblem besteht darin, dass KI häufig unzuverlässig ist, insbesondere wenn ein bestimmter Benutzer eine wirklich einzigartige Frage stellt. Die neue KI-gestützte Suche von Google wird ständig Müll rausbringen das oft aus unzuverlässigen Quellen zusammengekratzt wird. Tatsächlich gab es diese Woche mehrmals Vorfälle bei Google Search , bei der satirische Artikel von The Onion angezeigt wurden als verlässliche Informationen.
Google verteidigt sich seinerseits damit, dass es bei falschen Antworten um Anomalien handele.
„Bei den Beispielen, die wir gesehen haben, handelt es sich im Allgemeinen um sehr ungewöhnliche Anfragen, die nicht repräsentativ für die Erfahrungen der meisten Leute sind“, teilte ein Google-Sprecher Gizmodo per E-Mail mit. Anfang dieser Woche„Die große Mehrheit der KI-Übersichten bietet hochwertige Informationen und Links für tiefere Informationen im Web.“
Aber diese Verteidigung, dass „ungewöhnliche Anfragen“ falsche Antworten zeigen, ist offen gesagt lächerlich. Sollen Benutzer diesen Chatbots nur die banalsten Fragen stellen? Wie kann das akzeptabel sein, wenn doch versprochen wird, dass diese Tools revolutionär sein sollen?
OpenAI antwortete am Freitag nicht sofort auf eine Bitte um einen Kommentar zu der neuen Studie zu ChatGPT-Antworten. Gizmodo wird diesen Beitrag aktualisieren, wenn wir eine Antwort erhalten.
A version of this article originally appeared on Gizmodo.
Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier