Salesforce hat am Donnerstag die allgemeine Verfügbarkeit seines Chatbots für Unternehmen, Einstein Copilot, bekanntgegeben.
Salesforce-Führungskräfte sagen, dass Einstein Copilot viel weniger wahrscheinlich ist als andere KI-Chatbots, halluzinieren, oder falsche oder unsinnige Informationen generieren – etwas, was andere Chatbots von Google, Meta, Anthropic und OpenAI nur schwer zu überwinden vermochten.
„Sie können sehr selbstbewusste Lügner sein“, sagte Patrick Stokes, Executive Vice President of Product Marketing bei Salesforce, während einer Keynote auf der Salesforce World Tour NYC am Donnerstag über KI-Chatbots.
Einstein Copilot ist anders, sagte Stokes, weil es die unternehmenseigenen Daten sowohl aus Tabellen als auch aus schriftlichen Dokumenten in allen Apps verwendet werden, in denen sie gespeichert sind, egal ob es die Salesforce-eigene Plattform ist, Google Cloud, Amazon Web Services, Snowflake oder andere Data Warehouses.
Der Chatbot ist als eine Art Vermittler zwischen einem Unternehmen, seinen privaten Daten und Große Sprachmodelle (LLMs) wie GPT-4 von OpenAI und Gemini von Google. Mitarbeiter können Abfragen eingeben wie „Welchen nächsten Schritt sollte ich unternehmen um auf diese Kundenbeschwerde zu reagieren?“, und Einstein ruft die relevanten Unternehmensdaten aus Salesforce oder anderen Cloud-Diensten ab. Anschließend hängt es diese Daten an die ursprüngliche Abfrage an ein LLM an, das eine Antwort generiert.
Der neue Chatbot von Salesforce verfügt außerdem über eine Schutzschicht, sodass die LLMs, an die er Eingabeaufforderungen sendet, keine Unternehmensdaten speichern können.
In einem Folgeinterview mit Quartz erklärte Stokes genauer, warum Einstein Copilot weniger wahrscheinlich halluziniert als andere Chatbots. „Bevor wir die Frage an den LLM weiterleiten, werden wir die Daten beschaffen“, sagte er und fügte hinzu: „Ich glaube nicht, dass wir Halluzinationen jemals vollständig verhindern werden.“
Aus diesem Grund verfügt der Chatbot über eine Funktion zur Halluzinationserkennung. Darüber hinaus sammelt er Echtzeit-Feedback von Salesforce-Kunden, sodass er Administratoren auf Systemschwächen aufmerksam machen kann.
KI-Halluzinationen werden immer vorkommen
Stokes sagte, dass die Vorstellung einer Welt ohne KI-Halluzinationen ebenso „albern“ sei wie die Vorstellung einer Welt, in der Computernetzwerke völlig unhackbar seien.
„Es wird immer einen Weg hinein geben. Ich denke, das gilt auch für KI“, sagte er. „Aber was wir tun können, ist, alles in unserer Macht Stehende zu tun, um sicherzustellen, dass wir transparente Technologie entwickeln, die an die Oberfläche kommt, wenn so etwas passiert.“
Ariel Kelmen, Chief Marketing Officer von Salesforce, behauptete: „Das Komische ist, dass LLMs von Natur aus dafür gebaut wurden, zu halluzinieren“, sagte er. „So funktionieren sie nun einmal. Sie haben Vorstellungskraft.“
Ein Bericht der New York Times letztes Jahr stellte fest, dass die Rate von Halluzinationen bei KI-Systemen bei Meta etwa 5 %, bei Anthropic bis zu 8 %, bei OpenAI 3 % und bei Google PaLM bis zu 27 % betrug.
Chatbots „halluzinieren“, wenn sie nicht über die notwendigen Trainingsdaten verfügen, um eine Frage zu beantworten, aber trotzdem eine Antwort generieren, die wie eine Tatsache aussieht. Halluzinationen können durch verschiedene Faktoren verursacht werden, wie ungenaue oder verzerrte Trainingsdaten und Overfitting, das dann zu einer Überanpassung führt . Algorithmus kann keine Vorhersagen oder Schlussfolgerungen machen aus anderen Daten als denen mit denen es trainiert wurde.
Halluzinationen sind derzeit eines der größten Probleme bei generativen KI-Modellen – und sie sind nicht ganz einfach zu lösen. Da KI-Modelle an großen Datenmengen trainiert werden, kann es schwierig sein, spezifische Probleme in den Daten zu finden. Manchmal sind die zum Training von KI-Modellen verwendeten Daten ohne Ursachen von Ungenauigkeiten da sie kommt von Orten wie Reddit.
In diesem Punkt wird sich der Chatbot von Salesforce unterscheiden, sagt Salesforce. Es ist allerdings noch früh und erst die Zeit wird zeigen, welcher KI-Chatbot am wenigsten von Wahnvorstellungen geprägt ist.
Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier