KI-Assistenten entwickeln immer mehr Sinne. Am Montag präsentierte OpenAI ein neues ChatGPT-Modell, das verspricht, sehen, hören und sprechen über Smartphones, unter anderem neuen Fähigkeiten. Jetzt kündigt Google einen konkurrierenden Assistenten mit ähnlichen Fähigkeiten an.
Auf der I/O-Entwicklerkonferenz des Unternehmens am Dienstag stellte DeepMind-CEO Demis Hassabis einen Prototyp von Googles neuem KI-Assistenten vor, der durch das Telefon eines Benutzers und andere Objekte wie Smart Glasses sehen kann. Der Assistent „baut auf“ Gemini auf, dem bestehenden Chatbot von Google, so das Unternehmen, und einige seiner Funktionen werden später in diesem Jahr in die Gemini-App und das Web-Erlebnis integriert.
Die Entwicklung ist Teil des Projekts Astra von Google DeepMind, das darauf abzielt, einen „universellen KI-Agenten“ für den Alltag der Benutzer zu schaffen. „Es ist leicht, sich eine Zukunft vorzustellen, in der Sie über Ihr Telefon oder neue spannende Formfaktoren wie Brillen einen erfahrenen Assistenten an Ihrer Seite haben“, sagte Hassabis vor einer Menge von einigen tausend Entwicklern in Mountain View, Kalifornien.
Ein Demovideo zeigt eine Person, die über ihr Telefon mit einem KI-Agenten spricht, während sie durch ein Büro geht. Durch ihre Kamera zeigt sie dem KI-Assistenten einen Behälter mit Buntstiften, als würde sie über FaceTime sprechen, und bittet ihn, eine „kreative Alliteration“ zu erstellen.
„Kreative Buntstifte malen fröhlich“, hieß es. „Sie erschaffen auf jeden Fall farbenfrohe Kreationen.“ Die Person interagiert während ihres Spaziergangs weiter mit dem KI-Bot, merkt dann, dass sie ihre Brille vergessen hat, und bittet um Hilfe, sie zu finden. „Sie liegt auf dem Schreibtisch neben einem roten Apfel“, antwortet der Bot.
Wenn der Benutzer diese Brille aufsetzt, kann der KI-Assistent ebenfalls durch sie hindurchsehen – und erkennt auf einem Whiteboard eine Abbildung, die Schrödingers Katze darstellt.
Es ist unklar, ob es sich bei diesen Brillen um ein neues Produkt handelt, das Google auf den Markt bringen will. Die in der Demo gezeigten Augmented-Reality-Brillen sahen weder wie Google Glass aus, die bestehenden Smart Glasses des Unternehmens, noch ähnelten sie typischen, klobigeren Headsets.
„Ein Agent wie dieser muss unsere komplexe und dynamische Welt genauso verstehen und darauf reagieren wie wir“, sagte Hassabis auf der Konferenz. „Er muss das, was er sieht, aufnehmen und sich merken können, damit er den Kontext verstehen und Maßnahmen ergreifen kann. Und er muss proaktiv, lernfähig und persönlich sein. Damit man auf natürliche Weise und ohne Verzögerungen mit ihm sprechen kann.“
Dies sei das Ziel des Projekts Astra, sagte er, und es mache „große Fortschritte“.
Während Googles Obwohl der Prototyp eines KI-Assistenten den Teilnehmern der Google I/O-Konferenz zur Vorführung zur Verfügung steht, wird es wahrscheinlich noch eine Weile dauern, bis die Technologie ihren Weg in die Hände der Alltagsverbraucher findet.
Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier