Als OpenAI führt die erweiterte Version des Sprachmodus ein für seine neuestes Modell, GPT-4oDas Unternehmen gibt an, dass die Funktion das Risiko erhöhen könnte, dass manche Benutzer künstliche Intelligenzmodelle als „menschenähnlich“ wahrnehmen.
Die „menschliche, hochpräzise Stimme“ von GPT-4o könnte das Problem lösen Halluzinationen, oder die Tendenz eines Modells, falsche oder unsinnige Informationen zu erfinden, schlimmer , sagte OpenAI in einem Bericht über die Sicherheit des KI-Modells, was das menschliche Vertrauen beeinträchtigen könnte.
Während der frühen Red-Teaming- und internen Benutzertests beobachtete OpenAI nach eigenen Angaben, dass Benutzer mit dem Modell in einer „Sprache sprachen, die darauf hindeuten könnte, dass eine Verbindung zum Modell aufgebaut wird“, wie etwa ein Benutzer, der dem Modell sagte: „Das ist unser letzter gemeinsamer Tag.“
„Obwohl diese Fälle harmlos erscheinen, weisen sie darauf hin, dass weitere Untersuchungen erforderlich sind, um herauszufinden, wie sich diese Auswirkungen über längere Zeiträume manifestieren könnten“, sagte OpenAI und fügte hinzu, dass das Unternehmen das Risiko weiterhin bei vielfältigeren Benutzern sowie in akademischen und internen Studien untersucht.
Während der Aufbau „sozialer Beziehungen“ mithilfe von KI-Modellen einsamen Menschen helfen könne, könne er sich auch auf gesunde Beziehungen auswirken, indem er den Bedarf an zwischenmenschlicher Interaktion verringere, so OpenAI. Sich auf KI-Modelle für „menschenähnliche“ Interaktionen zu verlassen, könne auch „soziale Normen beeinflussen“, so das Unternehmen, etwa durch die Unterbrechung von Gesprächen zu jeder Zeit, was das Modell den Benutzern zwar erlaube, bei einem Gespräch mit einer echten Person aber unüblich wäre.
Die Sprachfunktionen von GPT-4o, das im Mai vorgestellt wurde, wurden getestet mit über 100 externe Red Teamer in 45 Sprachen, und das KI-Modell wurde darauf trainiert, nur mit vier voreingestellten Stimmen zu sprechen, um die Privatsphäre der Synchronsprecher zu schützen. GPT-4o ist so konzipiert, dass Ausgaben mit nicht voreingestellten Stimmen blockiert werden können und daher nicht zum Imitieren von Einzelpersonen und Persönlichkeiten des Öffentlichkeitslebens verwendet werden können. OpenAI hat auch Leitplanken hinzugefügt, um Anfragen nach urheberrechtlich geschütztem Audiomaterial – einschließlich Musik – sowie nach erotischen, gewalttätigen und schädigenden Inhalten zu blockieren.
OpenAI geht auf ein Risiko ein, das im Fokus des Geschäftsführers stand Sam Altmans Lieblingsfilm, Ihr, in dem ein Mann Gefühle für eine virtuelle Assistentin entwickelt, deren Stimme von der Schauspielerin Scarlett Johansson übernommen wurde. Im Mai sagten Nutzer, dass eine der Stimmen von GPT-4o, Sky, ähnlich wie die von Johansson klinge, was das Unternehmen dazu veranlasste, pausiere die Stimmeund sagte, es sei nicht als Imitation der Schauspielerin gedacht gewesen. Johansson sagte in einem Brief Sie war „schockiert, wütend und ungläubig“, dass das Unternehmen eine Stimme verwenden würde, die ihrer „unheimlich ähnlich“ klang, nachdem sie eine Zusammenarbeit mit Altman abgelehnt hatte.
Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier