Apples kürzlich angekündigte Partnerschaft mit dem KI-Chatbot-Hersteller OpenAI wird die neueste ChatGPT auf den nächsten iPhones, iPads und Macs installieren. Da OpenAI weiterhin mit Klage von Nachrichtenagenturen und Autoren vorangegangen wird, wirft der neue Vertrag mit Apple Fragen auf: Könnte Apple haftbar gemacht werden, wenn die Gerichte feststellen, dass OpenAI Urheberrechte verletzt hat?
OpenAI ist von Autoren verklagt und Nachrichtenorganisationen — darunter The Intercept und The New York Times —im letzten Jahr in mehreren Klagen gegen den Entwickler von ChatGPT der Verletzung des Urheberrechts vorgeworfen wird. Die Besorgnis besteht darin, dass OpenAI Originalinhalte von Autoren ohne Entschädigung verwendet um seine KI-Modelle zu trainieren und damit die Autoren, die behaupten, das KI-Startup habe sie bestohlen.
Neil Elan, leitender Anwalt bei Stubbs Alderton & Markiles LLP, sagt, Apple würde in solchen Fällen wahrscheinlich nicht haftbar gemacht. „Ich glaube nicht, dass es direkte Auswirkungen auf Apple hätte“, sagte er.
Elan zufolge könnten Gerichte, falls sie zugunsten der Kläger entscheiden, einstweilige Verfügungen erlassen, die OpenAI daran hindern, weiterhin unbefugt Daten zu sammeln. Einerseits könnte dies dem Ruf von ChatGPT schaden und sich aufgrund der Verbindung negativ auf Apple auswirken. Andererseits könnte ein solches Ergebnis für Apple-Benutzer von Vorteil sein, die ihre Daten schützen möchten, wenn sie ChatGPT über OpenAI verwenden.
Der Datenschutz sei für Apple im Zusammenhang mit der Partnerschaft mit OpenAI ein größeres rechtliches Risiko als eine Urheberrechtsverletzung, sagte Elan. Denn: „Es gibt keine Garantie, dass die Partnerschaft erfolgreich sein wird und dass alle Benutzer so geschützt werden, wie Apple es vertritt.“
Apple stellt den Datenschutz in den Vordergrund seiner KI-Ankündigungen am Montag während der Worldwide Developers Conference. Anders als andere KI-Software werden seine KI-Tools laut Apple (in den meisten Fällen) von Hardware angetrieben werden, die auf Ihrem Apple-Gerät sitzt. In Fällen, in denen komplexere KI-Software mehr Rechenleistung erfordert, verwendet Apple ein neues Modell mit dem Namen „Private Cloud Compute“. Mit diesem Modell werden die Daten von Apple iPhone-Benutzern sicherer an Server gesendet, die auf Apple-Hardware laufen.
Elan sagte jedoch, dass „die Richtlinie für private Cloud-Computing in bestimmten Bereichen möglicherweise nicht streng genug“ sei, um Apple vollständig vor rechtlichen Bedenken „hinsichtlich der Privatsphäre der Kunden“ zu schützen. Und Apple hat nicht so viel Kontrolle über die Privatsphäre der Benutzer, wenn Siri Anfragen an ChatGPT auslagert. Dennoch können Benutzer die Verwendung von ChatGPT-4o aktivieren oder deaktivieren. OpenAI machte große Zugeständnisse: Das Startup speichert die Anfragen von IP-Adressen von Apple-Kunden nicht.
Apple tut zudem viel mehr für den Datenschutz seiner Nutzer als viele andere KI-Unternehmen bisher. „Wenn Apples [neue Datenschutzstandards] akzeptiert werden und sich in der Praxis bewähren, könnten sie einen Standard etablieren, an den sich dann auch andere KI-Betreiber halten müssen“, sagte Elan. Er sagte, das würde „viele andere KI-Anbieter und -Betreiber dazu veranlassen, ihre Sicherheitsprozesse und -schutzmaßnahmen zu verstärken und ähnliche Schutzmaßnahmen zu ergreifen.“
Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier