Microsoft verbietet der Polizei den Einsatz seiner KI zur Gesichtserkennung

Microsoft sagte, sein Azure OpenAI Service darf nicht „von oder für die US-Polizei zur Gesichtserkennung verwendet werden

Für die Links auf dieser Seite können wir eine Provision verdienen.
Satya Nadella spricht mit erhobenen Händen vor einem blauen Hintergrund mit dem Microsoft-Logo.
Microsoft-Vorsitzender und CEO Satya Nadella.
Foto: Ethan Miller (Getty Images)

Microsoft verbietet die Verwendung seines künstlichen Intelligenzdienstes zur Gesichtserkennung „durch oder für Polizeibehörden in den USA.

Werbung

In seiner aktualisierter Verhaltenskodex Für seinen Azure OpenAI Service sagte das Unternehmen auch, dürfen Integrationen mit dem Dienst nicht für Echtzeit-Gesichtserkennungstechnologie verwendet werden, die von „allen Strafverfolgungsbehörden weltweit“ eingesetzt wird, einschließlich von mobilen Kameras und am Armaturenbrett montierten Kameras, „um zu versuchen, Personen in unkontrollierten „wilden“ Umgebungen zu identifizieren“ oder „um zu versuchen, Personen zu identifizieren, die in einer Datenbank von Verdächtigen oder früheren Häftlingen aufgeführt sind.“

Azure OpenAI Service bietet Unternehmenskunden Zugriff auf OpenAIs Große Sprachmodelle (LLMs). Der Dienst wird vollständig von Microsoft verwaltet und ist auf Kunden beschränkt, die bereits eine Partnerschaft mit dem Unternehmen haben, ihn für Fälle mit geringerem Risiko verwenden und deren Schwerpunkt auf der Risikominderung liegt.

Werbung

Letzte Woche startete Axon, ein Unternehmen, das Technologie und Waffen, unter anderem für die Strafverfolgung, herstellt, eine KI-gestütztes Softwareprogramm ermöglicht der Polizei die Automatisierung von Berichten. Das Produkt, genannt DraftOneist ein „revolutionäres neues Softwareprodukt, das in Sekundenschnelle hochwertige Polizeiberichte erstellt.“ Axon sagte, DraftOne werde von GPT-4, dem leistungsstärksten LLM von OpenAI, angetrieben und könne Berichte auf der Grundlage automatisch transkribierter Audiodaten von Polizei-Bodycams schreiben, die das Unternehmen verkauft.

Werbung

Kritiker des Tools sagten jedoch, es könne problematisch sein, wenn man bedenkt, KI hat Probleme mit „Halluzinationen“ – oder das Erfinden falscher oder unsinniger Informationen – und können dazu verwendet werden, um die Polizei von ihrer rechtlichen Verantwortung zu entbinden, wenn ein Bericht ungenaue Informationen enthält.

Werbung

Dave Maass, Leiter der Untersuchungen zu Überwachungstechnologien bei der Electronic Frontier Foundation, gegenüber Forbes Der erste Entwurf sei „eine Art Albtraum“. Er fügte hinzu, dass die Polizei nicht in der Verwendung KI-gestützter Tools ausgebildet sei und daher möglicherweise den Umfang der Technologie nicht verstehe.

Es ist nicht klar, ob der aktualisierte Verhaltenskodex von Microsoft mit der Produktveröffentlichung von Axon zusammenhängt.

Werbung

Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier

Werbung