Microsoft verbietet die Verwendung seines künstlichen Intelligenzdienstes zur Gesichtserkennung „durch oder für Polizeibehörden in den USA.
In seiner aktualisierter Verhaltenskodex Für seinen Azure OpenAI Service sagte das Unternehmen auch, dürfen Integrationen mit dem Dienst nicht für Echtzeit-Gesichtserkennungstechnologie verwendet werden, die von „allen Strafverfolgungsbehörden weltweit“ eingesetzt wird, einschließlich von mobilen Kameras und am Armaturenbrett montierten Kameras, „um zu versuchen, Personen in unkontrollierten „wilden“ Umgebungen zu identifizieren“ oder „um zu versuchen, Personen zu identifizieren, die in einer Datenbank von Verdächtigen oder früheren Häftlingen aufgeführt sind.“
Azure OpenAI Service bietet Unternehmenskunden Zugriff auf OpenAIs Große Sprachmodelle (LLMs). Der Dienst wird vollständig von Microsoft verwaltet und ist auf Kunden beschränkt, die bereits eine Partnerschaft mit dem Unternehmen haben, ihn für Fälle mit geringerem Risiko verwenden und deren Schwerpunkt auf der Risikominderung liegt.
Letzte Woche startete Axon, ein Unternehmen, das Technologie und Waffen, unter anderem für die Strafverfolgung, herstellt, eine KI-gestütztes Softwareprogramm ermöglicht der Polizei die Automatisierung von Berichten. Das Produkt, genannt DraftOneist ein „revolutionäres neues Softwareprodukt, das in Sekundenschnelle hochwertige Polizeiberichte erstellt.“ Axon sagte, DraftOne werde von GPT-4, dem leistungsstärksten LLM von OpenAI, angetrieben und könne Berichte auf der Grundlage automatisch transkribierter Audiodaten von Polizei-Bodycams schreiben, die das Unternehmen verkauft.
Kritiker des Tools sagten jedoch, es könne problematisch sein, wenn man bedenkt, KI hat Probleme mit „Halluzinationen“ – oder das Erfinden falscher oder unsinniger Informationen – und können dazu verwendet werden, um die Polizei von ihrer rechtlichen Verantwortung zu entbinden, wenn ein Bericht ungenaue Informationen enthält.
Dave Maass, Leiter der Untersuchungen zu Überwachungstechnologien bei der Electronic Frontier Foundation, gegenüber Forbes Der erste Entwurf sei „eine Art Albtraum“. Er fügte hinzu, dass die Polizei nicht in der Verwendung KI-gestützter Tools ausgebildet sei und daher möglicherweise den Umfang der Technologie nicht verstehe.
Es ist nicht klar, ob der aktualisierte Verhaltenskodex von Microsoft mit der Produktveröffentlichung von Axon zusammenhängt.
Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier