Microsoft Azure Version des Bildgenerators von OpenAI, DALL-E, wurde aufgestellt als Schlachtfeldwerkzeug für das US-Verteidigungsministerium (DoD), ursprünglich berichtet von Das Intercept Mittwoch. Der Bericht besagt , dass Microsoft sein Verkaufsangebot für die Tools von Azure OpenAI im Oktober 2023 vorstellte, wahrscheinlich in der Hoffnung, vom wachsenden Interesse des US-Militärs an der Verwendung generativer KI für die Kriegsführung zu profitieren.
„Verwendung der DALL-E-Modelle zur Erstellung von Bildern für das Training von Gefechtsführungssystemen“, heißt es in einer Zeile aus Microsofts Pitch an das Verteidigungsministerium, laut einem Präsentation erhalten von The Intercept. Der Satz zu DALL-E potenzieller militärischer Anwendung erscheint in einer Folienpräsentation mit dem Titel „Generative KI mit Daten des Verteidigungsministeriums“ neben dem Branding von Microsoft.
Azure bietet viele der Tools von OpenAI einschließlich DALL-E dank der Microsoft 10-Milliarden-Dollar-Partnerschaft mit der gemeinnützigen Organisation. Wenn es um die militärische Nutzung geht, hat Microsoft Azure den Vorteil, nicht an die nervigen allübergreifenden Vorgaben von OpenAI gebunden zu sein. Mission: „um sicherzustellen, dass künstliche allgemeine Intelligenz der gesamten Menschheit nützt.“ Die Richtlinien von OpenAI verbieten die Nutzung seiner Dienste für “anderen Schaden zufügen”, oder für Spyware. Allerdings bietet Microsoft die Tools von OpenAI unter seinem Firmendach an, wo das Unternehmen seit Jahrzehnten mit den Streitkräften zusammenarbeitet, so ein Microsoft-Sprecher.
„Dies ist ein Beispiel für potenzielle Anwendungsfälle, das auf Gesprächen mit Kunden über die Kunst des Möglichen mit generativer KI basiert“, sagte ein Microsoft-Sprecher in einer E-Mail als Antwort auf die Präsentation.
Erst letztes Jahr verbot OpenAI (nicht Azure OpenAI) die Nutzung seiner Tools für „Militär- und Kriegsführung“ und „Waffenentwicklung“, wie auf der Internetarchiv. Allerdings entfernte OpenAI im Januar 2024 still eine Zeile aus seinen Universal Policies, die erst entdeckt wurde von Das Intercept. Nur Tage später er sagte Anna Makanju, Vizepräsidentin für globale Angelegenheiten von OpenAI, Bloomberg, dass es Beginn der Zusammenarbeit mit dem Pentagon. OpenAI stellte damals fest, dass mehrere Anwendungsfälle der nationalen Sicherheit mit seiner Mission übereinstimmen.
„Die Richtlinien von OpenAI verbieten die Verwendung unserer Tools zur Entwicklung oder Verwendung von Waffen, zur Verletzung anderer oder zur Zerstörung von Eigentum“, sagte ein Sprecher von OpenAI in einer E-Mail. „Wir waren an dieser Präsentation nicht beteiligt und haben keine Gespräche mit US-Verteidigungsbehörden bezüglich der darin beschriebenen hypothetischen Anwendungsfälle geführt.“
Regierungen auf der ganzen Welt scheinen KI als die Zukunft der Kriegsführung zu betrachten. Wir haben kürzlich erfahren, dass Israel ein KI-System namens Lavendel eine „Todesliste“ von 37.000 Menschen im Gazastreifen zu erstellen, ursprünglich berichtet von +972 Magazin. Seit Juli letzten Jahres experimentieren amerikanische Militärs mit großen Sprachmodellen für militärische Aufgaben, laut Bloomberg.
Die Technologiebranche hat diese enorme finanzielle Chance zweifellos erkannt. Der ehemalige CEO von Google, Eric Schmidt, baut KI-basierte Kamikaze-Drohnen für eine Firma namens Weißstorch. Schmidt schlägt seit Jahren eine Brücke zwischen Technologie und dem Pentagon und leitet die Bemühungen zum Einsatz von KI an der Front .
Die Technologie wird seit Langem vom Pentagon unterstützt, und zwar seit den ersten Halbleiterchips in den 1950er-Jahren. Daher überrascht es nicht, dass KI auf die gleiche Weise angenommen wird. Obwohl die Ziele von OpenAI hochgesteckt und friedlich klingen, ermöglicht die Partnerschaft mit Microsoft dem Unternehmen, sie zu verschleiern und seine weltweit führende KI an das amerikanische Militär zu verkaufen.
Eine Version dieses Artikels erschien ursprünglich auf Gizmodo.
Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier