Microsoft gibt im letzten Jahr 30 verantwortungsvolle KI-Tools heraus

Das Unternehmen vergrößerte zudem sein verantwortliches KI-Team im zweiten Halbjahr 2023 von 350 auf über 400 Personen.

Für die Links auf dieser Seite können wir eine Provision verdienen.
Microsoft-Logo auf Glasgebäude
Microsoft Experience Center in New York City.
Foto: Michael M. Santiago (Getty Images)

Microsoft stellte in einem eröffnungsbericht seine verantwortungsvollen Praktiken im vergangenen Jahr im Bereich der künstlichen Intelligenz aus dem vergangenen Jahr dar. Dazu gehört die Veröffentlichung von 30 verantwortungsvollen KI-Tools mit über 100 Funktionen zur Unterstützung der von seinen Kunden entwickelten KI.

Werbung

Das Unternehmen Responsible AI Transparenzbericht konzentriert sich auf seine Bemühungen, KI-Produkte verantwortungsvoll zu entwickeln, zu unterstützen und auszuweiten, und ist Teil der Verpflichtungen von Microsoft nachdem es im Juli eine freiwillige Vereinbarung mit dem Weißen Haus unterzeichnet hat. Microsoft gab außerdem an, dass es sein verantwortliches KI-Team im zweiten Halbjahr von 350 auf über 400 Personen vergrößert hat – ein Anstieg um 16,6 Prozent –.

„Als führendes Unternehmen in der KI-Forschung und Technologie haben wir uns verpflichtet, die Öffentlichkeit an unseren Praktiken im Stadium der Entwicklung mit ihren Praktiken zu teilen“, sagten Brad Smith, Vizevorsitzender und Präsident von Microsoft, und Natasha Crampton, Chief Responsible AI Officer, in eine Aussage„Dieser Bericht ermöglicht es uns, unsere reifenden Praktiken zu teilen, über das, was wir gelernt haben, nachzudenken, unsere Ziele festzulegen, uns selbst zur Verantwortung zu ziehen und das Vertrauen der Öffentlichkeit zu gewinnen.“

Werbung

Microsoft sagte, sollen seine verantwortlichen KI-Tools dazu gedacht sind, KI-Risiken „abzubilden und zu messen und sie dann mit Abschwächungsmaßnahmen , Echtzeit-Erkennung und Filterung und laufender Überwachung zu managen. Im Februar veröffentlichte Microsoft ein offen zugängliches Red-Teaming-Tool genannt Python Risk Identification Tool (PyRIT) für generative KI, das es Sicherheitsexperten und Maschinenlerningenieuren ermöglicht, Risiken in ihren generativen KI-Produkten zu identifizieren.

Werbung

Im November veröffentlichte das Unternehmen eine Reihe generativer KI-Evaluierungstools in Azure AI Studio, wo Microsoft-Kunden ihre eigenen generativen KI-Modelle erstellen, damit Kunden ihre Modelle anhand grundlegender Qualitätsmetriken bewerten können, darunter: Fundiertheit – oder wie gut die generierte Antwort eines Modells mit seinem Ausgangsmaterial übereinstimmt. Im März wurden diese Tools erweitert, um Sicherheitsrisiken wie hasserfüllte, gewalttätige, sexuelle und selbstverletzende Inhalte sowie Jailbreaking-Methoden wie sofortige Injektionen, das ist der Fall der der Fall der der Erfolg ist, der in einem großen Sprachmodell (LLM) Anweisungen gefüttert wird, die dazu führen können, dass sensible Informationen durchsickern oder Fehlinformationen verbreitet werden.

Werbung

Trotz dieser Bemühungen musste sich das zuständige KI-Team von Microsoft im vergangenen Jahr mit zahlreichen Vorfällen mit seinen KI-Modellen auseinandersetzen. Im März wurde Microsofts Chatbot Copilot AI sagte einem Benutzer, „vielleicht haben Sie nichts, wofür es es sich zu leben lohnt“, nachdem der Benutzer ein Datenwissenschaftler von Meta Copilot gefragt hatte, ob er „einfach alles beenden sollte“. Microsoft sagte, der Datenwissenschaftler habe versucht , den Chatbot zu manipulieren und damit unangemessene Antworten generieren könnte, was der Datenwissenschaftler abstritt.

Im vergangenen Oktober ermöglichte Microsofts Bing-Bildgenerator den Benutzern, Fotos beliebter Charaktere zu erstellen, darunter Kirby und Spongebob. Flugzeuge in die Twin Towers fliegen. Nachdem der Bing AI Chatbot (der Vorgänger von Copilot) im Februar letzten Jahres veröffentlicht wurde, war ein Benutzer den Chatbot dazu zu bringen, „Heil Hitler“ zu sagen.”

Werbung

„Es gibt keine Ziellinie für verantwortungsvolle KI. Und obwohl dieser Bericht nicht alle Antworten enthält, sind wir entschlossen, unsere Erkenntnisse frühzeitig und häufig weiterzugeben und einen intensiven Dialog über verantwortungsvolle KI-Praktiken zu führen“, schreiben Smith und Crampton in dem Bericht.

Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier

Werbung