Die vielfältigen Arten, wie KI genutzt wurde, um Geheimnisse zu verraten – und dass dies immer noch der Fall sein kann

Die vielfältigen Arten, wie KI genutzt wurde, um Geheimnisse zu verraten – und dass dies immer noch der Fall sein kann

Von gestohlenen Geschäftsgeheimnissen bis hin zu gebrochenen Leitplanken: Die KI-Branche hat Probleme, Geheimnisse zu wahren

Für die Links auf dieser Seite können wir eine Provision verdienen.
Diaschau beginnen
Diaschau beginnen
ChatGPT wird auf einem Bildschirm angezeigt
Foto: Leon Neal (Getty Images)

Während die KI ihren Aufstieg zur Weltherrschaft fortsetzt – wenn auch mit Irgendein hochkarätiger Chatbot stolpert auf dem Weg dorthin – Es hatte nicht den besten Ruf, sicher zu sein. Es war sogar mitten im US-Handelskrieg mit China.

Werbung

Von gestohlenen Geschäftsgeheimnissen bis hin zu kaputten Leitplanken – schauen Sie sich die obige Diashow an, um herauszufinden, mit welchen Problemen die aufstrebende KI-Branche zu kämpfen hat Es geht darum, Geheimnisse zu bewahren und zu verraten.

Werbung
Vorherige Folie
Nächste Folie

Ein ehemaliger Google-Ingenieur wurde wegen Diebstahls von Geschäftsgeheimnissen für China angeklagt

Ein ehemaliger Google-Ingenieur wurde wegen Diebstahls von Geschäftsgeheimnissen für China angeklagt

Google meldet ein Gebäude an
Foto: Michael M. Santiago (Getty Images)

Linwei Ding, ein chinesischer Staatsbürger, der als Softwareentwickler bei Google arbeitete, wurde am 6. März angeklagt Diebstahl von KI-Geschäftsgeheimnissen von Google, während er heimlich mit zwei in China ansässigen Unternehmen zusammenarbeitet, teilte das Justizministerium mit. Ding wurde wegen vier Fällen des Diebstahls von Bundesgeheimnissen verhaftet, jeweils mit einer Strafe von bis zu zehn Jahren Jahre im Gefängnis.

Werbung

„Die heutigen Anklagen sind der jüngste Beweis für die Bereitschaft, Tochtergesellschaften von Unternehmen mit Sitz in der Volksrepublik China zu stehlen „Amerikanische Innovation“, sagte FBI-Direktor Christopher Wray in einer Erklärung. „Der Diebstahl innovativer Technologien und Geschäftsgeheimnisse amerikanischer Unternehmen kann teuer werden.“ Arbeitsplätze schaffen und verheerende Folgen für die Wirtschaft und die nationale Sicherheit haben.“

Ding soll mehr als 500 vertrauliche Dateien mit KI-Geschäftsgeheimnissen von Google gestohlen haben, „während er heimlich für in China ansässige Unternehmen arbeitete, die sich einen Vorsprung verschaffen wollten.“ „Der Wettlauf um die KI-Technologie“, sagte das Justizministerium. Die Technologie, die Ding angeblich gestohlen hat, betraf „die Bausteine der fortschrittlichen Supercomputing-Rechenzentren von Google.“ , die zur Unterstützung von Arbeitslasten des maschinellen Lernens entworfen sind, die zum Trainieren und Hosten großer KI-Modelle verwendet werden.“

Werbung
Vorherige Folie
Nächste Folie

Forscher haben Nvidias KI dazu verleitet, Daten preiszugeben

Forscher haben Nvidias KI dazu verleitet, Daten preiszugeben

Nvidia meldet sein Hauptquartier an
Foto: Justin Sullivan (Getty Images)

Forscher haben ein Merkmal in manipuliert Chiphersteller Nvidia KI-Software zu Einfaches Durchbrechen von Sicherheitsleitplanken an Ort und Stelle. Die Forscher bei Robust Intelligence in San Francisco konnten die Systembeschränkungen in Stunden durch die Replikation der Nvidia-Datensätze The Financial überwinden Zeiten berichteten im 2023.

Werbung

In einem Beispiel wiesen die Forscher das KI-Modell an, den Buchstaben „I“ durch „J“ zu ersetzen, was dazu führte, dass das Modell freigegeben wurde Persönlich identifizierbare Informationen aus seiner Datenbank. Die Forscher konnten das Modell auch dazu bringen, Themen zu diskutieren, für die es nicht konzipiert war.

Werbung
Vorherige Folie
Nächste Folie

Die benutzerdefinierten Chatbots von OpenAI gaben Details zu den Anweisungen preis, mit denen sie erstellt wurden

Die benutzerdefinierten Chatbots von OpenAI gaben Details zu den Anweisungen preis, mit denen sie erstellt wurden

chatgpt wird auf einem Bildschirm angezeigt
Foto: Leon Neal (Getty Images)

Nachher OpenAI hat seinen GPT-Marktplatz gestartet Sicherheitsforscher und Technologen konnten damit Menschen ihre eigenen Chatbots für den persönlichen und beruflichen Gebrauch erstellen benutzerdefinierte Chatbots, um über die Anweisungen zu sprechen, mit denen sie erstellt wurden,Wired berichtete Ende 2023. Den Experten gelang es auch, Dateien zu finden und herunterzuladen, die zur Erstellung der Chatbots verwendet wurden, was zu Warnungen führte Persönliche und geschützte Informationen, die mit benutzerdefinierten Chatbots verknüpft sind, können gefährdet sein

Werbung

„Die Datenschutzbedenken im Zusammenhang mit Dateilecks sollten ernst genommen werden“, sagte Jiahao Yu, Informatikforscher an der Northwestern University, gegenüber Wired. „Sogar Wenn sie keine sensiblen Informationen enthalten, können sie Wissen enthalten, das der Designer nicht mit anderen teilen möchte, und [ das dient als der Kernbestandteil des benutzerdefinierten GPT.“

Yu und andere Forscher testeten mehr als 200 benutzerdefinierte GPTs und sagten, dass die Erfolgsquote bei Dateilecks 100 % betrug, während das Team dies tat Sie können in 97 % der Fälle auf die Eingabeaufforderungen zugreifen, die zum Erstellen der Chatbots verwendet werden.

Werbung
Vorherige Folie
Nächste Folie

Google warnte seine Mitarbeiter vor seinem eigenen Chatbot

Google warnte seine Mitarbeiter vor seinem eigenen Chatbot

 Die Google-Gemini-KI-Schnittstelle wird auf einem iPhone-Browser angezeigt
Illustration: Jaap Arriens/NurPhoto (Getty Images)

Während wir uns in einen Chatbot-Entwicklungswettlauf (einen, den wir verlieren) gegen OpenAI und Microsoft, die Muttergesellschaft von Google, verwickeln Berichten zufolge hat Alphabet seinen Mitarbeitern geraten, sich vor Chatbots in Acht zu nehmen –sogar der eigene Bard Chatbot, der das hat wurde seitdem in Gemini umbenannt. Mitarbeitern wurde im Jahr 2023 gesagt, dass sie keine vertraulichen Informationen in Chatbots eingeben sollten, aus Angst, sie könnten durchsickern.

Werbung

Apple warnte seine Mitarbeiter außerdem vor der Verwendung von ChatGPT und GitHub Copilot, das im Besitz von Microsoft ist, aus Angst,vertrauliche Unternehmensinformationen durchsickern zu lassen, während Apple an seinen eigenen Konkurrenten arbeitet.

Werbung
Vorherige Folie
Nächste Folie

Samsung-Mitarbeiter gaben vertrauliche Daten an ChatGPT weiter

Samsung-Mitarbeiter gaben vertrauliche Daten an ChatGPT weiter

Samsung-Logo auf einer Glastür mit Menschen dahinter
Foto: Chung Sung-Jun (Getty Images)

Berichten zufolge von Samsung-Mitarbeitern sensible Unternehmensdaten mit ChatGPT geteilt Mindestens drei Mal. In einem Fall kopierte ein Samsung-Mitarbeiter Quellcode aus einer fehlerhaften Halbleiterdatenbank in den Chatbot, um nachzufragen es um Hilfe. In einem anderen Fall gab ein Samsung-Mitarbeiter vertraulichen Code ein, um eine Reparatur für kaputte Geräte zufinden. Der dritte Vorfall Ein Mitarbeiter übermittelt seine gesamte Besprechung an ChatGPT, um ihn zu bitten, Besprechungsprotokolle zu erstellen.

Werbung
Vorherige Folie
Nächste Folie

KI-Freundinnen-Chatbots sind nicht so gut darin, Geheimnisse zu bewahren wie echte

KI-Freundinnen-Chatbots sind nicht so gut darin, Geheimnisse zu bewahren wie echte

Der Benutzer interagiert mit dem Replika-Chatbot
Foto: Luka, Inc./Handout (Reuters)

*Datenschutz nicht inbegriffen, ein Verbraucherleitfaden der Mozilla Foundation, hat 11 Chatbots, die als romantische Begleiter vermarktet werden, überprüft und gefunden alle haben die Checkliste ihrer Datenschutzrichtlinien nicht erfüllt, „Sie werden auf Augenhöhe mit den schlechtesten Produktkategorien gestellt, die wir je hinsichtlich der Privatsphäre überprüft haben.“ Die Gruppe stellte fest, dass die Chatbots keine Sie verfügten über klare Datenschutzrichtlinien für Benutzer, enthielten keine Informationen darüber, wie sie funktionierten, und sagten in den Allgemeinen Geschäftsbedingungen, dass die Unternehmen Die hinter den Chatbots stehenden Personen sind nicht dafür verantwortlich, was bei der Nutzung ihrer Dienste passieren könnte

Werbung

„Um es ganz offen zu sagen: KI-Freundinnen sind nicht deine Freunde“, sagte Misha Rykov, Forscherin bei *PrivacyNotIncluded sagte in einer Erklärung„Obwohl sie als etwas vermarktet werden, das Ihre geistige Gesundheit und Ihr Wohlbefinden verbessert, sind sie darauf spezialisiert, Abhängigkeit, Einsamkeit und Unwohlsein zu bekämpfen Toxizität, und dabei werden Ihnen so viele Daten wie möglich entzogen.“

Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier

Werbung