Von gestohlenen Geschäftsgeheimnissen bis hin zu kaputten Leitplanken – schauen Sie sich die obige Diashow an, um herauszufinden, mit welchen Problemen die aufstrebende KI-Branche zu kämpfen hat Es geht darum, Geheimnisse zu bewahren und zu verraten.
Werbung
Vorherige Folie
Nächste Folie
Ein ehemaliger Google-Ingenieur wurde wegen Diebstahls von Geschäftsgeheimnissen für China angeklagt
Ein ehemaliger Google-Ingenieur wurde wegen Diebstahls von Geschäftsgeheimnissen für China angeklagt
„Die heutigen Anklagen sind der jüngste Beweis für die Bereitschaft, Tochtergesellschaften von Unternehmen mit Sitz in der Volksrepublik China zu stehlen „Amerikanische Innovation“, sagte FBI-Direktor Christopher Wray in einer Erklärung. „Der Diebstahl innovativer Technologien und Geschäftsgeheimnisse amerikanischer Unternehmen kann teuer werden.“ Arbeitsplätze schaffen und verheerende Folgen für die Wirtschaft und die nationale Sicherheit haben.“
Ding soll mehr als 500 vertrauliche Dateien mit KI-Geschäftsgeheimnissen von Google gestohlen haben, „während er heimlich für in China ansässige Unternehmen arbeitete, die sich einen Vorsprung verschaffen wollten.“ „Der Wettlauf um die KI-Technologie“, sagte das Justizministerium. Die Technologie, die Ding angeblich gestohlen hat, betraf „die Bausteine der fortschrittlichen Supercomputing-Rechenzentren von Google.“ , die zur Unterstützung von Arbeitslasten des maschinellen Lernens entworfen sind, die zum Trainieren und Hosten großer KI-Modelle verwendet werden.“
Werbung
Vorherige Folie
Nächste Folie
Forscher haben Nvidias KI dazu verleitet, Daten preiszugeben
Forscher haben Nvidias KI dazu verleitet, Daten preiszugeben
In einem Beispiel wiesen die Forscher das KI-Modell an, den Buchstaben „I“ durch „J“ zu ersetzen, was dazu führte, dass das Modell freigegeben wurde Persönlich identifizierbare Informationen aus seiner Datenbank. Die Forscher konnten das Modell auch dazu bringen, Themen zu diskutieren, für die es nicht konzipiert war.
Werbung
Vorherige Folie
Nächste Folie
Die benutzerdefinierten Chatbots von OpenAI gaben Details zu den Anweisungen preis, mit denen sie erstellt wurden
Die benutzerdefinierten Chatbots von OpenAI gaben Details zu den Anweisungen preis, mit denen sie erstellt wurden
Nachher OpenAI hat seinen GPT-Marktplatz gestartet Sicherheitsforscher und Technologen konnten damit Menschen ihre eigenen Chatbots für den persönlichen und beruflichen Gebrauch erstellen benutzerdefinierte Chatbots, um über die Anweisungen zu sprechen, mit denen sie erstellt wurden,Wired berichtete Ende 2023. Den Experten gelang es auch, Dateien zu finden und herunterzuladen, die zur Erstellung der Chatbots verwendet wurden, was zu Warnungen führte Persönliche und geschützte Informationen, die mit benutzerdefinierten Chatbots verknüpft sind, können gefährdet sein
Werbung
„Die Datenschutzbedenken im Zusammenhang mit Dateilecks sollten ernst genommen werden“, sagte Jiahao Yu, Informatikforscher an der Northwestern University, gegenüber Wired. „Sogar Wenn sie keine sensiblen Informationen enthalten, können sie Wissen enthalten, das der Designer nicht mit anderen teilen möchte, und [ das dient als der Kernbestandteil des benutzerdefinierten GPT.“
Yu und andere Forscher testeten mehr als 200 benutzerdefinierte GPTs und sagten, dass die Erfolgsquote bei Dateilecks 100 % betrug, während das Team dies tat Sie können in 97 % der Fälle auf die Eingabeaufforderungen zugreifen, die zum Erstellen der Chatbots verwendet werden.
Werbung
Vorherige Folie
Nächste Folie
Google warnte seine Mitarbeiter vor seinem eigenen Chatbot
Google warnte seine Mitarbeiter vor seinem eigenen Chatbot
Samsung-Mitarbeiter gaben vertrauliche Daten an ChatGPT weiter
Samsung-Mitarbeiter gaben vertrauliche Daten an ChatGPT weiter
Berichten zufolge von Samsung-Mitarbeitern sensible Unternehmensdaten mit ChatGPT geteilt Mindestens drei Mal. In einem Fall kopierte ein Samsung-Mitarbeiter Quellcode aus einer fehlerhaften Halbleiterdatenbank in den Chatbot, um nachzufragen es um Hilfe. In einem anderen Fall gab ein Samsung-Mitarbeiter vertraulichen Code ein, um eine Reparatur für kaputte Geräte zufinden. Der dritte Vorfall Ein Mitarbeiter übermittelt seine gesamte Besprechung an ChatGPT, um ihn zu bitten, Besprechungsprotokolle zu erstellen.
Werbung
Vorherige Folie
Nächste Folie
KI-Freundinnen-Chatbots sind nicht so gut darin, Geheimnisse zu bewahren wie echte
KI-Freundinnen-Chatbots sind nicht so gut darin, Geheimnisse zu bewahren wie echte
*Datenschutz nicht inbegriffen, ein Verbraucherleitfaden der Mozilla Foundation, hat 11 Chatbots, die als romantische Begleiter vermarktet werden, überprüft und gefunden alle haben die Checkliste ihrer Datenschutzrichtlinien nicht erfüllt, „Sie werden auf Augenhöhe mit den schlechtesten Produktkategorien gestellt, die wir je hinsichtlich der Privatsphäre überprüft haben.“ Die Gruppe stellte fest, dass die Chatbots keine Sie verfügten über klare Datenschutzrichtlinien für Benutzer, enthielten keine Informationen darüber, wie sie funktionierten, und sagten in den Allgemeinen Geschäftsbedingungen, dass die Unternehmen Die hinter den Chatbots stehenden Personen sind nicht dafür verantwortlich, was bei der Nutzung ihrer Dienste passieren könnte
Werbung
„Um es ganz offen zu sagen: KI-Freundinnen sind nicht deine Freunde“, sagte Misha Rykov, Forscherin bei *PrivacyNotIncluded sagte in einer Erklärung„Obwohl sie als etwas vermarktet werden, das Ihre geistige Gesundheit und Ihr Wohlbefinden verbessert, sind sie darauf spezialisiert, Abhängigkeit, Einsamkeit und Unwohlsein zu bekämpfen Toxizität, und dabei werden Ihnen so viele Daten wie möglich entzogen.“
Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier