HackGPT

Böswillige Cyber-Angreifer haben die KI in ihren Händen. Was passiert als nächstes?
HackGPT
Photo: Dado Ruvic (Reuters)
Für die Links auf dieser Seite können wir eine Provision verdienen.

Hallo, Quartz Mitglieder,

Niemand hat erklärt, woher die Namen kommen, aber sie sind großartig: Charcoal Typhoon, Salmon Typhoon, Crimson Sandstorm, Emerald Sleet und Wald Blizzard.

Auch wenn sie exotische Wetterphänomene mögen, sind sie es tatsächlich staatsnah bösartig Nutzer der Dienste von OpenAI. Der technische Begriff für sie, in OpenAIs Erklärung von Anfang dieser Woche ist ein „Bedrohungsakteure“. Alle ihre Konten sind inzwischen deaktiviert worden – aber nicht,bevor Cybersicherheitsexperten Maßnahmen ergriffen haben darüber, wer sie waren und welchen Schaden sie anrichten wollten. (Mehr dazu weiter unten.)

Die Natur dieser Bedrohungsakteure ist nicht unbekannt. Vielleicht erinnern Sie sich an sie aus verschiedenen Prequels: Russische Cyber-Interferenz bei den US-Wahlen 2016, zum Beispiel, oder die Ransomware-Angriffe im Iran im Jahr 2021. Aber ihre Fähigkeiten sind inzwischendurch die Art von großen Sprachmodellen (LLMs) und generative künstliche Intelligenz tools der Unternehmen erheblich verbessert wie OpenAI build.

Cybersicherheitsexperten haben bereits einige Möglichkeiten visualisiert, wie Hacker und böswillige Akteure von LLMs profitieren. Die Datenmengen, die ein KI-Modell bilden scannensind exponentiell größer als alles, was ein Mensch oder ein Softwareprogramm zweiter Ordnung leisten kann. „KI-Algorithmen können trainiert werden, um polymorphe Elemente zu erzeugen „Malware, die ihren Code ständig verändert, was es für Antivirensoftware schwierig macht, sie zu erkennen und zu blockieren“, sagt Amani Ibrahim, Experte für Cybersicherheit schrieb auf LinkedIn letzten September.“[A]dversarielle Angriffe können Sicherheitsmaßnahmen wie wie Intrusion-Detection-Systeme oder Malware-Scanner umgehen, indem böswillige Eingaben generiert werden sind von legitimen nicht zu unterscheiden.“

Es ist, als würde sie in die Zukunft blicken, denn genau das taten Salmon Typhoon und die vier anderen Entitäten in ihrem Missbrauch von OpenAI.


Der ganze Unfug

Was wollten diese meteorologischen Bedrohungsakteure erreichen?

🌲 Wald Blizzard ist ein russischer Akteur des Militärgeheimdienstes, der im Verlauf des Ukraine-Krieges Verteidigungs-, Regierungs-, gemeinnützige Organisationen und IT-Organisationen ins Visier genommen hat nutzte LLMs, um Dateien zu manipulieren und seine technischen Abläufe zu optimieren, aber auch, um mehr über Satellitenfähigkeiten und Radartechnologien herauszufinden

🐠 Lachstaifun, ein chinesischer Bedrohungsakteur setzt Malware ein, die ihm Fernzugriff auf kompromittierte Systeme gibt. Es verwendete LLMs zum „Übersetzen technischer Dokumente und zumAbrufen Öffentlich zugängliche Informationen über mehrere Geheimdienste und regionale Bedrohungsakteure, Unterstützung bei der Codierung und Recherche nach gemeinsamen Methoden, mit denen Prozesse ausgeblendet werden könnten ein System“, OpenAI sagte.

◼️ Holzkohle-Taifun, ein weiterer chinesischer Schauspieler, nutzte OpenAI-Dienste für Recherche und Code-Debugging und um Inhalte zur Verwendung in Phishing-Kampagnen zu erstellen.

🌧️ Smaragdgrüner Schneeregen ist ein nordkoreanisches Unternehmen, das Phishing-E-Mails an prominente Experten zu Nordkorea versendet mit der Absicht ,Informationen zu kompromittieren oder zu sammeln von ihnen. Es nutzte OpenAI-LLMs, um solche Experten zu identifizieren und Inhalte für seine Phishing-Expeditionen zu entwerfen

🟥 Purpurner Sandsturm, ein iranisches Unternehmen, das mit dem Korps der Islamischen in welcher Malware unentdeckt bleiben könnte.


EINE GROSSE NUMMER

300: Die Anzahl der einzigartigen Bedrohungsakteure , die Microsoft Threat Intelligence Tracks.Dazu gehören 160 nationalstaatliche Akteure und 50 Ransomware-Gruppen


DIE WAFFE GEHT AB

Vielleicht werden wir eines Tages auf die Enthüllungen dieser Woche über Taifune, Sandstürme, Schneeregen und Schneestürme zurückblicken und sie als so etwas wie den Startschuss betrachten : der Beginn eines KI-Wettrüstens. Da Cyber-Angreifer komplexe KI-Modelle kooptieren, müssen Unternehmen wie OpenAI mehr bauen Komplexe Modelle müssen sich erst noch durchsetzen – was wiederum Cyber-Angreifer dazu veranlasst, diese zu kooptieren ... Sie verstehen schon, was passiert

Dies ist natürlich ein hervorragendes Geschäft für die Unternehmen selbst. Da sie auch Lösungen für diese Cybersicherheitsprobleme entwickeln werden, werden sie dies auch tun Plötzlich sind sie im Geschäft, die Krankheit und sozusagen die Heilung zur Verfügung. Und das sogar vor LLMs wurden von böswilligen Akteuren auf eine wirklich originelle Art und Weise genutzt. Genau jetzt, wie Joseph Thacker, ein KI-Ingenieur, sagte Cybersicherheits-News-Website Dark ReadingHacker nutzen KI lediglich, um ihre Verarbeitung zu beschleunigen und ihren Umfang zu erweitern

„Wenn ein Bedrohungsakteur einen neuartigen Anwendungsfall findet, kann dieser immer noch getarnt sein und von diesen Unternehmen noch nicht entdeckt werden „Es ist nicht unmöglich“, sagte Thacker. „Ich habe völlig autonome KI-Agenten gesehen, die echte Schwachstellen „hacken“ und finden können Wenn schlechte Schauspieler etwas Ähnliches entwickelt hätten, wäre das gefährlich.“

OpenAI sagte in seiner Erklärung, dass sein GPT-4-Modell derzeit nur „begrenzte, inkrementelle Fähigkeiten für schädliche Cybersicherheitsaufgaben bietet, die darüber hinausgehen“. ist bereits mit öffentlich verfügbaren, nicht KI-gestützten Tools erreichbar.“ Der offensichtliche Punkt blieb unausgesprochen. Dann wird es ein GPT-5 geben ein GPT-6, und darüber hinaus.Irgendwann wird Thacker ohne Zweifel auf seinen wirklich neuartigen Anwendungsfall für einen KI-gesteuerten Cyberangriff stoßen.


EINE 💻 Sache

Was KI mit einer Hand wegnimmt, gibt sie mit der anderen wieder. Chinesische Hacker haben versucht, sich in den amerikanischen Transport und die Infrastruktur einzudringen Netzwerke auf heimliche Weise – und KI hat US-Geheimdienstermittlern dabei geholfen, diese Angriffe zu verfolgen. Diese digitalen Einbrüche, sagte ein Beamter im Januar, würden andernfalls passieren Für einen Menschen war es zu schwierig, sie zu erkennen. Ihr besonderer Modus besteht darin, sie als „normalen“ Datenverkehr in den Zielnetzwerken weiterzugeben. Aber sie hinterlassen trotzdem Muster. Und wenn es eine Sache gibt, die KI-Werkzeuge gut können, dann ist es das Erkennen von Mustern; es ist das Herzstück davon, wie LLMs lernen und wozu sie ausgebildet sind. Aber solche KI-gestützten Cybersicherheitstools sind teuer und teuer Experten sind besorgt dass einige Unternehmen und Regierungen sie sich nicht finanzieren können, andere schon und dass es eine neue „KI-Armutsgrenze“ schafft .


Vielen Dank fürs Lesen! Und zögern Sie nicht, uns mit Kommentaren, Fragen oder Themen zu kontaktieren, über die Sie mehr erfahren möchten.

Habt ein Wochenende frei von Bosheit,

— Samanth Subramanian, Weekend Brief Redakteurin

Dieser Inhalt wurde maschinell aus dem Originalmaterial übersetzt. Aufgrund der Nuancen der automatisierten Übersetzung können geringfügige Unterschiede bestehen. Für die Originalversion klicken Sie hier

Werbung

Werbung