Original | Odaily Planet Daily(@OdailyChina)
Autor|Azuma(@azuma_eth)
Am 22. November um 11 Uhr Beijing-Zeit veröffentlichte der Gründer von Slow Mist, Yu Xian, in seinem persönlichen X einen seltsamen Fall – die Wallet eines Nutzers wurde von einer KI „gehackt“...
Die Hintergründe des Vorfalls sind wie folgt.
In der frühen Morgenstunde enthüllte der X-Nutzer r_ocky.eth, dass er zuvor versucht hatte, mit ChatGPT einen pump.fun Trading-Bot zu erstellen.
r_ocky.eth gab ChatGPT seine Anforderungen, und ChatGPT gab ihm einen Code zurück. Dieser Code kann r_ocky.eth tatsächlich helfen, einen Bot gemäß seinen Anforderungen zu implementieren, aber er hätte niemals gedacht, dass im Code ein Phishing-Inhalt versteckt ist – r_ocky.eth verknüpfte seine Haupt-Wallet und verlor dadurch 2500 Dollar.
Laut dem von r_ocky.eth geposteten Screenshot sendete der von ChatGPT bereitgestellte Code die Adressenschlüssel an eine Phishing-API-Website, was die direkte Ursache des Diebstahls war.
In der Falle von r_ocky.eth geriet der Angreifer sehr schnell in eine Falle und transferierte innerhalb einer halben Stunde alle Vermögenswerte aus dem r_ocky.eth Wallet zu einer anderen Adresse (FdiBGKS8noGHY2fppnDgcgCQts95Ww8HSLUvWbzv1NhX). Sofort fand r_ocky.eth durch On-Chain-Tracking eine Adresse, die vermutlich die Haupt-Wallet des Angreifers ist (2jwP4cuugAAYiGMjVuqvwaRS2Axe6H6GvXv3PxMPQNeC).
On-Chain-Informationen zeigen, dass die Adresse derzeit über 100.000 Dollar „Diebesgut“ gesammelt hat. r_ocky.eth befürchtet daher, dass solche Angriffe möglicherweise kein Einzelfall sind, sondern ein Vorfall von gewissem Umfang.
Nach dem Vorfall äußerte r_ocky.eth enttäuscht, dass er das Vertrauen in OpenAI (das Unternehmen, das ChatGPT entwickelt hat) verloren hat, und forderte OpenAI auf, schnell abnormalen Phishing-Inhalt zu bereinigen.
Warum bietet die derzeit beliebteste KI-Anwendung, ChatGPT, Phishing-Inhalte an?
In diesem Zusammenhang bezeichnete Yu Xian die grundlegende Ursache des Vorfalls als „AI Poisoning Attack“ und wies darauf hin, dass es in LLMs wie ChatGPT und Claude weit verbreitete betrügerische Aktivitäten gibt.
Die sogenannte „AI Poisoning Attack“ bezieht sich auf absichtliche Zerstörung von KI-Trainingsdaten oder Manipulation von KI-Algorithmen. Die Angreifer könnten Insider sein, wie unzufriedene aktuelle oder ehemalige Mitarbeiter, oder externe Hacker, deren Motive möglicherweise den Ruf und die Marke schädigen, die Glaubwürdigkeit der KI-Entscheidungen manipulieren, den KI-Prozess verlangsamen oder stören usw. Angreifer können den Lernprozess des Modells verzerren, indem sie irreführende Labels oder Merkmale in die Daten einfügen, was zu falschen Ergebnissen bei der Bereitstellung und Ausführung des Modells führt.
In Anbetracht dieses Vorfalls ist es sehr wahrscheinlich, dass ChatGPT r_ocky.eth Phishing-Code zur Verfügung stellte, weil das KI-Modell während des Trainings mit Materialien infiziert wurde, die Phishing-Inhalte enthielten. Die KI scheint jedoch nicht in der Lage gewesen zu sein, die versteckten Phishing-Inhalte unter den regulären Materialien zu erkennen, und nachdem die KI gelernt hatte, gab sie diese Phishing-Inhalte an die Benutzer weiter, was zu diesem Vorfall führte.
Mit der schnellen Entwicklung und allgemeinen Akzeptanz von KI wird die Bedrohung durch „Poisoning Attacks“ immer größer. In diesem Vorfall ist der absolute Verlust zwar nicht groß, aber die weitreichenden Auswirkungen solcher Risiken sind ausreichend, um Alarm zu schlagen – angenommen, es geschieht in anderen Bereichen, wie z.B. KI-unterstütztem Fahren...
In einer Antwort auf eine Frage eines Nutzers erwähnte Yu Xian eine potenzielle Maßnahme zur Vermeidung solcher Risiken, nämlich dass ChatGPT eine Art Code-Überprüfungsmechanismus hinzufügen sollte.
Das Opfer r_ocky.eth gab ebenfalls an, dass es sich in dieser Angelegenheit an OpenAI gewandt hat. Obwohl vorübergehend keine Antwort eingegangen ist, hofft man, dass dieser Fall OpenAI dazu bringt, solche Risiken ernst zu nehmen und potenzielle Lösungen vorzuschlagen.