Verfasser: Azuma, Odaily Planet Daily
Am 22. November um 11 Uhr nach Peking-Zeit veröffentlichte der Gründer von Slow Fog, Yu Xian, auf seinem persönlichen X einen merkwürdigen Fall - das Wallet eines Nutzers wurde von einer KI „gehackt“...
Der Verlauf dieses Vorfalls ist wie folgt.
Heute früh gab der X-Nutzer r_ocky.eth bekannt, dass er zuvor gehofft hatte, ChatGPT zu nutzen, um einen pump.fun Handelsbot zu erstellen.
r_ocky.eth gab ChatGPT seine Anforderungen, und ChatGPT gab ihm einen Code zurück, der tatsächlich r_ocky.eth helfen konnte, einen Bot nach seinen Bedürfnissen zu implementieren, aber er hätte nie gedacht, dass im Code ein Phishing-Inhalt versteckt sein würde - r_ocky.eth verband sein Haupt-Wallet und verlor dadurch 2500 Dollar.
Laut dem Screenshot, den r_ocky.eth gepostet hat, sendet der von ChatGPT bereitgestellte Code die private Schlüsseladresse an eine Phishing-API-Website, was auch die direkte Ursache des Diebstahls ist.
Als r_ocky.eth in die Falle trat, reagierten die Angreifer äußerst schnell und transferierten innerhalb von einer halben Stunde alle Vermögenswerte aus dem Wallet von r_ocky.eth an eine andere Adresse (FdiBGKS8noGHY2fppnDgcgCQts95Ww8HSLUvWbzv1NhX), und r_ocky.eth fand sofort durch On-Chain-Tracking die Adresse, die vermutlich das Haupt-Wallet des Angreifers war (2jwP4cuugAAYiGMjVuqvwaRS2Axe6H6GvXv3PxMPQNeC).
On-Chain-Informationen zeigen, dass diese Adresse derzeit über 100.000 Dollar „Schmuggelware“ gesammelt hat, r_ocky.eth vermutet daher, dass solche Angriffe möglicherweise keine Einzelfälle sind, sondern ein bereits im Gange befindliches Angriffsszenario darstellen.
Nach dem Vorfall äußerte r_ocky.eth enttäuscht, dass er das Vertrauen in OpenAI (das Unternehmen hinter ChatGPT) verloren hat, und forderte OpenAI auf, unverzüglich die anomalen Phishing-Inhalte zu bereinigen.
Warum bietet ChatGPT als derzeit beliebteste KI-Anwendung Phishing-Inhalte an?
In Bezug darauf hat Yu Xian die Grundursache dieses Vorfalls als „KI-Poisoning-Angriff“ eingestuft und darauf hingewiesen, dass es in LLMs wie ChatGPT und Claude weit verbreitete betrügerische Aktivitäten gibt.
Ein „KI-Poisoning-Angriff“ bezieht sich auf absichtliche Manipulation von KI-Trainingsdaten oder Algorithmen. Die Angreifer könnten interne Personen sein, wie unzufriedene aktuelle oder ehemalige Mitarbeiter, oder externe Hacker, deren Motivationen möglicherweise Folgeschäden an Ruf und Marke, die Beeinflussung der Glaubwürdigkeit von KI-Entscheidungen oder die Verlangsamung oder Zerstörung von KI-Prozessen umfassen. Die Angreifer können durch das Einpflegen von irreführenden Labels oder Merkmalen in die Daten den Lernprozess des Modells verzerren, was dazu führen kann, dass das Modell bei der Bereitstellung und Ausführung fehlerhafte Ergebnisse liefert.
In Anbetracht dieses Vorfalls ist es sehr wahrscheinlich, dass ChatGPT r_ocky.eth Phishing-Code zur Verfügung stellte, weil das KI-Modell während des Trainings von Daten mit Phishing-Inhalten infiziert wurde, aber die KI scheint den Phishing-Inhalt, der unter regulären Daten verborgen war, nicht erkannt zu haben und gab diesen Phishing-Inhalt nach dem Lernen an die Nutzer weiter, wodurch dieser Vorfall verursacht wurde.
Mit der schnellen Entwicklung und allgemeinen Akzeptanz von KI hat die Bedrohung durch „Poisoning-Angriffe“ zugenommen. In diesem Vorfall war der absolute Verlust zwar nicht groß, aber die weitreichenden Auswirkungen solcher Risiken sind ausreichend alarmierend - man stelle sich vor, es tritt in anderen Bereichen auf, wie z.B. bei KI-gestütztem Fahren...
Bei der Beantwortung von Fragen von Internetnutzern erwähnte Yu Xian eine potenzielle Maßnahme zur Vermeidung solcher Risiken, nämlich dass ChatGPT eine Art Code-Überprüfungsmechanismus hinzufügen sollte.
Das Opfer r_ocky.eth gab ebenfalls an, dass es in dieser Angelegenheit Kontakt mit OpenAI aufgenommen hat, obwohl es vorerst keine Antwort erhalten hat, hofft es, dass dieser Vorfall OpenAI dazu anregen kann, solche Risiken ernst zu nehmen und potenzielle Lösungen vorzuschlagen.