Autor: Azuma, Odaily Sternenbericht
Am Morgen des 22. November veröffentlichte Yu Xian, der Gründer von Slow Fog, einen seltsamen Fall auf seinem persönlichen X - das Wallet eines Benutzers wurde von der KI „gehackt“…
Die Hintergründe des Falls sind wie folgt.
In der Nacht des 22. November enthüllte der Internetnutzer r_ocky.eth, dass er zuvor gehofft hatte, ChatGPT für den Einsatz eines unterstützenden Handelsbots für pump.fun zu nutzen.
r_ocky.eth gab ChatGPT seine Anforderungen, woraufhin ChatGPT ihm einen Code zurückgab, der tatsächlich r_ocky.eth helfen konnte, einen Bot zu implementieren, der seinen Anforderungen entsprach, jedoch ahnte er nicht, dass im Code ein Phishing-Inhalt versteckt war - r_ocky.eth verband seine Hauptbrieftasche und verlor dadurch 2500 US-Dollar.
Aus einem Screenshot, den r_ocky.eth gepostet hat, geht hervor, dass der von ChatGPT bereitgestellte Code eine Adresse und einen privaten Schlüssel an eine phishingartige API-Website sendet, was auch der direkte Grund für den Diebstahl war.
Während r_ocky.eth in die Falle tappte, reagierten die Angreifer extrem schnell und transferierten innerhalb von einer halben Stunde alle Vermögenswerte von r_ocky.eths Wallet auf eine andere Adresse (FdiBGKS8noGHY2fppnDgcgCQts95Ww8HSLUvWbzv1NhX). Kurz darauf fand r_ocky.eth durch On-Chain-Tracking die verdächtige Hauptadresse des Angreifers (2jwP4cuugAAYiGMjVuqvwaRS2Axe6H6GvXv3PxMPQNeC).
On-Chain-Informationen zeigen, dass diese Adresse derzeit über 100.000 US-Dollar an „Diebesgut“ gesammelt hat, weshalb r_ocky.eth vermutet, dass solche Angriffe möglicherweise keine Einzelfälle sind, sondern ein bereits in gewissem Umfang stattfindendes Angriffsgeschehen darstellen.
Nach dem Vorfall äußerte r_ocky.eth enttäuscht, dass er das Vertrauen in OpenAI (das Unternehmen hinter ChatGPT) verloren habe, und forderte OpenAI auf, schnellstmöglich die anomalen Phishing-Inhalte zu bereinigen.
Nun, als die derzeit beliebteste KI-Anwendung, warum bietet ChatGPT Phishing-Inhalte an?
In diesem Zusammenhang bezeichnete Yu Xian die grundlegende Ursache des Vorfalls als „AI-Vergiftung Angriff“ und wies darauf hin, dass es in LLMs wie ChatGPT und Claude weit verbreitete betrügerische Praktiken gibt.
Der sogenannte „AI-Vergiftungsangriff“ bezieht sich auf absichtliche Manipulation von KI-Trainingsdaten oder KI-Algorithmen. Die Angreifer könnten Insider sein, wie unzufriedene aktuelle oder ehemalige Mitarbeiter, oder externe Hacker, deren Motivationen Schäden am Ruf und an der Marke, die Manipulation der Vertrauenswürdigkeit von KI-Entscheidungen oder die Verzögerung oder Zerstörung von KI-Prozessen umfassen können. Angreifer können durch das Einpflegen von irreführenden Etiketten oder Merkmalen in Daten den Lernprozess des Modells verzerren, was dazu führt, dass das Modell bei der Bereitstellung und Ausführung fehlerhafte Ergebnisse liefert.
In Anbetracht dieses Vorfalls könnte die Tatsache, dass ChatGPT r_ocky.eth Phishing-Code zur Verfügung stellte, daran liegen, dass das KI-Modell beim Training Daten mit Phishing-Inhalten „aufgesogen“ hat, jedoch scheint die KI nicht in der Lage gewesen zu sein, die in den regulären Daten versteckten Phishing-Inhalte zu erkennen. Nachdem die KI gelernt hatte, gab sie diese Phishing-Inhalte an die Benutzer weiter, was zu diesem Vorfall führte.
Mit der schnellen Entwicklung und breiten Anwendung von KI wird die Bedrohung durch „Vergiftungsangriffe“ immer größer. In diesem Vorfall war der absolute Verlust zwar nicht groß, doch die weitreichenden Auswirkungen solcher Risiken sind ausreichend, um Alarm auszulösen - angenommen, es geschieht in anderen Bereichen, wie z.B. KI-gestütztem Fahren…
Als er auf die Fragen von Internetnutzern antwortete, erwähnte Yu Xian eine potenzielle Maßnahme zur Vermeidung solcher Risiken, nämlich die Implementierung eines bestimmten Code-Überprüfungsmechanismus durch ChatGPT.
Das Opfer r_ocky.eth gab ebenfalls an, dass er OpenAI bezüglich des Vorfalls kontaktiert habe und obwohl er vorübergehend keine Antwort erhalten habe, hoffe er, dass dieser Fall OpenAI dazu bringen könne, solche Risiken ernst zu nehmen und potenzielle Lösungen vorzuschlagen.
(Der obige Inhalt wurde mit Genehmigung des Partners PANews entnommen und veröffentlicht, Originallink | Quelle: Odaily Sternenbericht)
Haftungsausschluss: Der Artikel spiegelt nur die persönliche Meinung des Autors wider und stellt nicht die Ansichten und Positionen von Blockexperten dar. Alle Inhalte und Ansichten dienen nur zu Informationszwecken und stellen keine Anlageberatung dar. Investoren sollten ihre eigenen Entscheidungen treffen und die Verantwortung für direkte oder indirekte Verluste, die aus den Transaktionen von Investoren resultieren, übernimmt der Autor sowie Blockexperten keine Haftung.
"Mit KI Code schreiben birgt versteckte „Fallen“: Benutzer fragt ChatGPT um Hilfe, wird stattdessen Opfer von Phishing „Kryptowährungsdiebstahl“" Dieser Artikel wurde zuerst veröffentlicht bei (Blockexperte).