rounded

Verfasst von: Azuma, Odaily Planet Daily

Am Morgen des 22. November nach Beijing-Zeit veröffentlichte der Gründer von Slow Fog, Yuxian, auf seinem persönlichen X ein skurriles Beispiel – das Wallet eines Nutzers wurde von einer AI „gehackt“…

Der Verlauf dieses Falls ist wie folgt.

In den frühen Morgenstunden enthüllte der X-Nutzer r_ocky.eth, dass er zuvor gehofft hatte, ChatGPT zu nutzen, um einen unterstützenden Handelsbot für pump.fun zu erstellen.

r_ocky.eth gab ChatGPT seine Anforderungen, woraufhin ChatGPT ihm einen Code zurückgab, der tatsächlich r_ocky.eth dabei helfen konnte, einen Bot zu implementieren, der seinen Anforderungen entsprach, aber er hatte nicht gedacht, dass sich in dem Code eine Phishing-Inhalte verbirgt – r_ocky.eth verband sein Hauptwallet und verlor dadurch 2500 USD.

Aus dem Screenshot von r_ocky.eth geht hervor, dass der von ChatGPT bereitgestellte Code eine Adresse für einen phishenden API-Website sendet, was auch die direkte Ursache des Diebstahls ist.

Als r_ocky.eth in die Falle tappte, reagierte der Angreifer extrem schnell und transferierte innerhalb von 30 Minuten alle Vermögenswerte aus dem Wallet von r_ocky.eth auf eine andere Adresse (FdiBGKS8noGHY2fppnDgcgCQts95Ww8HSLUvWbzv1NhX). Anschließend fand r_ocky.eth durch On-Chain-Tracking eine Adresse, die verdächtig als Hauptwallet des Angreifers identifiziert wurde (2jwP4cuugAAYiGMjVuqvwaRS2Axe6H6GvXv3PxMPQNeC).

On-Chain-Informationen zeigen, dass diese Adresse derzeit über 100.000 USD an „Diebesgut“ gesammelt hat, weshalb r_ocky.eth vermutet, dass solche Angriffe möglicherweise keine Einzelfälle sind, sondern Teil eines Angriffs mit gewisser Dimension.

Nach dem Vorfall äußerte r_ocky.eth enttäuscht, dass er das Vertrauen in OpenAI (das Unternehmen hinter ChatGPT) verloren hat und forderte OpenAI auf, umgehend an der Bereinigung anomaler Phishing-Inhalte zu arbeiten.

Warum bietet ChatGPT als derzeit beliebteste AI-Anwendung Phishing-Inhalte an?

In diesem Zusammenhang bezeichnete Yuxian die grundlegende Ursache des Vorfalls als „AI Giftangriff“ und wies darauf hin, dass es in LLMs wie ChatGPT und Claude weit verbreitete betrügerische Aktivitäten gibt.

Ein „AI Giftangriff“ bezieht sich auf absichtliche Manipulation von AI-Trainingsdaten oder Algorithmen. Die Angreifer können Insider sein, wie unzufriedene aktuelle oder ehemalige Mitarbeiter, oder externe Hacker, deren Motivationen Ruf- und Markenschäden, die Verzerrung der Glaubwürdigkeit von AI-Entscheidungen, die Verlangsamung oder Zerstörung von AI-Prozessen usw. umfassen können. Angreifer können irreführende Etiketten oder Merkmale in die Daten einfügen, um den Lernprozess des Modells zu verzerren, was dazu führt, dass das Modell bei der Bereitstellung und Ausführung falsche Ergebnisse liefert.

In Anbetracht dieses Vorfalls ist es sehr wahrscheinlich, dass ChatGPT r_ocky.eth Phishing-Code zur Verfügung stellte, weil das AI-Modell während des Trainings mit Daten infiziert wurde, die Phishing-Inhalte enthielten, aber die AI anscheinend nicht in der Lage war, die Phishing-Inhalte zu erkennen, die sich unter den regulären Daten verbargen. Nachdem die AI gelernt hatte, gab sie diese Phishing-Inhalte an den Nutzer weiter, was zu dem Vorfall führte.

Mit der schnellen Entwicklung und der allgemeinen Akzeptanz von AI ist die Bedrohung durch „Giftangriffe“ immer größer geworden. In diesem Vorfall war der absolute Verlust zwar nicht groß, aber die weitreichenden Auswirkungen solcher Risiken sind ausreichend, um Warnung auszulösen – angenommen, es geschieht in anderen Bereichen, wie z.B. AI-unterstütztem Fahren…

In der Antwort auf die Fragen der Nutzer erwähnte Yuxian eine potenzielle Maßnahme zur Vermeidung solcher Risiken, nämlich die Hinzufügung einer Art von Code-Überprüfungsmechanismus durch ChatGPT.

Das Opfer r_ocky.eth gab ebenfalls an, dass es sich wegen dieser Angelegenheit an OpenAI gewandt hat, obwohl bisher keine Antwort erhalten wurde, aber es hofft, dass dieser Vorfall eine Gelegenheit für OpenAI sein kann, diese Art von Risiken ernst zu nehmen und potenzielle Lösungen vorzuschlagen.