Titolo originale: (Non mi sarei mai aspettato che l'intelligenza artificiale mi rubasse il portafoglio)

Autore originale: Azuma, Odaily Planet Daily


La mattina del 22 novembre, ora di Pechino, il fondatore di SlowMist Yu Xian ha pubblicato un caso bizzarro sul suo X personale: il portafoglio di un utente è stato "hackerato" dall'intelligenza artificiale...



I dettagli del caso sono i seguenti.


Questa mattina presto, l'utente X r_ocky.eth ha rivelato che in precedenza aveva sperato di utilizzare ChatGPT per eseguire il porting di un bot di trading ausiliario pump.fun.


r_ocky.eth ha fornito le sue esigenze a ChatGPT e ChatGPT gli ha restituito un pezzo di codice. Questo codice potrebbe effettivamente aiutare r_ocky.eth a implementare un bot che soddisfacesse le sue esigenze, ma non si sarebbe mai aspettato che ci sarebbe stato un contenuto di phishing nascosto nel file. code. - r_ocky.eth ha collegato il suo portafoglio principale e ha perso $ 2500.



A giudicare dallo screenshot pubblicato da r_ocky.eth, il codice fornito da ChatGPT invierà la chiave privata dell'indirizzo a un sito Web API di phishing, che è anche la causa diretta del furto.


Quando r_ocky.eth è caduto nella trappola, l'aggressore ha reagito molto rapidamente, nel giro di mezz'ora ha trasferito tutti gli asset presenti nel portafoglio r_ocky.eth a un altro indirizzo (FdiBGKS8noGHY2fppnDgcgCQts95Ww8HSLUvWbzv1NhX) e poi a r_ocky.eth. L'indirizzo sospettato di essere il portafoglio principale dell'aggressore (2jwP4cuugAAYiGMjVuqvwaRS2Axe6H6GvXv3PxMPQNeC) è stato trovato tramite il tracciamento on-chain.



Le informazioni sulla catena mostrano che l'indirizzo ha raccolto più di 100.000 dollari in "denaro rubato". r_ocky.eth sospetta quindi che questo tipo di attacco potrebbe non essere un caso isolato, ma un attacco di una certa portata.


Successivamente r_ocky.eth ha espresso il proprio disappunto per aver perso la fiducia in OpenAI (società di sviluppo di ChatGPT) e ha invitato OpenAI a eliminare il prima possibile i contenuti di phishing anomali.


Quindi, essendo l'applicazione AI più popolare al momento, perché ChatGPT fornisce contenuti di phishing?


A questo proposito, Cosine ha definito la causa principale dell'incidente un "attacco di avvelenamento dell'intelligenza artificiale" e ha sottolineato che esiste un inganno diffuso nei LLM come ChatGPT e Claude.


Il cosiddetto "attacco di avvelenamento dell'IA" si riferisce al comportamento di distruzione deliberata dei dati di addestramento dell'IA o di manipolazione degli algoritmi dell'IA. L'avversario che lancia l'attacco può essere un interno, come un attuale o ex dipendente scontento, o un hacker esterno, e le sue motivazioni possono includere il causare danni alla reputazione e al marchio, manomettere la credibilità delle decisioni sull'intelligenza artificiale, rallentare o interrompere i processi di intelligenza artificiale e Di più. Un utente malintenzionato può distorcere il processo di apprendimento del modello impiantando dati con etichette o funzionalità fuorvianti, facendo sì che il modello produca risultati errati durante la distribuzione e l'esecuzione.


A giudicare da questo incidente, il motivo per cui ChatGPT ha fornito il codice phishing a r_ocky.eth è molto probabilmente perché il modello AI è stato contaminato da dati contenenti contenuti di phishing durante l'addestramento, ma l'IA sembra non essere riuscita a identificare il codice phishing nascosto sotto i dati regolari. L'intelligenza artificiale ha appreso il contenuto di phishing e quindi ha fornito il contenuto di phishing all'utente, causando l'incidente.


Con il rapido sviluppo e l’adozione diffusa dell’intelligenza artificiale, la minaccia di “attacchi avvelenanti” è diventata sempre più grande. In questo incidente, sebbene l’importo assoluto della perdita non sia elevato, l’impatto esteso di tali rischi è sufficiente per far scattare la vigilanza, supponendo che si verifichi in altri campi, come la guida assistita dall’intelligenza artificiale…



Rispondendo alle domande degli utenti della rete, Yusian ha menzionato una potenziale misura per evitare tali rischi, ovvero aggiungere una sorta di meccanismo di revisione del codice da parte di ChatGPT.


La vittima r_ocky.eth ha anche dichiarato di aver contattato OpenAI in merito a questo problema. Sebbene non abbia ancora ricevuto risposta, spera che questo caso sia un'opportunità per OpenAI di prestare attenzione a tali rischi e proporre potenziali soluzioni.


Collegamento originale


Benvenuto nella community ufficiale di Rhythm BlockBeats:

Gruppo di iscrizione a Telegram: https://t.me/theblockbeats

Gruppo di comunicazione Telegram: https://t.me/BlockBeats_App

Account Twitter ufficiale: https://twitter.com/BlockBeatsAsia