Un recente rapporto della società di intelligence blockchain Elliptic intitolato "Criminalità abilitata all'intelligenza artificiale nell'ecosistema delle criptovalute" ha fatto luce sulle minacce emergenti poste dall'intelligenza artificiale (AI) nella criminalità legata alle criptovalute.

Il rapporto, supportato da casi di studio, identifica cinque tipi emergenti di crimini basati sull’intelligenza artificiale, che vanno dalle truffe deepfake agli attacchi informatici sponsorizzati dallo stato, sottolineando che queste minacce sono ancora agli inizi.

Truffe AI Deepfake

L’intelligenza artificiale, pur avendo il potenziale per trasformare in modo significativo l’economia globale, comporta anche dei rischi. Secondo Elliptic, gli autori delle minacce stanno già sfruttando l’intelligenza artificiale per attività illecite all’interno dell’ecosistema delle criptovalute.

Uno dei risultati del rapporto è l’uso dell’intelligenza artificiale per creare deepfake. Questi video e immagini altamente realistici vengono utilizzati dai truffatori per impersonare individui di alto profilo come celebrità, politici e leader del settore per legittimare progetti falsi.

"Gli omaggi di criptovalute e le truffe raddoppiate utilizzano sempre più spesso video deepfake di CEO e celebrità cripto per incoraggiare le vittime a inviare fondi per truffare indirizzi crittografici."

I casi specifici menzionati nel rapporto includono deepfake che prendono di mira Ripple (XRP) e il suo CEO, Brad Garlinghouse, in particolare dopo la vittoria legale della società contro la SEC statunitense nel luglio 2023.

Altri individui che sono stati presi di mira da truffe deepfake includono Elon Musk, l'ex primo ministro di Singapore Lee Hsien Loong e il settimo e l'ottavo presidente di Taiwan, Tsai Ing-wen e Lai Ching-te.

Anche Anne Neuberger, vice consigliere per la sicurezza nazionale degli Stati Uniti per le tecnologie informatiche e emergenti, ha affrontato le crescenti preoccupazioni sull’uso improprio dell’intelligenza artificiale. Ha sottolineato che l’intelligenza artificiale viene utilizzata non solo per le truffe quotidiane ma anche per attività criminali più sofisticate.

"Alcuni nordcoreani e altri stati-nazione e attori criminali sono stati osservati mentre cercavano di utilizzare modelli di intelligenza artificiale per accelerare la creazione di software dannoso e identificare sistemi vulnerabili", ha affermato Neuberger.

Token GPT e attività sul Dark Web

L’entusiasmo attorno all’intelligenza artificiale ha dato origine anche alla creazione di token a tema GPT, spesso promossi con promesse di rendimenti elevati. Elliptic avverte che, sebbene alcuni di essi possano essere legittimi, molti vengono promossi nei forum di trading amatoriale con false affermazioni di associazioni ufficiali con società di intelligenza artificiale come ChatGPT.

Il rapporto rivela anche discussioni nei forum del dark web sull'utilizzo di modelli di intelligenza artificiale per decodificare le frasi seed dei portafogli crittografici e bypassare l'autenticazione per vari servizi.

"In numerosi forum di criminalità informatica sul dark web, Elliptic ha identificato chiacchiere che esplorano l'uso di LLM per decodificare le frasi seed dei portafogli crittografici, aggirando l'autenticazione per servizi come OnlyFans e fornendo alternative ai servizi di manipolazione di immagini "spogliate" come DeepNude."

Elliptic afferma inoltre che la maggior parte delle minacce legate all'intelligenza artificiale nel settore delle criptovalute sono ancora nelle fasi iniziali, sottolineando l'importanza di essere vigili e adottare misure proattive per affrontare queste forme di sviluppo di criptocriminalità.

Il post L'ellittica avverte che il crimine crittografico guidato dall'intelligenza artificiale è solo all'inizio: il rapporto è apparso per la prima volta su CryptoPotato.