Il post Come le truffe cripto alimentate dall'IA stanno cambiando il panorama della sicurezza blockchain è apparso per primo su Coinpedia Fintech News

Il primo attacco documentato di poisoning dell'IA sul mercato delle criptovalute è apparso: un portafoglio Solana è stato avvelenato e la perdita approssimativa è di 2.500 USD. L'incidente dimostra che uno strumento di intelligenza artificiale come ChatGPT fornisce input utili per le attività di sviluppo Web3 e può promuovere l'uso di asset compromessi.

L'incidente: Sfruttamento del portafoglio Solana

Il 21 novembre 2024, un utente ha cercato di lanciare un bot di sniping di token meme specificamente per la piattaforma basata su Solana Pump. fun con l'aiuto di ChatGPT. Tuttavia, il chatbot IA ha fornito un link falso contenente un'API per i servizi Solana. Era inizialmente sviluppato dagli autori dell'API per siphonare SOL, USDC e molteplici meme coin; la backdoor ha esposto in chiaro le chiavi private del portafoglio all'estero prima di rubare i fondi all'interno.

L'attacco è riuscito a trasferire gli asset rubati direttamente a un portafoglio legato alla frode che, a sua volta, si dice abbia eseguito 281 ulteriori transazioni simili da altri portafogli compromessi. Si ritiene che l'API malevola derivi da repository di GitHub, i truffatori hanno intenzionalmente piantato trojan nei file Python prendendo di mira la semplicità degli sviluppatori.

Comprendere il poisoning dell'IA

Il poisoning dell'IA si riferisce all'atto di alimentare i modelli di IA con dati errati nel processo di addestramento dei modelli di IA. In questo caso, sembra che i repository malevoli abbiano distorto le uscite di ChatGPT, che sono destinate ad API sicure. Sebbene non ci sia stata una segnalazione diretta di integrazione fatta deliberatamente da OpenAI, l'evento in discussione rivela i pericoli che i sistemi di IA hanno e possono presentare in campi altamente specializzati come la blockchain.

Insider della sicurezza, come il fondatore di SlowMist Yu Xian, hanno descritto questo come un campanello d'allarme per gli sviluppatori. Xian ha sottolineato che l'aumento dei dati di addestramento dell'IA è ora minacciato dalla contaminazione, con i truffatori che sfruttano applicazioni popolari come ChatGPT per scalare le loro operazioni.

Misure protettive per sviluppatori e utenti

Per prevenire incidenti simili, si consiglia a sviluppatori e utenti cripto di:

  • Verificare tutto il codice e le API: Non fare affidamento solo sulle uscite generate dall'IA e svolgere audit allo stesso modo.

  • Separare i portafogli: Gli stessi portafogli dovrebbero essere usati per i test, mentre gli asset sostanziali non dovrebbero essere collegati a bot sperimentali o strumenti non verificati.

  • Monitorare l'attività blockchain: Assumere aziende affidabili che si occupano della sicurezza blockchain come SlowMist per tracciare le ultime minacce.

  • Leggi anche:

  • Upbit rimborsa 6,07 milioni di dollari a 380 vittime di truffe cripto

  • ,

Conclusione

Questo primo caso documentato di poisoning dell'IA nello spazio cripto indica la necessità di prestare maggiore attenzione. Sebbene l'uso dell'intelligenza artificiale porti grandi possibilità, utilizzare le raccomandazioni generate esclusivamente tramite IA comporta enormi nuovi rischi per gli utenti. Con lo sviluppo attuale del campo blockchain, sarà necessaria una maggiore vigilanza per proteggere sviluppatori e investitori contro queste frodi complesse.