L'avvelenamento del codice AI è una minaccia crescente in cui codice dannoso viene iniettato nei dati di addestramento dei modelli AI, ponendo rischi per gli utenti che si affidano a questi strumenti per compiti tecnici. Un recente incidente che ha coinvolto ChatGPT di OpenAI evidenzia il problema. Un trader di criptovalute ha perso $2,500 in asset digitali dopo che ChatGPT ha raccomandato un sito web API fraudolento di Solana mentre creava un bot per un generatore di memecoin.
L'API malevola ha prosciugato gli asset della vittima in 30 minuti. Il fondatore di Slowmist ha notato che il dominio dell'API fraudolenta è stato registrato due mesi fa, suggerendo che l'attacco era premeditato. Anche se ChatGPT potrebbe non essere direttamente responsabile della truffa, questo incidente dimostra come i truffatori possano inquinare i dati di addestramento dell'AI con codice dannoso.
Con l'aumento delle sfide per strumenti AI come ChatGPT, gli utenti devono essere consapevoli dei rischi associati ai modelli di linguaggio di grandi dimensioni e alle potenziali perdite finanziarie.
Fonte
<p>Il post Sicurezza Blockchain in Pericolo: Avvisi di Avvelenamento del Codice AI agli Utenti di Criptovalute è apparso per la prima volta su CoinBuzzFeed.</p>