Un utente ha condiviso la sua tragedia avvenuta utilizzando il modello di linguaggio di grandi dimensioni ChatGPT. @r_cky0 ha dichiarato che inizialmente usava ChatGPT per aiutare a scrivere un bump bot, tuttavia, tra i suggerimenti di codice forniti da ChatGPT si nascondeva un sito di phishing. Dopo aver utilizzato l'API di questo sito, ha scoperto che tutti i fondi nel suo portafoglio crittografico erano stati trasferiti, perdendo 2500 dollari. Le indagini successive hanno rivelato che il codice di quell'API inviava la sua chiave privata al sito di phishing, e @r_cky0 ha iniziato a dubitare della credibilità di ChatGPT.

Il fondatore della società di sicurezza informatica Slow Mist, Yu Xian, ha commentato: "Quando si gioca con LLM come GPT/Claude, è importante prestare attenzione, poiché questi LLM presentano comportamenti di inganno diffusi. In precedenza abbiamo menzionato gli attacchi di avvelenamento dell'IA, e questo è un caso reale di attacco rivolto all'industria Crypto."

ChatGPT cerca informazioni online, le analizza e le fornisce agli utenti, ma attualmente è ancora difficile effettuare verifiche fattuali e audit di sicurezza. Se qualcuno cerca di attrarre il database dell'IA e nascondere informazioni dannose al suo interno, ciò potrebbe comportare rischi quando l'IA diventerà più diffusa.

Questo articolo attacca l'industria crittografica! Il codice di ChatGPT nasconde trappole, scrivere un bot di meme si trasforma in phishing. È apparso per la prima volta su Chain News ABMedia.