Yu Xian, il fondatore di Slowmist, una società di sicurezza blockchain, ha evidenziato il pericolo emergente del poisoning del codice AI. Questa tattica maligna implica l'inserimento di codice dannoso nei dati di addestramento dei modelli AI, mettendo in pericolo gli utenti che si affidano a questi strumenti per scopi tecnici. La questione è emersa a seguito di un incidente con ChatGPT di OpenAI, dove un utente ha perso $2.500 in beni digitali a causa di una raccomandazione API fraudolenta. Nonostante i sospetti, sembra che il poisoning non fosse intenzionale ma un fallimento nel rilevare i collegamenti fraudolenti nei risultati di ricerca. La registrazione del dominio dell'API fraudolenta due mesi prima suggerisce premeditazione. Scam Sniffer ha anche notato come i truffatori manipolino i dati di addestramento AI per generare output fraudolenti. Con l'uso crescente di strumenti AI come ChatGPT, gli utenti affrontano rischi maggiorati. Xian avverte della reale minaccia rappresentata dal poisoning AI, esortando a difese più forti per prevenire ulteriori perdite finanziarie e mantenere la fiducia nelle tecnologie guidate dall'AI. Leggi di più sulle notizie generate dall'AI su: https://app.chaingpt.org/news