Secondo Cointelegraph, con l'avanzare dell'intelligenza artificiale, le sue capacità vengono sempre più utilizzate in modo improprio, con alcuni individui che sfruttano la tecnologia per frodare gli utenti di criptovalute. In risposta a questa crescente minaccia, i legislatori statunitensi hanno introdotto un nuovo disegno di legge per proteggere i cittadini dai deepfake generati dall'intelligenza artificiale.

Il 12 settembre, le rappresentanti Madeleine Dean e María Elvira Salazar hanno presentato il Nurture Originals, Foster Art, and Keep Entertainment Safe (NO FAKES) Act. La legislazione mira a proteggere gli americani dall'abuso dell'intelligenza artificiale e ad affrontare la diffusione di deepfake generati dall'intelligenza artificiale non autorizzati.

In un comunicato stampa, i legislatori statunitensi hanno affermato che il NO FAKES Act darà ai singoli il potere di agire contro gli attori malintenzionati che creano, pubblicano o traggono profitto da copie digitali non autorizzate. Inoltre, proteggerà le piattaforme mediatiche da responsabilità se rimuovono materiali offensivi.

L'annuncio sosteneva anche che la nuova legge avrebbe protetto l'innovazione e la libertà di parola. Tuttavia, non tutti sono convinti che questo sia ciò che accadrà.

Corynne McSherry, direttrice legale presso l'Electronic Frontier Foundation, un'organizzazione non-profit focalizzata sui diritti digitali, ritiene che il NO FAKES Act potrebbe essere una "ricetta per la censura privata". Ad agosto, McSherry ha scritto che il disegno di legge potrebbe essere positivo per gli avvocati, ma sarebbe un "incubo" per tutti gli altri. La professionista legale ha affermato che il NO FAKES Act offre meno garanzie per la libertà di parola rispetto al Digital Millennium Copyright Act (DMCA), che protegge il materiale protetto da copyright.

L'avvocato ha affermato che il DMCA consente un semplice processo di contro-notifica che le persone possono utilizzare per ottenere il ripristino del proprio lavoro. Tuttavia, l'avvocato ha affermato che NO FAKES richiede che qualcuno si presenti in tribunale entro 14 giorni per difendere i propri diritti. McSherry ha spiegato: "I potenti hanno avvocati a disposizione che possono farlo, ma la maggior parte dei creatori, degli attivisti e dei giornalisti cittadini non lo fanno". Il professionista legale ha aggiunto che mentre i falsi AI causano danni reali, questi difetti "condannano il conto".

Nel secondo trimestre del 2024, la società di software Gen Digital ha segnalato che i truffatori che utilizzano deepfake basati sull'intelligenza artificiale hanno rubato almeno 5 milioni di dollari in criptovalute. L'azienda di sicurezza ha esortato gli utenti a rimanere vigili poiché l'intelligenza artificiale rende le truffe più sofisticate e convincenti.

Nel frattempo, la società di sicurezza Web3 CertiK ritiene che gli attacchi basati sull'intelligenza artificiale si estenderanno oltre video e audio e potrebbero colpire i wallet con riconoscimento facciale. Un portavoce di CertiK ha detto a Cointelegraph che i wallet che utilizzano questa funzionalità devono valutare la loro prontezza per i vettori di attacco dell'intelligenza artificiale.