Un nuovo disegno di legge presentato da un gruppo di senatori bipartisan cerca di combattere l’uso improprio dei deep fake dell’intelligenza artificiale (AI) imponendo la filigrana di tali contenuti.

Il disegno di legge, presentato dalla senatrice Maria Cantwell (D-WA), dalla senatrice Marsha Blackburn (R-TN) e dal senatore Martin Heinrich (D-NM), propone un metodo standardizzato per il watermarking dei contenuti generati dall'intelligenza artificiale.

Soprannominato Content Origin Protection and Integrity from Edited and Deepfaked Media Act (COPIED), rafforzerà la protezione dei creatori e stabilirà controlli sui tipi di contenuti su cui l’intelligenza artificiale può essere addestrata.

Secondo Cantwell, il disegno di legge offrirà la “trasparenza tanto necessaria” nei contenuti generati dall’intelligenza artificiale, rimettendo “ai creatori, inclusi giornalisti, artisti e musicisti locali, il controllo dei loro contenuti”.

Se approvato, il disegno di legge richiederà inoltre ai fornitori di servizi di intelligenza artificiale come OpenAI di imporre agli utenti di incorporare informazioni relative all’origine dei contenuti che generano. Inoltre, questo deve essere implementato in un modo che sia “leggibile dalla macchina” e non possa essere aggirato o rimosso utilizzando strumenti basati sull’intelligenza artificiale.

La Federal Trade Commission (FTC) supervisionerà l’applicazione della legge COPIED. L'autorità di regolamentazione tratterà le violazioni come atti ingiusti o ingannevoli, simili ad altre violazioni ai sensi della legge FTC.

Con l’introduzione dell’intelligenza artificiale, si è discusso molto sulle sue implicazioni etiche, considerando la capacità della tecnologia di raccogliere enormi volumi di dati dal web.

Potrebbe piacerti anche: L'intelligenza artificiale può aggiungere una nuova dimensione ai crimini crittografici, afferma Elliptic

Queste preoccupazioni sono diventate evidenti quando il colosso della tecnologia Microsoft si è ritirato dal prendere posto nel consiglio di amministrazione di OpenAI.

"L'intelligenza artificiale ha dato ai malintenzionati la capacità di creare deepfake di ogni individuo, compresi quelli della comunità creativa, per imitarne le sembianze senza il loro consenso e trarre profitto dai contenuti contraffatti", ha affermato il senatore Blackburn. 

La proposta di legge coincide con un aumento del 245% delle frodi e delle truffe che utilizzano contenuti Deepfake. Un rapporto di Bitget stima che le perdite derivanti da questi schemi saranno valutate a 10 miliardi di dollari entro il 2025.

Nel settore delle criptovalute, i truffatori hanno sfruttato l'intelligenza artificiale per impersonare personalità di spicco come Elon Musk e Vitalik Buterin per ingannare gli utenti.

Nel giugno 2024, un cliente dell'exchange di criptovalute OKX ha perso oltre 2 milioni di dollari dopo che gli aggressori sono riusciti a bypassare la sicurezza della piattaforma utilizzando video deepfake della vittima. Il mese prima, le autorità di Hong Kong avevano represso una piattaforma di truffa che utilizzava le sembianze di Elon Musk per fuorviare gli investitori.

Nel frattempo, il colosso tecnologico Google è stato recentemente criticato dal fondatore del National Cybersecurity Center (NCC) Michael Marcotte per le misure preventive inadeguate contro i deep fake mirati alle criptovalute.

Per saperne di più: Binance sfrutta l'intelligenza artificiale (AI) per migliorare l'educazione web3