Un nouveau projet de loi présenté par un groupe de sénateurs bipartites vise à lutter contre l'utilisation abusive des contrefaçons profondes de l'intelligence artificielle (IA) en rendant obligatoire le filigrane de ce contenu.

Le projet de loi, présenté par la sénatrice Maria Cantwell (D-WA), la sénatrice Marsha Blackburn (R-TN) et le sénateur Martin Heinrich (D-NM), propose une méthode standardisée pour filigraner le contenu généré par l'IA.

Surnommé Content Origin Protection and Integrity from Edited and Deepfaked Media Act (COPIED), il renforcera la protection des créateurs et établira des contrôles sur les types de contenu sur lesquels l’IA peut être formée.

Selon Cantwell, le projet de loi offrira la « transparence indispensable » dans le contenu généré par l’IA tout en redonnant « aux créateurs, y compris les journalistes, artistes et musiciens locaux, le contrôle de leur contenu ».

S'il est adopté, le projet de loi obligera également les fournisseurs de services d'IA comme OpenAI à obliger les utilisateurs à intégrer des informations concernant l'origine du contenu qu'ils génèrent. De plus, cela doit être mis en œuvre d’une manière « lisible par machine » et ne peut être contourné ou supprimé à l’aide d’outils basés sur l’IA.

La Federal Trade Commission (FTC) supervisera l’application de la loi COPIED. Le régulateur traitera les violations comme des actes déloyaux ou trompeurs, similaires à d'autres violations en vertu de la loi FTC.

Avec l’introduction de l’IA, de nombreux débats ont eu lieu autour de ses implications éthiques, compte tenu de la capacité de la technologie à extraire d’énormes volumes de données sur le Web.

Vous aimerez peut-être aussi : L’intelligence artificielle peut ajouter une nouvelle dimension aux crimes cryptographiques, selon Elliptic

Ces préoccupations sont devenues évidentes lorsque le géant de la technologie Microsoft a renoncé à siéger au conseil d’administration d’OpenAI.

"L'intelligence artificielle a donné aux mauvais acteurs la possibilité de créer des contrefaçons de chaque individu, y compris ceux de la communauté créative, pour imiter leur image sans leur consentement et tirer profit du contenu contrefait", a déclaré le sénateur Blackburn. 

Le projet de loi proposé coïncide avec une augmentation de 245 % des fraudes et escroqueries utilisant le contenu Deepfake. Un rapport de Bitget estime que les pertes liées à ces projets seront évaluées à 10 milliards de dollars d'ici 2025.

Dans le domaine de la cryptographie, les escrocs ont exploité l’IA pour se faire passer pour des personnalités éminentes comme Elon Musk et Vitalik Buterin afin de tromper les utilisateurs.

En juin 2024, un client de l’échange cryptographique OKX a perdu plus de 2 millions de dollars après que des attaquants ont réussi à contourner la sécurité de la plateforme à l’aide de fausses vidéos de la victime. Le mois précédent, les autorités de Hong Kong avaient réprimé une plateforme frauduleuse utilisant l’image d’Elon Musk pour tromper les investisseurs.

Pendant ce temps, le géant de la technologie Google a récemment été critiqué par le fondateur du Centre national de cybersécurité (NCC), Michael Marcotte, pour ses mesures préventives inadéquates contre les contrefaçons profondes ciblées sur la cryptographie.

Lire la suite : Binance exploite l'intelligence artificielle (IA) pour améliorer l'éducation web3