Selon Cointelegraph, à mesure que l’intelligence artificielle progresse, ses capacités sont de plus en plus utilisées à mauvais escient, certains individus exploitant la technologie pour escroquer les utilisateurs de cryptomonnaies. En réponse à cette menace croissante, les législateurs américains ont présenté un nouveau projet de loi visant à protéger les citoyens contre les deepfakes générés par l’IA.
Le 12 septembre, les députées Madeleine Dean et María Elvira Salazar ont présenté la loi Nurture Originals, Foster Art, and Keep Entertainment Safe (NO FAKES). Cette loi vise à protéger les Américains des abus de l'IA et à lutter contre la propagation de deepfakes non autorisés générés par l'IA.
Dans un communiqué de presse, les législateurs américains ont déclaré que la loi NO FAKES permettrait aux particuliers de prendre des mesures contre les acteurs malveillants qui créent, publient ou tirent profit de copies numériques non autorisées de leurs œuvres. En outre, elle protégera les plateformes médiatiques de toute responsabilité si elles suppriment des contenus offensants.
L'annonce a également affirmé que la nouvelle loi protégerait l'innovation et la liberté d'expression. Cependant, tout le monde n'est pas convaincu que ce soit le cas.
Corynne McSherry, directrice juridique de l’Electronic Frontier Foundation, une organisation à but non lucratif qui se concentre sur les droits numériques, estime que le NO FAKES Act pourrait être une « recette pour la censure privée ». En août, McSherry a écrit que le projet de loi pourrait être bénéfique pour les avocats, mais serait un « cauchemar » pour tout le monde. La juriste a déclaré que le NO FAKES Act offre moins de garanties pour la liberté d’expression légale que le Digital Millennium Copyright Act (DMCA), qui protège les contenus protégés par le droit d’auteur.
L’avocat a déclaré que le DMCA permet un simple processus de contre-avis que les gens peuvent utiliser pour obtenir la restauration de leur travail. Cependant, l’avocat a déclaré que NO FAKES exige que quelqu’un se présente au tribunal dans les 14 jours pour défendre ses droits. McSherry a expliqué : « Les puissants ont des avocats à leur service qui peuvent le faire, mais la plupart des créateurs, des militants et des journalistes citoyens n’en ont pas. » Le professionnel du droit a ajouté que si les faux IA causent de réels dommages, ces défauts « condamnent le projet de loi ».
Au deuxième trimestre 2024, la société de logiciels Gen Digital a signalé que des escrocs utilisant des deepfakes IA avaient volé au moins 5 millions de dollars en cryptomonnaies. La société de sécurité a exhorté les utilisateurs à rester vigilants, car l'IA rend les escroqueries plus sophistiquées et plus convaincantes.
Dans le même temps, CertiK, une société de sécurité Web3, estime que les attaques basées sur l'IA s'étendront au-delà de la vidéo et de l'audio et pourraient cibler les portefeuilles dotés de la reconnaissance faciale. Un porte-parole de CertiK a déclaré à Cointelegraph que les portefeuilles utilisant cette fonctionnalité doivent évaluer leur préparation aux vecteurs d'attaque de l'IA.