OpenAI, développeur de ChatGPT, a soutenu un projet de loi californien visant à obliger les entreprises technologiques à étiqueter le contenu généré par l’IA. Cette décision fait suite aux inquiétudes de l’État quant à la manière dont les deepfakes pourraient affecter la confiance du public en période électorale. Le projet de loi sur la transparence de l’intelligence artificielle, AB 3211, impose que les contenus créés à l’aide de l’IA soient « filigranés ».

Le projet de loi, déjà porté par Buffy Wicks, membre de l’Assemblée de l’État de Californie, a gagné en popularité au sein de l’assemblée législative de l’État. Il a été adopté par la commission des crédits du Sénat et a reçu le soutien unanime de l’Assemblée de l’État. Alors qu’il se dirige maintenant vers un vote au Sénat, l’AB 3211 reste l’un des rares textes de loi relatifs à l’IA encore à l’étude cette année en Californie.

Les législateurs californiens proposent de nouvelles mesures de responsabilisation de l'IA

La démarche visant à faire adopter l’AB 3211 s’inscrit dans le cadre d’une tentative plus vaste de la part du législateur de réglementer l’IA en Californie. Cette année, les législateurs ont présenté 65 projets de loi touchant à différents aspects de l’intelligence artificielle. Cependant, nombre d’entre eux ont été abandonnés, ce qui fait de l’AB 3211 un projet de loi important dans le débat en cours sur le rôle que l’IA devrait jouer dans la société.

OpenAI a apporté son soutien à cette loi qui souligne l’importance de la transparence concernant le contenu généré par l’IA. Jason Kwon, directeur de la stratégie d’OpenAI, a écrit au député Wicks pour soutenir le projet de loi et a souligné que de nouvelles technologies et normes doivent être développées pour permettre aux gens de mieux comprendre d’où vient le contenu qu’ils consultent. Il a admis que des inquiétudes avaient été soulevées pendant les années de campagne électorale en raison de l’apparition de contenus créés par l’IA.

Reuters a examiné la lettre de Kwon, qui indiquait que les nouvelles technologies et normes pourraient aider les individus à identifier la source du contenu en ligne et à éviter toute confusion entre le contenu généré par l’homme et celui généré par l’IA.

Les législateurs californiens s'attaquent aux défis de la réglementation de l'IA

Si l’AB 3211 a fait quelques progrès, un autre projet de loi sur l’IA en Californie, le SB 1047, a rencontré une résistance importante de la part d’acteurs du secteur technologique tels qu’OpenAI. Selon de nombreux acteurs du secteur de l’IA, cette législation serait trop contraignante. À un niveau plus large, il s’agit d’un point de friction dans le débat plus vaste sur la manière de réglementer l’IA et montre comment les législateurs s’efforcent de trouver un équilibre entre innovation et sécurité publique.

Contrairement au projet de loi SB 1047 qui a suscité de nombreuses controverses, l’AB 3211 n’est pas non plus controversé, car il met davantage l’accent sur les questions de responsabilité et de transparence. Les projets de loi visent à résoudre l’un des problèmes les plus urgents liés à l’IA, à savoir la capacité des médias synthétiques à tromper les gens en exigeant que leur contenu soit étiqueté.

Le gouverneur Gavin Newsom devrait approuver la proposition de loi AB 3211 avant le 31 août, à la fin de la session législative. Le 30 septembre au plus tard, Newsom devra soit la signer, soit y opposer son veto. Cette législation ferait de la Californie l’un des premiers États à exiger de telles mesures de transparence concernant les contenus créés par l’IA, créant ainsi un précédent pour d’autres, suivi peut-être par une réglementation fédérale.