Selon Cointelegraph, le monde a fait un pas important vers l’unification de ses objectifs et de ses valeurs liées à l’intelligence artificielle (IA) après une réunion des dirigeants mondiaux pour signer la convention sur l’IA du Conseil de l’Europe. Les États-Unis, l’Union européenne et le Royaume-Uni devraient signer la convention le 5 septembre. La convention met l’accent sur les droits de l’homme et les valeurs démocratiques comme éléments essentiels de la réglementation des modèles d’IA des secteurs public et privé.

La convention sur l’IA serait le premier traité international au monde sur l’IA à être juridiquement contraignant pour ses signataires, les tenant responsables de tout préjudice ou discrimination résultant des systèmes d’IA. Elle impose que les résultats de l’IA respectent les droits à l’égalité et à la vie privée des citoyens, et fournit des ressources juridiques aux victimes de violations des droits de l’IA. Cependant, son application repose actuellement sur une surveillance, sans amendes ni autres mesures de renforcement conséquentes en place pour l’instant. Le ministre britannique de la science, de l’innovation et de la technologie, Peter Kyle, a décrit la signature du traité comme une première étape « importante » à l’échelle mondiale, soulignant la diversité des nations impliquées dans sa création.

Le traité a été initialement rédigé il y a deux ans avec les contributions de plus de 50 pays, dont le Canada, Israël, le Japon et l’Australie. Bien qu’il s’agisse peut-être du premier exemple d’un traité international sur l’IA, les pays envisagent activement de mettre en œuvre des réglementations plus localisées en la matière. Au cours de l’été, l’UE est devenue la première région à mettre en œuvre des règles complètes régissant le développement et le déploiement de modèles d’IA, en particulier ceux de haut niveau dotés d’une puissance de calcul importante. La loi européenne sur l’IA, entrée en vigueur le 1er août, a introduit des réglementations importantes pour l’IA par le biais d’une mise en œuvre progressive et d’obligations de conformité clés. Cependant, certains développeurs affirment que ces réglementations freinent l’innovation dans la région, comme l’a montré Meta qui a interrompu le déploiement de ses derniers produits dans l’UE.

Aux États-Unis, le Congrès n’a pas encore mis en place de cadre national de régulation de l’IA, mais l’administration Biden a créé des comités et des groupes de travail pour la sécurité de l’IA. Dans le même temps, les législateurs californiens ont activement rédigé et adopté des réglementations sur l’IA. Récemment, deux projets de loi ont été adoptés par l’Assemblée de l’État et attendent une décision finale du gouverneur Gavin Newsom. Le premier projet de loi réglemente et pénalise la création de répliques numériques non autorisées de personnalités décédées générées par l’IA. Le second, très controversé, impose des tests de sécurité pour les modèles d’IA avancés et exige des contours pour un « coupe-circuit » pour ces modèles. La réglementation californienne sur l’IA est importante car elle abrite les sièges sociaux de développeurs de premier plan comme OpenAI, Meta et Alphabet (Google).