L’Union européenne (UE) mène la course à la réglementation de l’intelligence artificielle (IA). Plus tôt dans la journée, le Conseil européen et le Parlement européen ont conclu trois jours de négociations par un accord provisoire qui deviendra le premier accord global au monde sur la réglementation de l'intelligence artificielle.

Carme Artigas, secrétaire d’État espagnole à la numérisation et à l’intelligence artificielle, a qualifié cet accord de « réalisation historique » dans un communiqué de presse. Artigas a déclaré que les règles établissaient un « équilibre extrêmement délicat » entre encourager l'innovation et l'adoption sûres et sécurisées de l'IA dans l'UE et protéger les « droits fondamentaux » des citoyens.

Ce projet de loi, la loi sur l'intelligence artificielle, a été proposé pour la première fois par la Commission européenne en avril 2021. Le Parlement et les États membres de l’UE voteront pour approuver le projet de loi l’année prochaine, mais les règles n’entreront en vigueur qu’en 2025.

Une approche basée sur les risques pour la réglementation de l’IA

La loi sur l’intelligence artificielle est conçue selon une approche basée sur le risque : plus le risque posé par un système d’IA est élevé, plus les règles sont strictes. Pour atteindre cet objectif, le règlement classera les intelligences artificielles afin d'identifier celles qui présentent un « risque élevé ».

Les institutions agréées jugées non menaçantes et à faible risque seront soumises à des « obligations de transparence très légères ». Par exemple, ces systèmes d’IA seraient tenus de divulguer que leur contenu a été généré par l’IA afin que les utilisateurs puissent prendre des décisions éclairées.

Pour les établissements accrédités à haut risque, la législation ajoutera un certain nombre d'obligations et d'exigences, notamment :

Surveillance humaine : le projet de loi nécessite une approche centrée sur l'humain qui met l'accent sur des mécanismes de surveillance humaine clairs et efficaces pour les systèmes d'IA à haut risque. Cela signifie impliquer des humains pour surveiller et superviser activement le fonctionnement des systèmes d’IA. Leur rôle consiste notamment à garantir que le système fonctionne comme prévu, à identifier et à traiter les dangers potentiels ou les conséquences imprévues et, en fin de compte, à assumer la responsabilité de ses décisions et actions.

Transparence et explicabilité : il est essentiel de démystifier le fonctionnement interne des systèmes d’IA à enjeux élevés pour instaurer la confiance et garantir la responsabilité. Les développeurs doivent fournir des informations claires et accessibles sur la manière dont leurs systèmes prennent des décisions. Cela inclut des détails sur l'algorithme sous-jacent, les données d'entraînement et les biais potentiels susceptibles d'affecter les résultats du système.

Gouvernance des données : la loi sur l'IA met l'accent sur des pratiques responsables en matière de données et vise à prévenir la discrimination, les préjugés et les violations de la vie privée. Les développeurs doivent s’assurer que les données utilisées pour former et exploiter les systèmes d’IA à enjeux élevés sont exactes, complètes et représentatives. Le principe de minimisation des données est essentiel, car il collecte uniquement les informations nécessaires au fonctionnement du système et minimise le risque d'utilisation abusive ou de destruction. De plus, les individus doivent disposer de droits clairs pour accéder, corriger et supprimer les données utilisées dans les systèmes d’IA, leur permettant de contrôler leurs informations et de garantir leur utilisation éthique.

Gestion des risques : l’identification et l’atténuation proactives des risques seront une exigence clé pour l’IA à haut risque. Les développeurs doivent mettre en œuvre un cadre de gestion des risques solide qui évalue systématiquement les systèmes pour détecter les dangers potentiels, les vulnérabilités et les conséquences imprévues.

Interdire certaines utilisations de l’intelligence artificielle

La réglementation interdirait carrément l’utilisation de certains systèmes d’IA dont les risques sont jugés « inacceptables ». Par exemple, l’utilisation de l’IA à reconnaissance faciale sera interdite dans les espaces publics, sauf pour les forces de l’ordre.

La réglementation interdit également à l’IA de manipuler le comportement humain, d’utiliser des systèmes de notation sociale ou d’exploiter des groupes vulnérables. En outre, la législation interdirait l'utilisation de systèmes de reconnaissance des émotions dans des domaines tels que les écoles et les bureaux, ainsi que la capture d'images à partir de séquences de surveillance et d'Internet.

Pénalités et réglementations pour attirer l’innovation

La loi sur l’intelligence artificielle imposera également des sanctions aux entreprises qui enfreignent la loi. Par exemple, les violations des lois interdisant les applications d'intelligence artificielle entraîneront une amende de 7 % du chiffre d'affaires mondial d'une entreprise, tandis que les entreprises qui enfreignent les obligations et exigences se verront infliger une amende de 3 % de leur chiffre d'affaires mondial.

Pour promouvoir l’innovation, le règlement permettra de tester des systèmes d’IA innovants dans des conditions réelles avec des garanties appropriées.

Alors que l’UE est déjà en tête de la course, les États-Unis, le Royaume-Uni et le Japon tentent également d’introduire leur propre législation sur l’IA. Le projet de loi de l’UE sur l’IA pourrait servir de norme mondiale pour les pays cherchant à réglementer l’IA. #欧盟 #人工智能