Selon Cointelegraph, l'Union européenne poursuit ses efforts pour façonner l'avenir de l'intelligence artificielle avec la création du premier « Code de bonnes pratiques de l'IA à usage général » dans le cadre de sa loi sur l'IA. Cette initiative, dirigée par le Bureau européen de l'IA, implique des centaines d'experts mondiaux issus du monde universitaire, de l'industrie et de la société civile pour élaborer de manière collaborative un cadre abordant des questions clés telles que la transparence, le droit d'auteur, l'évaluation des risques et la gouvernance interne.

Le processus a débuté par une séance plénière en ligne le 30 septembre, qui a réuni près de 1 000 participants. Cela marque le début d’un travail de plusieurs mois qui aboutira à une version finale d’ici avril 2025. Le Code de bonnes pratiques vise à être la pierre angulaire de l’application de la loi sur l’IA aux modèles d’IA à usage général, y compris les grands modèles linguistiques (LLM) et les systèmes d’IA utilisés dans divers secteurs.

Quatre groupes de travail, dirigés par des présidents et vice-présidents de l’industrie, ont été créés pour piloter l’élaboration du Code de bonnes pratiques. Ces groupes comprennent des experts comme Nuria Oliver, chercheuse en intelligence artificielle, et Alexander Peukert, spécialiste allemand du droit d’auteur. Ils se concentreront sur la transparence et le droit d’auteur, l’identification des risques, l’atténuation des risques techniques et la gestion interne des risques. Le Bureau européen de l’IA a déclaré que ces groupes se réuniront entre octobre 2024 et avril 2025 pour rédiger des dispositions, recueillir les contributions des parties prenantes et affiner le Code de bonnes pratiques par le biais de consultations continues.

La loi sur l’IA de l’UE, adoptée par le Parlement européen en mars 2024, est une mesure législative historique visant à réglementer la technologie de l’IA dans l’ensemble du bloc. Elle établit une approche fondée sur les risques pour la gouvernance de l’IA, en classant les systèmes en différents niveaux de risque et en imposant des mesures de conformité spécifiques. Cette loi est particulièrement pertinente pour les modèles d’IA à usage général en raison de leurs vastes applications et de leur potentiel d’impact sociétal important, les plaçant souvent dans des catégories à risque plus élevé.

Toutefois, certaines grandes entreprises d’IA, dont Meta, ont critiqué la réglementation, la jugeant trop restrictive, arguant qu’elle pourrait freiner l’innovation. En réponse, l’approche collaborative adoptée par l’UE pour rédiger le code de bonnes pratiques vise à trouver un équilibre entre sécurité et éthique tout en favorisant l’innovation. La consultation multipartite a déjà recueilli plus de 430 contributions, qui contribueront à façonner la rédaction du code.

L’UE souhaite établir un précédent en matière de développement, de déploiement et de gestion responsables de modèles d’IA à usage général d’ici avril 2025, en mettant l’accent sur la minimisation des risques et la maximisation des avantages sociétaux. À mesure que le paysage mondial de l’IA évolue, cet effort est susceptible d’influencer les politiques en la matière dans le monde entier, de plus en plus de pays se tournant vers l’UE pour obtenir des conseils sur la réglementation des technologies émergentes.