L’Union européenne a publié le texte final de la loi sur l’intelligence artificielle, définissant les délais critiques pour se conformer au premier règlement complet sur l’IA au monde. Après l'approbation du Conseil de l'UE en mai, la législation entrera en vigueur le 1er août 2024.

La loi sur l’IA vise à prévenir les menaces que l’IA « à haut risque » fait peser sur la démocratie, les droits de l’homme, l’environnement et l’État de droit. Cependant, les entreprises chinoises prévoient de consacrer plus de temps et d’argent pour se conformer aux nouvelles réglementations en matière d’IA. Partick Tu, co-fondateur et PDG de Dayta AI, basé à Hong Kong, prévoit que les coûts de son entreprise augmenteront de 20 à 40 %.

L’UE impose des bacs à sable réglementaires pour l’IA

La loi exige que les développeurs d’IA basés dans l’UE mettent en œuvre ses dispositions d’ici le 2 août 2026. Chaque État membre de l’UE doit satisfaire à cette exigence d’ici cette date, et chacun doit créer au moins un bac à sable réglementaire sur l’IA au niveau national. Ces bacs à sable permettront aux développeurs de tester les systèmes d'IA dans le cadre juridique défini afin qu'ils n'entravent pas le développement de la technologie. 

Les développeurs, fournisseurs et utilisateurs de biométrie sont tenus de respecter la nouvelle date limite du 2 février 2025. Cette date limite interdit l'utilisation d'applications d'IA à « risque inacceptable », telles que le tri biométrique sur la base de traits sensibles, la reconnaissance des émotions dans les environnements de travail et établissements d'enseignement et grattage massif d'images faciales pour les bases de données de reconnaissance faciale. Il existe toutefois des exemptions dans le cas de la police sous certaines conditions. 

Lisez aussi : Le CTO de Microsoft défend les lois sur la mise à l'échelle de l'IA

Avant le 2 mai 2025, l’AI Office nouvellement créé aurait dû publier des codes de bonnes pratiques à l’intention des fournisseurs d’IA. Les codes suivants illustreront la manière dont les fournisseurs peuvent prouver leur conformité à la loi. Les systèmes d'IA à usage général, y compris ChatGPT, devront respecter les normes de droit d'auteur et de transparence à partir d'août 2025. 

En outre, les développeurs de systèmes d’IA à haut risque ont jusqu’au 27 août 2027, un an après l’entrée en vigueur de la loi sur l’IA, pour satisfaire aux exigences supplémentaires énoncées à l’annexe I de la loi sur l’IA. Des applications d’IA à haut risque telles que l’identification biométrique à distance sont autorisées sur le marché de l’UE, à condition que les conditions suivantes soient remplies. 

La loi impose de lourdes sanctions en cas de violation

Selon la loi, toute entreprise qui ne respecte pas les dispositions de la loi sera soumise à de lourdes sanctions. Les amendes varient de 35 millions d’euros (38 millions de dollars américains) à 7 % du chiffre d’affaires total des entreprises pour l’année précédente, le montant le plus élevé étant retenu pour les sanctions administratives. 

Emma Wright du cabinet d'avocats Harbottle and Lewis a commenté l'avènement de la loi en ces termes : « La loi européenne sur l'IA est la première tentative significative de réglementer l'IA dans le monde – il reste à voir si le coût de la conformité étouffe l'innovation ou si l'IA Le modèle de gouvernance qu’il établit est une exportation phare pour l’UE.

Le rythme des progrès de l’IA, en particulier avec la récente sortie d’IA générative telle que ChatGPT, a largement dépassé le rythme de la réglementation. Plusieurs pays et blocs commerciaux ont travaillé sur des cadres juridiques pour réglementer l’utilisation de l’IA.