La Commission européenne (CE) exigera que les plateformes technologiques comme TikTok, X et Facebook détectent le contenu généré par l'intelligence artificielle (IA) afin de protéger les prochaines élections européennes de la désinformation.
La CE a lancé une consultation publique sur les lignes directrices proposées en matière de sécurité électorale pour les très grandes plateformes en ligne (VLOP) et les très grands moteurs de recherche en ligne (VLOSE). Les recommandations visent à réduire les menaces démocratiques posées par l’IA générative et les deepfakes.
Le projet de lignes directrices offre des exemples de mesures possibles pour faire face aux risques liés aux élections, notamment des actions spécifiques liées au contenu génératif de l'IA, la planification de l'atténuation des risques avant ou après un scrutin et la fourniture d'orientations claires pour les élections au Parlement européen.
L’IA générative peut induire les électeurs en erreur ou manipuler les processus électoraux en créant et en diffusant du contenu synthétique inauthentique et trompeur concernant les acteurs politiques, une fausse représentation d’événements, de sondages électoraux, de contextes ou de récits.
Garantir l’intégrité des élections signifie protéger le discours public – dont une grande partie se déroule en ligne. Nous sollicitons des avis sur notre projet de lignes directrices relatives à la loi sur les services numériques afin de faire face aux risques émergents en ligne pour les processus électoraux tout en préservant les éléments constitutifs de nos démocraties ↓
– Commission européenne (@EU_Commission) 8 février 2024
Actuellement ouvert à la consultation publique dans l'Union européenne (UE) jusqu'au 7 mars, le projet de lignes directrices en matière de sécurité électorale recommande d'alerter les utilisateurs des plateformes concernées sur les inexactitudes potentielles dans les contenus produits par l'IA générative.
Selon le projet, les lignes directrices suggèrent également de guider les utilisateurs vers des sources d'informations faisant autorité, et les géants de la technologie devraient mettre en œuvre des mesures de protection pour empêcher la génération de contenus trompeurs susceptibles d'avoir un impact significatif sur le comportement des utilisateurs.
Concernant le texte généré par l’IA, la recommandation actuelle est que les VLOP/VLOSE « indiquent, si possible, dans les résultats générés les sources concrètes des informations utilisées comme données d’entrée pour permettre aux utilisateurs de vérifier la fiabilité et de contextualiser davantage les informations ».
Les « meilleures pratiques » proposées dans le projet d'orientation pour l'atténuation des risques s'inspirent de la proposition législative récemment approuvée par l'UE, la loi sur l'IA, et de son homologue non contraignant, le Pacte sur l'IA.
Connexes : La loi sur l'intelligence artificielle de l'UE, expliquée
Les inquiétudes concernant les systèmes d’IA avancés, tels que les grands modèles de langage (LLM), sont au premier plan depuis la montée virale de l’IA générative l’année dernière, rendant largement connus des outils comme le chatbot IA d’OpenAI, ChatGPT.
La Commission n'a pas précisé quand exactement les entreprises seront obligées d'étiqueter les contenus manipulés en vertu de la loi européenne sur la modération des contenus, la loi sur les services numériques (DSA).
Cependant, dans un article de blog de l'entreprise, Meta a annoncé son intention d'introduire de nouvelles directives concernant le contenu généré par l'IA sur Facebook, Instagram et Threads dans les mois à venir. Tout contenu reconnu comme généré par l'IA, que ce soit via des métadonnées ou un filigrane intentionnel, recevra une étiquette visible.
Magazine : L’IA a tué l’industrie » : le patron d’EasyTranslate parle de l’adaptation au changement