La prochaine vague d’élections dans le monde est suivie de près par des inquiétudes concernant l’IA et les cyberattaques affectant le processus démocratique. Selon le rapport de Mandiant, commandé par Google Cloud, a révélé une diversité de menaces généralement posées au grand public par les acteurs étatiques, les cybercriminels et les pirates politiques. Cela pourrait compromettre les processus électoraux à venir dans de nombreux pays du monde.

Paysage de menaces accru

Le rapport Mandiant accentue le niveau croissant des menaces liées aux élections, soulignant le besoin urgent de politiques de sécurité globales. Cette année, plus de 2 milliards d'électeurs provenant de 50 pays seront présents aux urnes, ce qui rend les risques encore plus réels, ce qui implique une vigilance pour garantir que les cybermenaces émergentes ne puissent pas aboutir.

Les opérations de cybermenace parrainées par l’État chinois ont désormais adopté l’intelligence artificielle (IA) pour alimenter des efforts de désinformation généralisés ciblant les élections dans le pays et à l’étranger. Les derniers rapports mettent en lumière les fameuses stratégies de ces attaquants, notamment lors des élections à Taiwan et du prochain scrutin présidentiel américain de 2020.

À Taïwan, l’adoption de bulletins d’information générés par l’IA et utilisant de faux présentateurs est devenue un moyen idéal de diffuser de fausses nouvelles. Ces segments d’information imités, réalisés à partir de CapCut, la création de ByteDance, font partie des instruments clés de la propagation de la désinformation visant à perturber le processus démocratique. En outre, des mèmes et des vidéos générés par l’IA, dans le but de diffamer des personnalités politiques bien connues, ont été largement diffusés, entraînant une large diffusion de contenus trompeurs.

De la même manière, les États-Unis font l’objet de tentatives incessantes de la part d’acteurs menaçants parrainés par l’État chinois pour manipuler la mentalité du pays par le biais de campagnes de désinformation. Les efforts de cybersécurité électorale ne se limitent pas aux efforts de piratage classiques ; ces campagnes de désinformation visent à saper la volonté populaire et le processus électoral. Les adversaires utilisent toutes les approches possibles pour manipuler les résultats, du ciblage des machines à voter à l’infiltration des campagnes politiques et à la manipulation des médias sociaux.

Un impératif de sécurité globale

La sécurisation des élections nécessitera une approche holistique couvrant les vecteurs de menace, depuis les attaques DDoS jusqu'à la manipulation des deepfakes. Mandiant met beaucoup l'accent sur la poursuite des menaces pour sécuriser les infrastructures numériques et minimiser les manipulations électorales.

Bien que les préoccupations les plus légitimes concernant la cybersécurité des élections concernent les perturbations directes du vote et du décompte, les cyber-adversaires tentent bien plus souvent de semer l’image du public par la guerre de l’information : en diffusant de fausses nouvelles, en orchestrant des attaques DDoS et en manipulant secrètement les médias sociaux avec toute l’ingéniosité. façonner les résultats électoraux.

Par conséquent, on s’attend à ce que les organisations électorales prennent des mesures de défense proactives pour faire face à l’évolution du paysage des menaces. Cela doit être entrepris en comprenant les menaces spécifiques dirigées contre chaque pays afin de renforcer l’anticipation et les contre-mesures contre les attaques probables qui rendront les institutions démocratiques plus résilientes.

Initiative du gouvernement américain Conseil de sûreté et de sécurité de l'IA

Il convient de noter que le gouvernement américain a créé un Conseil de sûreté et de sécurité de l’intelligence artificielle composé des plus grands leaders technologiques, ce qui représente un grand pas en avant. Parmi les principaux leaders technologiques mentionnés au conseil d’administration figurent Sam Altman d’OpenAI, Satya Nadella de Microsoft et le PDG d’Alphabet, Sundar Pichai.

Le conseil d’administration conseillera, entre autres choses, le ministère de la Sécurité intérieure sur la meilleure manière d’injecter l’IA dans les infrastructures critiques du pays de manière sûre et sécurisée. Parmi les autres personnes à la table haute se trouvent Jensen Huang, PDG de Nvidia ; Kathy Warden, PDG de Northrop Grumman ; et Ed Bastian, PDG de Delta Airlines.

L’AI Safety and Security Board travaillera avec le département américain de la Sécurité intérieure pour éliminer toute suggestion visant à intégrer l’IA dans des infrastructures critiques qui serait dangereuse. Le Conseil fournira des suggestions aux services publics, aux fournisseurs de transport et aux fabricants sur la manière de mettre en œuvre des pratiques de cybersécurité compatibles avec la forme d'IA la plus répandue à l'heure actuelle.

L’objectif principal de l’AI Safety and Security Board est d’intégrer en toute sécurité les technologies d’IA dans les systèmes d’infrastructures critiques. Ce serait l'espace dans lequel le conseil d'administration espère définir des lignes directrices et des postes de travail pour la mise en œuvre en mettant l'accent sur la sécurité, la sûreté et la fiabilité au sein des infrastructures critiques. Compiler les meilleures idées de dirigeants expérimentés du secteur et développer un cadre permettant des déploiements responsables de l’IA dans divers domaines.

L'implication des parties prenantes du secteur privé dans cette organisation joue également un rôle en démontrant un effort combiné pour appliquer les connaissances et les perspectives de l'industrie dans l'établissement de politiques et de réglementations en matière d'IA. Dans ce cas, le conseil s’engage à traiter les problèmes complexes liés à l’IA pour assurer la sécurité et la sûreté, créant ainsi la confiance parmi le public.

Contenu trompeur généré par l’intelligence artificielle : risques et inconvénients

Les deepfakes générés par l’IA sont de plus en plus sophistiqués, ce qui rend difficile la distinction entre le réel et le contenu manipulé. Sous forme de photos, de vidéos et de fichiers audio, les contenus manipulés pourraient menacer la réputation d’un homme politique ou d’un parti politique. Elle ne sera peut-être pas pleinement exercée lors d’élections écrasantes, mais le pouvoir de l’IA peut modifier les résultats finaux en faussant la différence entre quelques votes cruciaux lors d’une élection serrée.

Des efforts sont déployés à l’échelle mondiale pour atténuer l’impact que la manipulation de l’IA peut avoir sur les processus électoraux. Différents gouvernements, les plus grandes entreprises technologiques du monde et les organes législatifs ouvrent cette voie en surveillant, en réglementant et, surtout, en donnant un sens à l’impact de l’IA. Par exemple, la plupart des pays ont constitué des équipes électorales internes et mis en œuvre des mesures pour prévenir les risques associés à l’IA générative.

Les mesures préventives à adopter pour prévenir les ingérences électorales provoquées par l’IA comprennent la sensibilisation de la population aux risques liés aux contenus trompeurs générés par l’IA. Les campagnes de sensibilisation sont conçues pour sensibiliser les consommateurs à l’authenticité du contenu en ligne et à la possibilité même qu’il soit fabriqué grâce à l’IA. Cela augmenterait la suspicion à l’égard de l’information en ligne, réduisant encore davantage la confiance dans les plateformes numériques, avec un problème accru de désinformation et de mésinformation.