Avec le développement des technologies d’IA, l’IA est utilisée de manière contraire à l’éthique dans les filtres électoraux, ce qui constitue une menace d’influence électorale. Microsoft a prévenu que la Chine était prête à bricoler les prochaines élections en Inde, aux États-Unis et en Corée du Sud et qu'elle était impatiente de recourir au contenu généré par l'IA. Cet avertissement est dû au récent procès en Chine lors de l’élection présidentielle à Taiwan, au cours duquel une IA a été utilisée pour influencer les résultats du vote.

Avertissement et évaluation de Microsoft

Les experts en renseignement sur les menaces de Microsoft ont révélé que la Chine est probablement le pays à l’origine de groupes de piratage parrainés par l’État qui pourraient utiliser la participation nord-coréenne pour accéder aux systèmes des agences électorales de l’État lors des élections de 2024. Cet avertissement intervient après que la Chine a tenté d’utiliser l’IA lors de l’élection du président taïwanais pour influencer le résultat. Le plan a été mis en œuvre avec la technologie de l’IA, car le contenu généré par l’IA, comme les fausses mentions audio et les mèmes, donnait une mauvaise image de certains candidats ou manipulait la perception des électeurs.

Selon les responsables de Microsoft, le contenu généré par l’IA en provenance de Chine remet en cause l’intégrité des élections américaines, en particulier des élections cruciales comme la course présidentielle de 2024. Le géant de la technologie prévient que la création de « deepfakes », d’événements fictifs et d’autres techniques trompeuses peuvent tromper le public et nuire à sa capacité à prendre des décisions judicieuses et judicieuses.

L’influence de l’IA dans les élections n’est pas seulement l’expérience de Taiwan ; les États-Unis ont également été témoins de l’activité de la Chine en matière d’IA dans la sphère politique. Des groupes chinois auraient mené les mêmes campagnes de désinformation auprès de populations électorales clés et publié du matériel partisan sur les réseaux sociaux. Cependant, la plupart des recherches sur ce sujet ne parviennent pas à étayer de manière significative leurs affirmations d’un changement notable dans l’opinion publique.

À l’approche des primaires démocrates du New Hampshire de 2024, un message vocal généré par l’IA se faisant passer pour la voix du président Joe Biden a été publié, encourageant les électeurs à s’abstenir de participer au processus de vote. Malgré l’affirmation selon laquelle la situation ne concerne pas la Chine, l’événement illustre le risque plus général que représente l’IA pour les procédures démocratiques.

Implications pour les élections en Inde

L’Inde, qui doit organiser ses élections générales à partir du 19 avril, n’est pas non plus à l’abri du danger d’ingérence de l’IA. Il est évident que l’alerte de Microsoft montre qu’en raison de l’augmentation des cyberattaques, il est nécessaire de faire preuve d’une vigilance accrue pour protéger l’intégrité des élections indiennes contre les cyberattaques. Étant donné que l’ensemble de la procédure comprend sept étapes allant du 19 avril au 1er juin, les craintes d’une intrusion de l’IA dans le processus de vote semblent fondées.

L’un des plus grands défis auxquels l’Inde est confrontée en tant que plus grande démocratie au monde est de maintenir l’intégrité du système électoral contre les ingérences extérieures. Le contenu généré par l’IA pourrait être utilisé pour manipuler les perceptions des électeurs et ignorer la légitimité de l’élection, aboutissant ainsi à une méfiance à l’égard du processus démocratique.

Suite à l’augmentation du nombre d’élections massives à l’échelle internationale, les gouvernements, les fournisseurs de technologies et les organisations de défense des droits de l’homme devraient s’attaquer au danger que représentent les contenus générés par l’IA. Pour surmonter cet obstacle, il faut des efforts interconnectés pour créer des mesures drastiques permettant de détecter et de contrecarrer rapidement la propagation de fausses informations. La sauvegarde de l’intégrité et de la transparence du processus électoral devrait être une priorité à l’approche des prochaines élections en Inde. La vigilance contre la manipulation de l’IA et la promotion de la culture numérique, ainsi que la sensibilisation des électeurs, sont les principaux piliers de la défense de la démocratie à l’ère numérique.

L’influence de l’IA sur les élections constitue un danger majeur car elle sape les fondements de la démocratie et l’intégrité du processus électoral. Grâce à une surveillance continue et à des approches réactives, les parties prenantes peuvent agir à l’unisson pour mettre fin à la diffusion de faux contenus et contribuer à garantir un esprit démocratique pur.

Source : https://blogs.microsoft.com/on-the-issues/2024/04/04/china-ai-influence-elections-mtac-cybersecurity/