La Chine utilise des tactiques de guerre cognitive pour influencer les croyances et les opinions du public sans s’engager directement dans une confrontation militaire, selon des rapports rendus publics. Ce nouveau terme est apparu en raison de la nature évolutive de la guerre, la manipulation des pensées étant au cœur de cette stratégie.

Dans le cadre de sa stratégie, la Chine s’appuie également sur la désinformation générée par l’intelligence artificielle, comme des enregistrements vocaux et des vidéos réalistes mais fausses. Ce qui est préoccupant, c’est que, pour la première fois, des acteurs soutenus par l’État s’efforcent de manipuler des élections étrangères, l’IA ayant apporté de nouvelles possibilités qui n’étaient pas possibles avec une telle commodité il y a un an.

La Chine tente de façonner les opinions

La rivalité entre la Chine et Taiwan a introduit le terme de guerre cognitive dans le courant dominant, alors que la Chine s’est concentrée sur les opérations basées sur l’influence au cours des deux dernières décennies. En raison de la situation géopolitique et des réalités sur le terrain, la Chine a peut-être conclu qu’une intervention directe à Taiwan par la force militaire pouvait s’avérer coûteuse.

Des rapports indiquent que l’essai par la Chine du contenu généré par l’IA lors des élections générales à Taiwan était un test, et qu’elle tente maintenant de déployer les mêmes pratiques pour les élections américaines, sud-coréennes et indiennes, selon un rapport de Microsoft le mois dernier.

Selon certaines informations, la Corée du Nord pourrait également s'associer à la Chine pour cibler les élections américaines de cette année par le biais de ses cybergroupes soutenus par l'État. Un rapport lu,

« Pendant ce temps, alors que les populations de l’Inde, de la Corée du Sud et des États-Unis se rendent aux urnes, nous verrons probablement des cyberacteurs et des acteurs d’influence chinois, et dans une certaine mesure, des cyberacteurs nord-coréens, s’efforcer de cibler ces élections. »

Source : Microsoft.

On suppose que la Chine créera et distribuera le contenu généré par l’IA via les médias sociaux pour façonner les élections d’une manière qui leur profite. À l’heure actuelle, l’impact des faux contenus sur l’influence des opinions n’est pas considérable, mais cela pourrait changer avec les progrès de la technologie et l’expérimentation croissante de la Chine.

Les cyberacteurs soutenus par l’État sont en première ligne

Un cybergroupe soutenu par la Chine appelé Storm 1376, également connu sous les noms de Dragonbridge ou Spamouflage, aurait été très actif lors de l'élection présidentielle de Taiwan. Ce même groupe serait à l’origine du faux audio du candidat Terry Gou, qui s’est retiré des élections. YouTube a supprimé le clip lorsqu'il a été signalé, mais il a dû toucher de nombreux utilisateurs.

Un autre candidat pro-soviétique, William Lai, a également été la cible d'une série de mèmes générés par l'IA sur le vol de fonds publics parce qu'il était considéré comme anti-Chine. Parallèlement aux mèmes, il y a eu une augmentation du recours à des présentateurs de télévision générés par l'IA qui ont fait de fausses déclarations sur des candidats tels que Lai engendrant des enfants illégitimes.

On dit qu'un outil appelé Capcut a été utilisé pour générer les ancres, qui est un produit du géant chinois de la technologie ByteDance, propriétaire de TikTok. En février dernier, un rapport de l'Institut pour le dialogue stratégique indiquait qu'un compte sur la plateforme X portant un nom occidental partageait une vidéo de RT, un réseau russe, affirmant que Biden et la CIA avaient envoyé un gangster combattre en Ukraine. . Le compte, pour tenter de paraître légitime, a été présenté comme étant dirigé par un homme de 43 ans de Los Angeles qui était un partisan de Trump, avec une photo prise sur un blog danois.

De nombreux autres comptes ont également été identifiés qui répétaient généralement du contenu publié par des groupes chinois, comme Storm 1376. Meta, qui est la société mère de Facebook, Threads et Instagram, a supprimé des milliers de comptes suspects probablement liés à Storm 1376. Mais le les comptes les plus récents ne sont pas si faciles à identifier car ils adoptent des styles organiques pour créer une audience et semblent être gérés par des humains. La Chine nie toute responsabilité et affirme qu’elle ne soutient aucune activité susceptible d’avoir un impact sur les élections dans aucune région, mais les campagnes menées par ces groupes se poursuivent.