Ķīna izmanto kognitīvā kara taktikas, lai ietekmētu sabiedrības uzskatus un uzskatus, neiesaistoties tieši militārā konfrontācijā, liecina publiski izskanējušie ziņojumi. Šis jaunais termins ir radies karadarbības mainīgā rakstura dēļ, jo šīs stratēģijas galvenā uzmanība tiek pievērsta manipulācijām ar domām.

Ķīna savas stratēģijas ietvaros paļaujas arī uz mākslīgā intelekta radītu dezinformāciju, piemēram, reālistiskām, bet viltotām balss lentēm un video. Satraucošais faktors ir tas, ka pirmo reizi valsts atbalstīti dalībnieki strādā, lai manipulētu ar ārvalstu vēlēšanām, jo ​​mākslīgais intelekts ir radījis jaunas iespējas, kas pirms gada nebija iespējamas ar tik ērtībām.

Ķīna cenšas veidot viedokļus

Ķīnas un Taivānas sāncensība ir ieviesusi kognitīvā kara jēdzienu, jo Ķīna pēdējās divās desmitgadēs ir koncentrējusies uz ietekmi balstītām operācijām. Ģeopolitiskās situācijas un zemes realitātes dēļ Ķīna, iespējams, ir secinājusi, ka tieša iejaukšanās Taivānā, izmantojot militāru spēku, var izmaksāt dārgi. 

Ziņojumos teikts, ka Ķīnas AI radītā satura izmēģinājums Taivānas vispārējās vēlēšanās bija izmēģinājuma brauciens, un tagad tā mēģina izmantot to pašu praksi ASV, Dienvidkorejas un Indijas vēlēšanās, saskaņā ar Microsoft pagājušajā mēnesī publicēto ziņojumu. 

Saskaņā ar ziņojumiem Ziemeļkoreja var arī sadarboties ar Ķīnu, lai šogad ar savu valsts atbalstīto kibergrupu starpniecību mērķētu uz ASV vēlēšanām. Lasīts ziņojums,

"Tikmēr Indijas, Dienvidkorejas un Amerikas Savienoto Valstu iedzīvotāji dodas uz vēlēšanu iecirkņiem, mēs, visticamāk, redzēsim Ķīnas kiber- un ietekmes dalībniekus un zināmā mērā arī Ziemeļkorejas kiberaktorus, kuri strādās, lai mērķētu uz šīm vēlēšanām."

Avots: Microsoft.

Tiek pieņemts, ka Ķīna izveidos un izplatīs mākslīgā intelekta radīto saturu, izmantojot sociālos medijus, lai veidotu vēlēšanas tādā veidā, kas viņiem nāktu par labu. Pašlaik viltus satura ietekme uz viedokļu svārstībām nav ievērojama, taču tas varētu mainīties līdz ar tehnoloģiju attīstību un Ķīnas pieaugošo eksperimentēšanu.

Valsts atbalstīti kiberdarbinieki ir priekšplānā

Ķīnas atbalstītais kibergrupējums Storm 1376, kas pazīstams arī ar Dragonbridge vai Spamouflage vārdiem, esot bijis diezgan aktīvs Taivānas prezidenta vēlēšanu laikā. Tiek uzskatīts, ka šī pati grupa ir aiz viltus audio kandidāta Terija Gou, kurš izstājās no vēlēšanām. YouTube noņēma klipu, kad par to tika ziņots, taču tas noteikti ir sasniedzis daudzus lietotājus.

Cits propadomju kandidāts Viljams Lai arī bija vairāku mākslīgā intelekta radītu mēmu mērķis par valsts līdzekļu zagšanu, jo viņš tika uzskatīts par pret Ķīnu vērstu. Līdztekus mēmiem pieauga mākslīgā intelekta radīto TV enkuru izmantošana, kuri izteica nepatiesus apgalvojumus par tādiem kandidātiem kā Lai, kas ir ārlaulības bērnu tēvs. 

Ir teikts, ka enkuru ģenerēšanai tika izmantots rīks Capcut, kas ir Ķīnas tehnoloģiju giganta ByteDance produkts, kas ir TikTok īpašnieks. Februārī Stratēģiskā dialoga institūta ziņojumā teikts, ka X platformas konts ar rietumu nosaukumu kopīgoja Krievijas tīkla RT video, apgalvojot, ka Baidens un CIP ir nosūtījuši gangsteru, lai cīnītos uz Ukrainu. . Mēģinot izskatīties likumīgi, kontu pārvalda 43 gadus vecs vīrietis Losandželosā, kurš bija Trampa atbalstītājs, un attēls tika ņemts no Dānijas emuāra.

Tika identificēti arī daudzi citi konti, kas parasti atkārtoja saturu, ko publicēja ķīniešu grupas, piemēram, Storm 1376. Meta, kas ir Facebook, Threads un Instagram mātesuzņēmums, noņēma tūkstošiem aizdomīgu kontu, kas, iespējams, bija saistīti ar Storm 1376. Taču Jaunākus kontus nav tik viegli identificēt, jo tie izmanto dabiskos stilus, lai izveidotu sekotāju, un šķiet, ka tos pārvalda cilvēki. Ķīna noliedz vainu un saka, ka tā neatbalsta nekādas darbības, kas ietekmētu vēlēšanas nevienā reģionā, taču šo grupu kampaņas turpinās.