Podle zpráv, které se veřejně objevují, Čína používá taktiku kognitivní války k ovlivnění názorů a názorů veřejnosti, aniž by se přímo zapojila do vojenské konfrontace. Tento nový termín se objevil kvůli vyvíjející se povaze válčení, protože manipulace s myšlenkami je hlavním cílem této strategie.

Čína jako součást své strategie spoléhá také na dezinformace generované umělou inteligencí, jako jsou realistické, ale falešné hlasové pásky a videa. Znepokojivým faktorem je, že státem podporovaní aktéři poprvé pracují na zmanipulování zahraničních voleb, protože umělá inteligence přinesla nové možnosti, které před rokem s takovým pohodlím nebyly možné.

Čína se snaží formovat názory

Soupeření mezi Čínou a Tchaj-wanem přineslo termín kognitivní válka do hlavního proudu, protože Čína se v posledních dvou desetiletích zaměřuje na operace založené na vlivu. Vzhledem ke geopolitické situaci a pozemní realitě mohla Čína dojít k závěru, že přímá intervence na Tchaj-wanu prostřednictvím vojenské síly může být nákladná záležitost. 

Zprávy říkají, že čínská zkouška obsahu generovaného umělou inteligencí ve všeobecných volbách na Tchaj-wanu byla zkušebním provozem a nyní se podle zprávy společnosti Microsoft minulý měsíc pokouší zavést stejné postupy pro volby v USA, Jižní Koreji a Indii. 

Podle zpráv může Severní Korea také spolupracovat s Čínou, aby se letos zaměřila na americké volby prostřednictvím jejich státem podporovaných kybernetických skupin. Přečtená zpráva,

"Mezitím, jak obyvatelé Indie, Jižní Koreje a Spojených států míří k volebním urnám, pravděpodobně uvidíme čínské kybernetické a vlivné aktéry a do jisté míry i severokorejské kybernetické aktéry, kteří pracují na cílení těchto voleb."

Zdroj: Microsoft.

Předpokládá se, že Čína bude vytvářet a distribuovat obsah generovaný umělou inteligencí prostřednictvím sociálních médií, aby utvářela volby způsobem, který jim bude prospěšný. V současné době není dopad falešného obsahu na kolísavé názory významný, ale to by se mohlo změnit s pokrokem technologie a rostoucím experimentováním v Číně.

V popředí jsou státem podporovaní kybernetičtí aktéři

Čínou podporovaná kybernetická skupina s názvem Storm 1376, známá také pod názvy Dragonbridge nebo Spamouflage, byla údajně během prezidentských voleb na Tchaj-wanu docela aktivní. Předpokládá se, že stejná skupina stojí za falešným zvukem kandidáta Terryho Goua, který odstoupil z voleb. YouTube klip při nahlášení odstranil, ale musel se dostat k mnoha uživatelům.

Další prosovětský kandidát, William Lai, byl také cílem série memů generovaných umělou inteligencí o krádežích státních prostředků, protože byl považován za protičínský. Spolu s memy došlo k nárůstu používání televizních moderátorů generovaných umělou inteligencí, kteří nepravdivě tvrdili o kandidátech, jako je Lai, který zplodil nemanželské děti. 

Ke generování kotev byl prý použit nástroj Capcut, který je produktem čínského technologického giganta ByteDance, který je vlastníkem TikTok. V únoru zpráva Institutu pro strategický dialog uvedla, že účet na platformě X se západním názvem sdílel video z RT, což je ruská síť, tvrdící, že Biden a CIA poslali gangstera bojovat na Ukrajinu. . Účet, ve snaze vypadat legitimně, byl zobrazen jako vedený 43letým mužem z Los Angeles, který podporoval Trumpa, s obrázkem převzatým z dánského blogu.

Bylo také zjištěno mnoho dalších účtů, které obvykle opakovaly obsah publikovaný čínskými skupinami, jako je Storm 1376. Meta, která je mateřskou společností Facebooku, Threads a Instagramu, odstranila tisíce podezřelých účtů pravděpodobně spojených s Storm 1376. Novější účty není tak snadné identifikovat, protože přijímají organické styly, aby si vybudovali následovníky, a zdá se, že je ovládají lidé. Čína vinu popírá a tvrdí, že nepodporuje žádné aktivity, které by ovlivnily volby v jakémkoli regionu, ale kampaně zmíněných skupin pokračují.