Китай використовує тактику когнітивної війни, щоб вплинути на суспільні переконання та думки, не вступаючи безпосередньо у військову конфронтацію, згідно з повідомленнями, які з’являються у відкритому доступі. Цей новий термін з’явився через еволюцію природи війни, оскільки маніпулювання думками є ключовим напрямком цієї стратегії.

Китай також покладається на дезінформацію, створену штучним інтелектом, таку як реалістичні, але підроблені голосові стрічки та відео, як частину своєї стратегії. Фактором, що викликає занепокоєння, є те, що вперше підтримувані державою суб’єкти працюють над маніпулюванням іноземними виборами, оскільки штучний інтелект відкрив нові можливості, які рік тому були неможливі з такою зручністю.

Китай намагається формувати думку

Китайсько-тайваньське суперництво привело термін «когнітивна війна» до мейнстріму, оскільки останні два десятиліття Китай зосереджувався на операціях, заснованих на впливі. Через геополітичну ситуацію та реалії на землі Китай, можливо, дійшов висновку, що пряме втручання на Тайвані за допомогою військової сили може бути дорогим. 

У звітах говориться, що випробування Китаєм контенту, створеного штучним інтелектом, на загальних виборах у Тайвані було тестовим, і тепер він намагається застосувати ті ж методи для виборів у США, Південній Кореї та Індії, згідно зі звітом Microsoft минулого місяця. 

Згідно з повідомленнями, Північна Корея також може співпрацювати з Китаєм, щоб націлитися на вибори в США цього року через свої підтримувані державою кібергрупи. Прочитаний звіт,

«Тим часом, коли населення Індії, Південної Кореї та Сполучених Штатів збирається на вибори, ми, ймовірно, побачимо, що китайські кібер-актори та актори впливу, і певною мірою північнокорейські кібер-актори, працюватимуть над націлюванням на ці вибори».

Джерело: Microsoft.

Передбачається, що Китай створюватиме та поширюватиме створений штучним інтелектом контент через соціальні мережі, щоб сформувати вибори так, щоб це було вигідно їм. На даний момент вплив фейкового вмісту на коливання думок незначний, але це може змінитися з розвитком технологій і збільшенням кількості експериментів у Китаї.

Підтримувані державою кіберактори знаходяться в авангарді

Кажуть, що підтримувана Китаєм кібергрупа під назвою Storm 1376, також відома як Dragonbridge або Spamouflage, була досить активною під час президентських виборів у Тайвані. Вважається, що ця сама група стоїть за підробкою аудіо кандидата Террі Гоу, який знявся з виборів. YouTube видалив кліп, коли про нього повідомили, але, мабуть, він досяг багатьох користувачів.

Інший прорадянський кандидат, Вільям Лай, також був об’єктом серії створених штучним інтелектом мемів про розкрадання державних коштів, оскільки його вважали антикитайським. Разом із мемами спостерігався сплеск використання створених ШІ телеведучих, які робили неправдиві заяви про таких кандидатів, як Лай, які народжують позашлюбних дітей. 

Кажуть, що для створення анкорів використовувався інструмент під назвою Capcut, який є продуктом китайського технологічного гіганта ByteDance, який є власником TikTok. Ще в лютому в звіті Інституту стратегічного діалогу говорилося, що обліковий запис на платформі X із західною назвою поширив відео з російської мережі RT, у якому стверджується, що Байден і ЦРУ відправили гангстера воювати в Україну. . У спробі виглядати легітимним обліковим записом було показано, що ним керує 43-річний житель Лос-Анджелеса, який був прихильником Трампа, із фотографією, взятою з датського блогу.

Також виявлено багато інших облікових записів, які зазвичай повторюють вміст, опублікований китайськими групами, як-от Storm 1376. Meta, яка є материнською компанією Facebook, Threads і Instagram, видалила тисячі підозрілих облікових записів, ймовірно пов’язаних із Storm 1376. Але Нові облікові записи не так легко ідентифікувати, оскільки вони приймають органічні стилі для створення підписників і, здається, ними керують люди. Китай заперечує провину та заявляє, що не підтримує жодних заходів, спрямованих на вплив на вибори в будь-якому регіоні, але кампанії з боку зазначених груп тривають.