China está utilizando tácticas de guerra cognitiva para influir en las creencias y opiniones públicas sin involucrarse directamente en una confrontación militar, según informes que están saliendo a la luz públicamente. Este nuevo término surgió debido a la naturaleza cambiante de la guerra, ya que la manipulación de los pensamientos es el foco clave de esta estrategia.

China también depende de la desinformación generada por inteligencia artificial, como cintas de voz y vídeos realistas pero falsos, como parte de su estrategia. Lo preocupante es que, por primera vez, actores respaldados por el Estado están trabajando para manipular elecciones extranjeras, ya que la IA ha brindado nuevas posibilidades que no eran posibles hace un año con tanta conveniencia.

China está tratando de moldear opiniones

La rivalidad entre China y Taiwán ha llevado el término guerra cognitiva a la corriente principal, ya que China se ha centrado últimamente en operaciones basadas en influencias durante las últimas dos décadas. Debido a la situación geopolítica y las realidades del terreno, China puede haber llegado a la conclusión de que una intervención directa en Taiwán mediante la fuerza militar puede ser un asunto costoso.

Los informes dicen que la prueba de China de contenido generado por IA en las elecciones generales de Taiwán fue una prueba, y ahora está tratando de implementar las mismas prácticas para las elecciones de Estados Unidos, Corea del Sur e India, según un informe de Microsoft del mes pasado.

Según los informes, Corea del Norte también podría asociarse con China para apuntar a las elecciones estadounidenses de este año a través de sus grupos cibernéticos respaldados por el Estado. Un informe leído,

“Mientras tanto, a medida que las poblaciones de India, Corea del Sur y Estados Unidos acuden a las urnas, es probable que veamos a los actores cibernéticos y de influencia chinos, y hasta cierto punto, a los ciberactores norcoreanos, trabajar para apuntar a estas elecciones”.

Fuente: Microsoft.

Se supone que China creará y distribuirá el contenido generado por IA a través de las redes sociales para moldear las elecciones de una manera que los beneficie. Por el momento, el impacto del contenido falso en la influencia de opiniones no es considerable, pero eso podría cambiar con el avance de la tecnología y la creciente experimentación de China.

Los ciberactores respaldados por el Estado están a la vanguardia

Se dice que un grupo cibernético respaldado por China llamado Storm 1376, también conocido por los nombres Dragonbridge o Spamouflage, estuvo bastante activo durante las elecciones presidenciales de Taiwán. Se cree que este mismo grupo está detrás del audio falso del candidato Terry Gou, quien se retiró de las elecciones. YouTube eliminó el clip cuando se informó, pero debe haber llegado a muchos usuarios.

Otro candidato prosoviético, William Lai, también fue blanco de una serie de memes generados por IA sobre el robo de fondos estatales porque se le consideraba anti-China. Junto con los memes, hubo un aumento en el uso de presentadores de televisión generados por inteligencia artificial que hacían afirmaciones falsas acerca de que candidatos como Lai tenían hijos ilegítimos.

Se dice que se utilizó una herramienta llamada Capcut para generar los anclajes, que es un producto del gigante tecnológico chino ByteDance, propietario de TikTok. En febrero, un informe del Instituto para el Diálogo Estratégico decía que una cuenta en la plataforma X con un nombre occidental compartió un vídeo de RT, que es una red rusa, afirmando que Biden y la CIA habían enviado a un gángster a luchar en Ucrania. . En un intento de parecer legítima, se mostró que la cuenta estaba dirigida por un hombre de 43 años de Los Ángeles que apoyaba a Trump, con una fotografía tomada de un blog danés.

También se identificaron muchas otras cuentas que generalmente repetían contenido publicado por grupos chinos, como Storm 1376. Meta, que es la empresa matriz de Facebook, Threads e Instagram, eliminó miles de cuentas sospechosas probablemente vinculadas a Storm 1376. Pero el Las cuentas más nuevas no son tan fáciles de identificar, ya que adoptan estilos orgánicos para generar seguidores y parecen ser operadas por humanos. China niega la culpa y dice que no apoya ninguna actividad que tenga un impacto en las elecciones en ninguna región, pero las campañas de dichos grupos continúan.