Attīstoties mākslīgā intelekta tehnoloģijām, AI tiek neētiski izmantots vēlēšanu filtros, kā norādīts uz vēlēšanu ietekmes draudiem. Korporācija Microsoft brīdināja, ka Ķīna ir gatava sadarboties ar gaidāmajām vēlēšanām Indijā, ASV un Dienvidkorejā un ka viņi vēlas izmantot mākslīgā intelekta radītā satura palīdzību. Šis brīdinājums ir saistīts ar neseno Ķīnas tiesas procesu Taivānas prezidenta vēlēšanu laikā, kurā AI tika izmantota, lai ietekmētu balsošanas rezultātus.

Microsoft brīdinājums un novērtējums

Microsoft draudu izlūkošanas eksperti atklāja, ka Ķīna, visticamāk, ir valsts aiz valsts sponsorētajām hakeru grupām, kuras varētu izmantot Ziemeļkorejas iesaistīšanos, lai piekļūtu valsts vēlēšanu aģentūru sistēmām 2024. gada vēlēšanās. Brīdinājums nāk pēc tam, kad Ķīna mēģināja izmantot AI Taivānas prezidenta vēlēšanu laikā, lai ietekmētu iznākumu. Plāns tika īstenots, izmantojot AI tehnoloģiju, jo mākslīgā intelekta radītais saturs, piemēram, viltoti audio apstiprinājumi un mēmi, dažiem kandidātiem lika izskatīties slikti vai manipulēja ar vēlētāju uztveri.

Saskaņā ar Microsoft amatpersonu teikto, mākslīgā intelekta radītais saturs no Ķīnas apdraud ASV vēlēšanu integritāti, jo īpaši svarīgas vēlēšanas, piemēram, 2024. gada prezidenta vēlēšanu sacensības. Tehnoloģiju gigants brīdina, ka “dziļu viltojumu”, izdomātu notikumu un citu maldinošu paņēmienu radīšana var apmānīt sabiedrību un kaitēt tās spējai pieņemt saprātīgus un pareizus lēmumus.

AI ietekme uz vēlēšanām nav tikai Taivānas pieredze; Amerikas Savienotās Valstis ir redzējušas arī Ķīnas AI darbību politiskajā jomā. Ķīnas grupas, domājams, ir veikušas tādas pašas dezinformācijas kampaņas galvenajām vēlētāju grupām un ievietojušas partizānu materiālus arī sociālajos medijos. Tomēr lielākā daļa pētījumu par šo tēmu nesniedz lielu atbalstu viņu apgalvojumiem par ievērojamām sabiedriskās domas izmaiņām.

2024. gada Ņūhempšīras Demokrātu partijas priekšvēlēšanu laikā tika izlaists mākslīgā intelekta ģenerēts balss ziņojums, kas uzdodas par prezidenta Džo Baidena balsi, mudinot vēlētājus atturēties no dalības balsošanas procesā. Neraugoties uz apgalvojumu, ka situācija nav saistīta ar Ķīnu, notikums rada plašāku apdraudējumu demokrātiskām procedūrām, ko rada AI.

Ietekme uz Indijas vēlēšanām

Arī Indija, kuras vispārējās vēlēšanas notiks 19. aprīlī, nav brīva no mākslīgā intelekta iejaukšanās draudiem. Ir pilnīgi skaidrs, ka Microsoft brīdinājums liecina, ka pieaugošo kiberuzbrukumu dēļ ir nepieciešama pastiprināta modrība, lai aizsargātu Indijas vēlēšanu integritāti no kiberuzbrukumiem. Ņemot vērā, ka visa procedūra sastāv no septiņiem posmiem no 19. aprīļa līdz 1. jūnijam, bažas par AI iejaukšanos balsošanas procesā šķiet pamatotas.

Viens no lielākajiem izaicinājumiem Indijai kā lielākajai demokrātijai pasaulē ir saglabāt vēlēšanu sistēmas integritāti no ārējas iejaukšanās. AI radīto saturu varētu izmantot, lai manipulētu ar vēlētāju uztveri un neņemtu vērā vēlēšanu leģitimitāti, tādējādi radot neuzticēšanos demokrātiskajam procesam.

Pēc masu vēlēšanu pieauguma starptautiskā mērogā valdībām, tehnoloģiju nodrošinātājiem un cilvēktiesību organizācijām būtu jārisina AI radītā satura radītās briesmas. Lai pārvarētu šo šķērsli, ir jāveic savstarpēji saistīti mēģinājumi izveidot radikālus pasākumus, lai ātri atklātu un kavētu viltus informācijas izplatību. Pirms gaidāmajām Indijas vēlēšanām darba kārtības augšgalā vajadzētu būt vēlēšanu procesa integritātes un pārredzamības nodrošināšanai. Modrība pret manipulācijām ar mākslīgo intelektu un digitālās pratības veicināšana, kā arī vēlētāju informētība ir galvenie demokrātijas aizsardzības pīlāri digitālajā laikmetā.

AI vēlēšanu ietekmēšanā ir liels apdraudējums, jo tas grauj demokrātijas pamatus un vēlēšanu procesa integritāti. Izmantojot pastāvīgu uzraudzību un reaģējošas pieejas, ieinteresētās personas var rīkoties vienoti, lai apturētu viltota satura izplatīšanu un palīdzētu nodrošināt tīru demokrātisko garu.

Avots: https://blogs.microsoft.com/on-the-issues/2024/04/04/china-ai-influence-elections-mtac-cybersecurity/