L’imminente ondata di elezioni in tutto il mondo è seguita da vicino dalle preoccupazioni per l’intelligenza artificiale e gli attacchi informatici che colpiscono il processo democratico. Secondo il rapporto di Mandiant, commissionato da Google Cloud, è stata rivelata una serie di minacce che solitamente vengono poste al grande pubblico da attori statali, criminali informatici e hacker politici. Ciò potrebbe mettere a repentaglio i prossimi processi elettorali in molti paesi del mondo.

Panorama delle minacce intensificato

Il rapporto di Mandiant accentua il crescente livello di minacce legate alle elezioni, sottolineando l’urgente bisogno di politiche di sicurezza onnicomprensive. Quest’anno parteciperanno al ballottaggio oltre 2 miliardi di elettori provenienti da 50 paesi, il che rende i rischi ancora più reali, implicando così la vigilanza per garantire che le minacce informatiche emergenti non possano avere successo.

Le operazioni di minaccia informatica sponsorizzate dallo stato cinese hanno ora adottato l’intelligenza artificiale (AI) per alimentare diffusi sforzi di disinformazione mirati alle elezioni in patria e all’estero. Gli ultimi rapporti evidenziano le famose strategie di questi aggressori, in particolare nelle elezioni a Taiwan e nelle imminenti elezioni presidenziali americane del 2020.

A Taiwan, l’adozione di notiziari generati dall’intelligenza artificiale che utilizzano presentatori falsi è diventato un modo perfetto per diffondere notizie false. Questi segmenti di notizie imitati, ricavati da CapCut, la creazione di ByteDance, sono tra gli strumenti chiave nella diffusione della disinformazione volta a interrompere il processo democratico. Inoltre, meme e video generati dall'intelligenza artificiale con l'intento di diffamare note figure politiche sono stati ampiamente distribuiti, determinando un'ampia diffusione di contenuti ingannevoli.

Allo stesso modo, gli Stati Uniti sono stati oggetto di incessanti tentativi da parte di autori di minacce sponsorizzati dallo stato cinese di manipolare la mentalità del paese attraverso campagne di disinformazione. Gli sforzi per la sicurezza informatica elettorale vanno oltre i tipici sforzi di hacking; queste campagne di disinformazione mirano a minare la volontà popolare e il processo elettorale. Gli avversari utilizzano ogni approccio possibile per manipolare i risultati, dal prendere di mira le macchine per il voto all’infiltrazione nelle campagne politiche e alla manipolazione dei social media.

Imperativo di sicurezza globale

Garantire le elezioni richiederà un approccio olistico che abbracci i vettori di minaccia dagli attacchi DDoS alla manipolazione dei deepfake. Mandiant pone molta enfasi sulla necessità di portare avanti le minacce alla sicurezza delle infrastrutture digitali e di ridurre al minimo le manipolazioni elettorali.

Sebbene le preoccupazioni più giustificabili sulla sicurezza informatica delle elezioni riguardino le interruzioni dirette delle votazioni e dei conteggi, molto più spesso gli avversari informatici cercano di seminare la percezione pubblica con la guerra dell’informazione: diffondendo notizie false, orchestrando attacchi DDoS e manipolando segretamente i social media con tutta l’ingegnosità. per modellare i risultati elettorali.

Di conseguenza, vi è l’aspettativa di misure di difesa proattive da parte delle organizzazioni elettorali per far fronte al mutevole panorama delle minacce. Ciò deve essere intrapreso con la comprensione delle minacce specifiche dirette ai singoli paesi in modo da migliorare l’anticipazione e le contromisure contro probabili attacchi che renderanno le istituzioni democratiche più resilienti.

Comitato per la sicurezza e la protezione dell'intelligenza artificiale dell'iniziativa del governo statunitense

Vale la pena notare che il governo degli Stati Uniti ha creato un comitato per la sicurezza e la protezione dell’intelligenza artificiale con i massimi leader tecnologici, mostrando un grande passo avanti. Tra i principali leader tecnologici citati nel consiglio ci sono Sam Altman di OpenAI, Satya Nadella di Microsoft e il CEO di Alphabet, Sundar Pichai. 

Il consiglio, tra le altre cose, consiglierà il Dipartimento per la sicurezza interna su come integrare al meglio l’intelligenza artificiale nelle infrastrutture critiche della nazione in modo sicuro e protetto. Tra gli altri al tavolo alto ci sono Jensen Huang, CEO di Nvidia; Kathy Warden, CEO di Northrop Grumman; e Ed Bastian, CEO di Delta Airlines.

L’AI Safety and Security Board collaborerà con il Dipartimento per la sicurezza interna degli Stati Uniti per eliminare qualsiasi suggerimento per incorporare l’intelligenza artificiale in infrastrutture critiche che potrebbero essere pericolose. Il Consiglio fornirà suggerimenti ai servizi di pubblica utilità, ai fornitori di trasporti e ai produttori su come implementare pratiche di sicurezza informatica coerenti con la forma di intelligenza artificiale più diffusa in questo momento.

L’obiettivo principale dell’AI Safety and Security Board è integrare in modo sicuro le tecnologie AI nei sistemi infrastrutturali critici. Questo sarebbe lo spazio in cui il consiglio spera di definire linee guida e postazioni di lavoro per l’implementazione con particolare attenzione alla sicurezza, alla protezione e all’affidabilità all’interno delle infrastrutture critiche. Raccogliere le migliori idee di leader esecutivi esperti del settore e sviluppare un quadro che consenta un’implementazione responsabile dell’intelligenza artificiale in diversi campi.

Anche il coinvolgimento delle parti interessate del settore privato in tale organizzazione gioca un ruolo nel mostrare uno sforzo congiunto nell’applicazione delle conoscenze e delle prospettive del settore nella definizione di politiche e regolamenti sull’IA. In questo caso, il consiglio è impegnato ad affrontare problemi complessi legati all’intelligenza artificiale nel garantire la sicurezza e l’incolumità, creando quindi fiducia e fiducia tra il pubblico.

Contenuti fuorvianti generati dall'intelligenza artificiale: rischi e svantaggi

I deepfake generati dall’intelligenza artificiale stanno diventando sempre più sofisticati, rendendo difficile distinguere il reale dai contenuti manipolati. I contenuti manipolati sotto forma di foto, video e file audio potrebbero minacciare la reputazione di un politico o di un partito politico. Potrebbe non essere pienamente esercitato in un’elezione schiacciante, ma il potere dell’intelligenza artificiale può alterare i risultati finali distorcendo la differenza in pochi voti cruciali in una competizione serrata.

Sono in corso sforzi globali per mitigare l’impatto che la manipolazione dell’intelligenza artificiale potrebbe avere sui processi elettorali. Diversi governi, le più grandi aziende tecnologiche del mondo e gli organi legislativi stanno guidando questo percorso attraverso il monitoraggio, la regolamentazione e, soprattutto, dando un senso all’impatto dell’intelligenza artificiale. Ad esempio, la maggior parte dei paesi ha istituito gruppi elettorali interni e implementato misure per prevenire i rischi associati all’intelligenza artificiale generativa.

Le misure preventive da adottare per prevenire le interferenze elettorali guidate dall’intelligenza artificiale includono la sensibilizzazione della popolazione sui rischi dei contenuti ingannevoli generati dall’intelligenza artificiale. Le campagne di sensibilizzazione sono progettate per sensibilizzare i consumatori sulla genuinità dei contenuti online e sulla possibilità stessa che siano fabbricati tramite l’intelligenza artificiale. Ciò aumenterebbe il sospetto nei confronti dell’informazione online, diminuendo ancora di più la fiducia nelle piattaforme digitali, con un aumento del problema della disinformazione e della cattiva informazione.