Il Dipartimento del Commercio sotto l’amministrazione Biden punta a una nuova iniziativa di conformità per limitare ulteriormente l’esportazione di modelli di intelligenza artificiale open o closed source. L’iniziativa rappresenta uno sforzo per salvaguardare gli interessi degli Stati Uniti e la tecnologia dell’intelligenza artificiale da Russia e Cina e integrerà le misure adottate negli ultimi due anni per bloccare l’accesso cinese ai più recenti chip per computer avanzati.

Lo sforzo degli Stati Uniti è quello di mettere barriere protettive più rigide attorno al software principale dei grandi modelli linguistici che alimentano app come ChatGPT, ha riferito Reuters, citando tre fonti che hanno familiarità con la questione. Mentre il notiziario afferma che i ricercatori del settore privato e del governo sono preoccupati per il fatto che gli avversari statunitensi possano utilizzare la tecnologia per attacchi informatici aggressivi e sviluppare armi biologiche, l'ambasciata cinese si è opposta a questa mossa e l'ha descritta come un bullismo unilaterale e economico. coercizione.

I deepfake sono un’arma letale di disinformazione

Le minacce che gli Stati Uniti temono sono molte e possono essere sfruttate da attori non statali sostenuti dagli stati. I deepfake possono essere utilizzati come un’arma efficace per la propaganda, poiché coinvolgono video realistici ma falsi creati da strumenti di intelligenza artificiale. 

Questi tipi di video stanno già emergendo sui social media. Sebbene tali contenuti multimediali siano in circolazione da alcuni anni, sviluppati con software di animazione e rendering, gli strumenti di intelligenza artificiale generativa ne hanno reso facile la produzione per chiunque, e gli attori disonesti possono sfruttarli più facilmente che mai per manipolare l’opinione pubblica su questioni delicate. , soprattutto durante le campagne elettorali.

Le piattaforme di social media come YouTube, Facebook e Twitter hanno già adottato misure per ridurre i deepfake, ma anche le tattiche per svilupparli e pubblicarli stanno cambiando con lo sviluppo della tecnologia. Al momento, strumenti di aziende come Microsoft e OpenAI possono essere utilizzati per creare contenuti per diffondere disinformazione.

Una preoccupazione molto più grande è che i modelli di intelligenza artificiale possano far trapelare informazioni per lo sviluppo di armi biologiche, secondo i ricercatori di Rand Corporation e Gryphon Scientific, e le agenzie di intelligence statunitensi, gli esperti accademici e i think tank sono preoccupati per la possibilità che l’intelligenza artificiale finisca nelle mani di criminali. elementi.

Lo studio Gryphon ha identificato come gli LLM possono sfornare conoscenze specialistiche e quella di livello di dottorato che possono aiutare nello sviluppo di virus con capacità pandemiche, e questo può essere utilizzato da attori non statali come armi biologiche.

Attacchi informatici amplificati con modelli di intelligenza artificiale

Il Dipartimento per la Sicurezza Nazionale ha anche espresso preoccupazione per il fatto che gli attacchi informatici contro infrastrutture cruciali come ferrovie e condutture potrebbero essere eseguiti con l’intelligenza artificiale sviluppando nuovi strumenti che saranno in grado di sferrare attacchi informatici su scala più ampia, più complessi e più rapidamente.

L’agenzia ha inoltre affermato che la Cina sta sviluppando un software di intelligenza artificiale che può essere utilizzato per attacchi malware e sta anche lavorando su tecnologie di intelligenza artificiale che potrebbero potenzialmente sabotare le difese informatiche del paese.

Funzioni ed entità che compongono l’ecosistema del Partito Comunista Cinese. Fonte: Microsoft.

Già a febbraio Microsoft aveva pubblicato un rapporto in cui rilevava di aver identificato gruppi informatici coinvolti in attività di hacking che stanno perfezionando le loro campagne di hacking utilizzando LLM e che hanno affiliazioni con l'intelligence militare della Russia, dei governi nordcoreano e cinese. e le Guardie Rivoluzionarie dell'Iran.

La società ha annunciato il divieto ai gruppi informatici finanziati dallo stato che utilizzano i suoi prodotti e servizi di intelligenza artificiale. Mercoledì, un gruppo di statisti ha proposto un disegno di legge che aiuterà il governo Biden a imporre controlli sull’esportazione di modelli di intelligenza artificiale per prevenirne l’esposizione a potenziali avversari.

Gli esperti in materia hanno affermato che Washington sta cercando di evitare normative prepotenti che potrebbero sopprimere l’innovazione mentre cercano di promuovere l’innovazione insieme a possibili soluzioni per i rischi associati all’intelligenza artificiale. Hanno inoltre sottolineato che l’applicazione di norme rigorose regolamentando rigorosamente il progresso dell’intelligenza artificiale creerà un vuoto per i concorrenti esteri e avrà un impatto negativo sui settori delle infrastrutture, della sicurezza nazionale e della scoperta di farmaci.