Secondo il Wall Street Journal, OpenAI, la società responsabile dello sviluppo di ChatGPT, ha recentemente subito una grave violazione della sicurezza, che ha sollevato preoccupazioni sui potenziali rischi per la sicurezza nazionale. L’incidente, avvenuto all’inizio dello scorso anno, ha messo in luce discussioni interne tra ricercatori e dipendenti, ma non ha compromesso il codice principale del sistema OpenAI. Nonostante la gravità dell’incidente, OpenAI ha scelto di non divulgare pubblicamente l’incidente, una decisione che ha portato a un esame interno ed esterno.

Comunicazioni interne di OpenAI compromesse

All'inizio del 2023, un hacker ha fatto irruzione nel sistema di messaggistica interno di OpenAI e ha estratto dettagli sulla tecnologia AI dell'azienda. Secondo due persone a conoscenza della questione, gli hacker hanno visitato un forum online dove i dipendenti hanno discusso degli ultimi progressi dell'intelligenza artificiale, ma non sono entrati nel sistema in cui è archiviata la tecnologia principale.

I dirigenti di OpenAI scelgono di non rivelarlo al pubblico

Secondo le fonti, i dirigenti di OpenAI hanno informato i dipendenti della questione in una riunione collettiva tenutasi presso la sede dell'azienda a San Francisco nell'aprile 2023, e anche il consiglio di amministrazione è stato informato. Nonostante la violazione, i dirigenti hanno scelto di non informare il pubblico, affermando che nessuna informazione sui clienti o sui partner era stata compromessa. Hanno valutato che l'hacker era un individuo senza legami con un governo straniero e non hanno segnalato la questione alle forze dell'ordine, compreso l'FBI.

Crescono le preoccupazioni per lo spionaggio straniero

La violazione ha accresciuto le preoccupazioni tra i dipendenti di OpenAI che gli avversari stranieri, in particolare la Cina, potessero rubare la tecnologia dell’intelligenza artificiale e minacciare la sicurezza nazionale degli Stati Uniti. L’incidente ha anche scatenato un dibattito all’interno dell’azienda sull’adeguatezza delle misure di sicurezza di OpenAI, nonché sui rischi più ampi associati all’intelligenza artificiale.

Emergono problemi di sicurezza dell’IA

In seguito all'incidente, il responsabile del progetto tecnico di OpenAI, Leopold Aschenbrenner, ha presentato una nota al consiglio esprimendo preoccupazione per la vulnerabilità dell'azienda allo spionaggio da parte di entità straniere. Aschenbrenner è stato successivamente licenziato per presunte fughe di notizie. Ritiene che le misure di sicurezza dell'azienda siano insufficienti per proteggere dalle minacce sofisticate di attori stranieri.

Dichiarazione ufficiale di OpenAI

La portavoce di OpenAI Liz Bourgeois ha riconosciuto le preoccupazioni di Aschenbrenner ma ha affermato che la sua partenza non era correlata alle questioni da lui sollevate. Ha sottolineato che OpenAI è impegnata a costruire un'intelligenza generale artificiale (AGI) sicura, ma non è d'accordo con la valutazione di Aschenbrenner dei suoi protocolli di sicurezza.

Lo spionaggio tecnologico nel contesto della guerra sino-americana

Le preoccupazioni sui potenziali legami con la Cina non sono infondate. Ad esempio, il presidente della Microsoft Brad Smith ha recentemente testimoniato che gli hacker cinesi hanno utilizzato i sistemi dell'azienda per attaccare le reti federali. Tuttavia, i vincoli legali vietano a OpenAI di discriminare nelle assunzioni in base all’origine nazionale, poiché il blocco dei talenti stranieri potrebbe ostacolare il progresso dell’IA negli Stati Uniti.

(Da DEI o MEI: perché la politica di reclutamento dell'unicorno AI ScaleAI fa sì che Musk e Coinbase annuiscano frequentemente?)

L’importanza dei talenti diversi

Matt Knight, responsabile della sicurezza di OpenAI, ha sottolineato che il reclutamento dei migliori talenti globali è necessario nonostante i rischi. Ha sottolineato l’importanza di trovare un equilibrio tra le preoccupazioni relative alla sicurezza e la necessità di un pensiero innovativo per far avanzare la tecnologia dell’intelligenza artificiale.

L’intero settore dell’intelligenza artificiale si trova ad affrontare sfide

OpenAI non è l’unica azienda ad affrontare queste sfide. Anche concorrenti come Meta e Google stanno sviluppando potenti sistemi di intelligenza artificiale, alcuni dei quali sono open source, promuovendo la trasparenza e la risoluzione collettiva dei problemi nel settore. Tuttavia, permangono preoccupazioni riguardo al fatto che l’intelligenza artificiale venga utilizzata per fuorviare informazioni e sostituire posti di lavoro.

Valutazione del rischio per la sicurezza nazionale: l’intelligenza artificiale può creare armi biologiche e chimiche

Alcuni studi condotti da società di intelligenza artificiale come OpenAI e Anthropic hanno scoperto che l’attuale tecnologia di intelligenza artificiale presenta pochi rischi per la sicurezza nazionale. Tuttavia, continua il dibattito sul potenziale futuro dell’intelligenza artificiale per creare armi biologiche e chimiche o hackerare i sistemi governativi. Aziende come OpenAI e Anthropic stanno affrontando attivamente queste preoccupazioni rafforzando i loro protocolli di sicurezza e istituendo comitati focalizzati sulla sicurezza dell’IA.

Azione legislativa del governo: restrizioni su alcune tecnologie di intelligenza artificiale

I legislatori federali e statali stanno prendendo in considerazione normative che limiterebbero il rilascio di determinate tecnologie di intelligenza artificiale e penalizzerebbero gli usi dannosi. Le normative hanno lo scopo di ridurre i rischi a lungo termine, anche se gli esperti ritengono che ci vorranno ancora anni prima che emergano pericoli significativi derivanti dall’intelligenza artificiale.

I progressi della Cina nell’intelligenza artificiale

Le aziende cinesi stanno facendo rapidi progressi nella tecnologia dell’intelligenza artificiale e la Cina ospita un gran numero dei migliori ricercatori di intelligenza artificiale del mondo. Esperti come Clément Delangue di Hugging Face ritengono che la Cina potrebbe presto superare gli Stati Uniti in termini di capacità di intelligenza artificiale.

Appello per uno sviluppo responsabile dell’IA

Anche se le probabilità attuali sono basse, figure di spicco come Susan Rice chiedono una seria considerazione degli scenari peggiori dell’IA, sottolineando la responsabilità di affrontare rischi potenzialmente ad alto impatto.

Questo articolo Wall Street Journal: Gli hacker hanno invaso OpenAI, sollevando preoccupazioni per la sicurezza nazionale È apparso per la prima volta su Chain News ABMedia.