Un gruppo di scienziati specializzati in intelligenza artificiale sta esortando le nazioni a creare un sistema di controllo globale per prevenire potenziali “esiti catastrofici” qualora gli esseri umani perdessero il controllo dell’intelligenza artificiale.
In una dichiarazione rilasciata il 16 settembre, un gruppo di influenti scienziati dell'intelligenza artificiale ha espresso preoccupazione per il fatto che la tecnologia da loro sviluppata potrebbe causare gravi danni se si perdesse il controllo umano.
“La perdita del controllo umano o l’uso malevolo di questi sistemi di intelligenza artificiale potrebbero portare a risultati catastrofici per tutta l’umanità”, si legge nella dichiarazione prima di continuare:
“Purtroppo non abbiamo ancora sviluppato la scienza necessaria per controllare e salvaguardare l’uso di un’intelligenza così avanzata”.
Gli scienziati hanno convenuto che le nazioni devono sviluppare autorità per rilevare e rispondere agli incidenti di intelligenza artificiale e ai rischi catastrofici all'interno delle loro giurisdizioni e che è necessario sviluppare un "piano di emergenza globale".
“Nel lungo termine, gli stati dovrebbero sviluppare un regime di governance internazionale per prevenire lo sviluppo di modelli che potrebbero comportare rischi catastrofici globali”.
La dichiarazione si basa sui risultati del Dialogo internazionale sulla sicurezza dell'intelligenza artificiale tenutosi a Venezia all'inizio di settembre, il terzo incontro di questo tipo organizzato dal gruppo di ricerca statunitense no-profit Safe AI Forum.
La professoressa Gillian Hadfield della Johns Hopkins University, che ha condiviso la dichiarazione in un post su X, ha detto: "Se tra sei mesi ci fosse una specie di catastrofe, se scoprissimo che ci sono modelli che stanno iniziando a migliorarsi autonomamente, chi chiameremmo?"
Fonte: Gillian Hadfield
Hanno affermato che la sicurezza dell'intelligenza artificiale è riconosciuta come un bene pubblico globale, che richiede cooperazione e governance internazionali.
Gli sviluppatori di intelligenza artificiale hanno proposto tre processi chiave: accordi e istituzioni per la preparazione alle emergenze, un quadro di garanzia della sicurezza e una ricerca indipendente sulla sicurezza e la verifica dell'intelligenza artificiale a livello globale.
La dichiarazione ha avuto più di 30 firmatari provenienti da Stati Uniti, Canada, Cina, Gran Bretagna, Singapore e altri paesi. Il gruppo comprendeva esperti provenienti da importanti istituti di ricerca e università sull'intelligenza artificiale e diversi vincitori del premio Turing, l'equivalente del premio Nobel per l'informatica.
Gli scienziati hanno affermato che il dialogo era necessario a causa della riduzione degli scambi scientifici tra le superpotenze e della crescente sfiducia tra Stati Uniti e Cina, che aumentano la difficoltà di raggiungere un consenso sulle minacce dell'intelligenza artificiale.
All’inizio di settembre, Stati Uniti, Unione Europea e Regno Unito hanno firmato il primo trattato internazionale giuridicamente vincolante sull’intelligenza artificiale, dando priorità ai diritti umani e alla responsabilità nella regolamentazione dell’intelligenza artificiale.
Tuttavia, le aziende tecnologiche e i dirigenti hanno affermato che una regolamentazione eccessiva potrebbe soffocare l'innovazione, soprattutto nell'Unione Europea.
Rivista: piano di “inferno” per i droni AI per Taiwan, gli LLM sono troppo stupidi per distruggere l’umanità: AI Eye