TLDR:

  • Gli scienziati dell'intelligenza artificiale mettono in guardia dai potenziali esiti catastrofici se gli esseri umani perdessero il controllo dell'intelligenza artificiale

  • Sollecitati un sistema di controllo globale e piani di emergenza per prevenire i rischi dell'intelligenza artificiale

  • Tre processi chiave proposti: preparazione alle emergenze, garanzia della sicurezza e ricerca indipendente

  • Oltre 30 esperti provenienti da vari paesi hanno firmato la dichiarazione

  • Preoccupazioni sollevate sulla mancanza di scambio scientifico tra superpotenze sulle minacce dell'intelligenza artificiale

Gli esperti di intelligenza artificiale (IA) di tutto il mondo hanno lanciato l'allarme sui potenziali rischi associati ai sistemi di IA avanzati.

In una dichiarazione rilasciata il 16 settembre 2024, più di 30 scienziati provenienti da vari paesi, tra cui Stati Uniti, Canada, Cina e Regno Unito, hanno chiesto la creazione di un sistema di supervisione globale per prevenire possibili "esiti catastrofici" se gli esseri umani perdessero il controllo dell'intelligenza artificiale.

La dichiarazione, che si basa sui risultati del Dialogo internazionale sulla sicurezza dell'intelligenza artificiale svoltosi a Venezia, sottolinea la necessità di cooperazione e governance internazionali nello sviluppo dell'intelligenza artificiale.

Gli scienziati sostengono che la sicurezza dell'intelligenza artificiale dovrebbe essere riconosciuta come un bene pubblico globale, il che richiede sforzi collettivi per affrontare i potenziali rischi.

Una delle principali preoccupazioni evidenziate nella dichiarazione è la possibilità di perdere il controllo umano sui sistemi di intelligenza artificiale avanzata o il loro uso malevolo. Gli esperti avvertono che tali scenari potrebbero portare a conseguenze disastrose per l'umanità.

Sottolineano che non è ancora stata sviluppata la scienza necessaria per controllare e salvaguardare l'intelligenza artificiale altamente avanzata, sottolineando l'urgenza di affrontare queste problematiche.

Per affrontare queste sfide, gli scienziati propongono tre processi chiave.

  • In primo luogo, chiedono l'istituzione di accordi e istituzioni per la preparazione alle emergenze. Ciò implicherebbe lo sviluppo di autorità all'interno di ogni paese per rilevare e rispondere agli incidenti di IA e ai rischi catastrofici. Queste autorità nazionali lavoreranno quindi insieme per creare un piano di emergenza globale per gravi incidenti correlati all'IA.

  • Il secondo processo proposto è l'implementazione di un framework di garanzia della sicurezza. Ciò richiederebbe agli sviluppatori di IA di fornire un caso di sicurezza ad alta affidabilità prima di distribuire modelli con capacità che superano le soglie specificate. Il framework includerebbe anche il monitoraggio post-distribuzione e audit indipendenti per garantire la sicurezza continua.

  • Infine, gli esperti promuovono una ricerca indipendente sulla sicurezza e la verifica dell'IA a livello globale. Questa ricerca si concentrerebbe sullo sviluppo di tecniche per verificare rigorosamente le affermazioni sulla sicurezza fatte dagli sviluppatori di IA e potenzialmente da altre nazioni. Per garantire l'indipendenza, la ricerca verrebbe condotta a livello globale e finanziata da un'ampia gamma di governi e filantropi.

La dichiarazione giunge in un momento in cui lo scambio scientifico tra superpotenze si sta riducendo e la sfiducia tra Stati Uniti e Cina sta crescendo. Gli scienziati sostengono che questa mancanza di cooperazione rende più difficile raggiungere un consenso sulle minacce dell'IA, sottolineando ulteriormente la necessità di dialogo e collaborazione globali.

All'inizio di settembre 2024, gli Stati Uniti, l'Unione Europea e il Regno Unito hanno firmato il primo trattato internazionale sull'IA giuridicamente vincolante al mondo. Questo accordo dà priorità ai diritti umani e alla responsabilità nella regolamentazione dell'IA. Tuttavia, alcune aziende tecnologiche e dirigenti hanno espresso preoccupazioni sul fatto che una regolamentazione eccessiva potrebbe soffocare l'innovazione, in particolare nell'Unione Europea.

Il gruppo di esperti di intelligenza artificiale che ha firmato la dichiarazione comprende ricercatori provenienti da importanti istituti e università nel campo dell'intelligenza artificiale, nonché diversi vincitori del premio Turing, considerato l'equivalente del premio Nobel per l'informatica.

La loro competenza collettiva conferisce un peso significativo alle preoccupazioni sollevate e alle raccomandazioni formulate nella dichiarazione.

L'articolo Proteggere l'umanità dall'intelligenza artificiale: gli esperti chiedono una supervisione globale per prevenire una potenziale catastrofe causata dall'intelligenza artificiale è apparso per la prima volta su Blockonomi.