Vitalik Buterin suona l'allerta: La minaccia imminente dell'IA superintelligente

Immagina un mondo in cui l'intelligenza artificiale supera l'intelligenza umana, portando a risultati catastrofici, inclusa la possibilità di estinzione umana. Questa non è una scena di un film di fantascienza; è una reale preoccupazione sollevata dal cofondatore di Ethereum Vitalik Buterin. Con il rapido avanzamento della tecnologia dell'IA, Buterin sta esortando il mondo ad agire e sviluppare un forte meccanismo di difesa contro i rischi associati all'IA superintelligente.

I rischi della crescita incontrollata dell'IA

Le avvertenze di Buterin arrivano in un momento in cui le preoccupazioni per la sicurezza dell'IA stanno crescendo esponenzialmente. In un recente post sul blog, ha delineato il suo concetto di “d/acc o accelerazione difensiva”, che enfatizza la necessità che la tecnologia venga sviluppata con la difesa in mente, piuttosto che concentrarsi esclusivamente sul progresso. Non è la prima volta che Buterin parla dei rischi dell'IA; nel 2023, ha evidenziato il potenziale dell'IA di causare l'estinzione umana.

Una timeline di tre anni per la superintelligenza

Le ultime avvertenze di Buterin sono più pressanti che mai, poiché crede che la superintelligenza potrebbe essere a soli pochi anni di distanza. “Sembra probabile che abbiamo timeline di tre anni fino all'AGI e altri tre anni fino alla superintelligenza,” ha scritto. Questa timeline sottolinea la necessità di un'azione immediata per mitigare i rischi legati all'IA.

Sistemi di IA Decentralizzati: Una potenziale soluzione

Per ridurre la minaccia di risultati catastrofici, Buterin sostiene la creazione di sistemi di IA decentralizzati che rimangano strettamente legati al processo decisionale umano. Assicurando che l'IA rimanga uno strumento nelle mani degli esseri umani, possiamo ridurre il rischio di conseguenze devastanti.

Il ruolo dei militari nella regolamentazione dell'IA

Buterin evidenzia anche i potenziali rischi associati all'uso militare dell'IA, in aumento a livello globale. Crede che qualsiasi regolamentazione dell'IA esenterebbe probabilmente i militari, rendendoli una minaccia significativa. Ciò solleva importanti interrogativi sulla necessità di cooperazione e regolamentazione internazionali nello sviluppo e nell'uso dell'IA.

Un piano in tre fasi per regolare l'IA

Buterin propone un piano in tre fasi per regolare l'uso dell'IA:

1. Responsabilità: Rendere gli utenti responsabili delle conseguenze dell'uso dell'IA. Tenendo gli utenti a responsabilità, possiamo incoraggiare uno sviluppo e un'implementazione dell'IA più responsabili. 2. Pulsanti di Pausa Morbidi: Implementare pulsanti di “pausa morbida” che consentano alla regolamentazione dell'IA di rallentare il ritmo dei potenziali avanzamenti pericolosi. Questo potrebbe comportare una riduzione della capacità computazionale globale disponibile del 90-99% per 1-2 anni per dare tempo all'umanità di prepararsi. 3. Controllo Internazionale: Controllare l'hardware dell'IA equipaggiandolo con un chip che richiede tre firme da parte di organismi internazionali settimanalmente, inclusa almeno una entità non militare.

Fermi temporanei, non soluzioni permanenti

Buterin riconosce che le sue strategie hanno delle lacune e sono solo fermi temporanei. Tuttavia, sottolinea la necessità di un'azione immediata per mitigare i rischi legati all'IA.

Mentre il mondo si dirige verso un futuro in cui l'IA supera l'intelligenza umana, è essenziale prendere sul serio le avvertenze di Buterin. Saremo in grado di sviluppare un forte meccanismo di difesa contro i rischi associati all'IA superintelligente, o soccomberemo ai pericoli della crescita incontrollata dell'IA? Il tempo stringe.

Fonte: Beincrypto.com

Il post Il piano di regolamentazione dell'IA di Vitalik Buterin: Responsabilità e Controllo è apparso per primo su CoinBuzzFeed.