TL;DR Ripartizione

  • OpenAI sta sensibilizzando sui rischi della superintelligenza artificiale e sta formando un team dedicato per affrontare queste preoccupazioni.

  • L’azienda sottolinea l’allineamento della superintelligenza con i valori e le intenzioni umane e la creazione di nuove istituzioni di governance.

  • OpenAI riconosce che l’allineamento dell’AGI comporta rischi significativi e potrebbe richiedere uno sforzo collettivo da parte dell’umanità.

Il CEO di OpenAI, Sam Altman, ha intrapreso una campagna globale per aumentare la consapevolezza sui potenziali pericoli della superintelligenza artificiale, dove le macchine superano l’intelligenza umana e potrebbero diventare incontrollabili.

In risposta a queste preoccupazioni, OpenAI ha recentemente annunciato la formazione di un team dedicato incaricato di sviluppare metodi per affrontare i rischi associati alla superintelligenza, che potrebbero emergere entro questo decennio.

L'azienda sottolinea che per gestire efficacemente la superintelligenza è necessario creare nuove istituzioni di governance e risolvere la sfida critica di allineare la superintelligenza ai valori e alle intenzioni umane.

OpenAI riconosce che l'allineamento dell'AGI (Intelligenza Artificiale Generale) comporta rischi significativi per l'umanità e potrebbe richiedere uno sforzo collettivo da parte di tutta l'umanità, come affermato in un post sul blog pubblicato lo scorso anno.

Denominato "Superalignment", il team di recente formazione è composto da ricercatori e ingegneri di alto livello nel campo dell'apprendimento automatico. Ilya Sutskever, co-fondatore e scienziato capo di OpenAI, e Jan Leike, responsabile dell'allineamento, stanno guidando questa iniziativa.

Per affrontare le principali sfide tecniche dell'allineamento della superintelligenza, OpenAI si è impegnata a dedicare il 20% delle sue risorse computazionali acquisite finora al problema dell'allineamento. L'azienda prevede che entro quattro anni risolverà queste sfide.

L'obiettivo primario del team di superallineamento è sviluppare un ricercatore di allineamento automatizzato di livello umano. Ciò comporta la creazione di sistemi di intelligenza artificiale in grado di allineare efficacemente sistemi di intelligenza artificiale superintelligenti, superando gli esseri umani in termini di velocità e precisione.

Per raggiungere questo traguardo, il team si concentrerà sullo sviluppo di un metodo di training scalabile che utilizzi sistemi AI per valutare altri sistemi AI. Convalideranno il loro modello risultante automatizzando la ricerca di comportamenti potenzialmente problematici. La pipeline di allineamento sarà inoltre sottoposta a rigorosi stress test addestrando deliberatamente modelli non allineati per valutarne la rilevabilità.

Gli sforzi di OpenAI per affrontare i rischi della superintelligenza segnano un significativo passo avanti nel perseguire uno sviluppo dell'IA responsabile e allineato. Riunendo un team di ricercatori di alto livello e impegnando risorse computazionali sostanziali, l'azienda dimostra il suo impegno nel mitigare in modo proattivo i potenziali rischi associati all'avvento della superintelligenza. Mentre intraprende questo ambizioso viaggio, OpenAI stabilisce un precedente per la collaborazione e l'unità nella salvaguardia del futuro dell'umanità nell'era dell'IA.