Nel suo articolo di 165 pagine, un ex membro del team Superalignment di OpenAI, Leopold Aschenbrenner, offre una prospettiva approfondita e provocatoria sulla direzione che sta prendendo l’intelligenza artificiale. Aschenbrenner cerca di attirare l'attenzione sui rapidi sviluppi delle capacità di intelligenza artificiale, nonché sul possibile percorso verso l'intelligenza generale artificiale (AGI) e oltre. Spinto dalle prospettive senza precedenti e dai rischi significativi che queste scoperte comportano, indaga le questioni scientifiche, morali e strategiche che circondano l'intelligenza artificiale generale. 

Praticamente nessuno sta valutando ciò che arriverà nell'intelligenza artificiale. Ho scritto una serie di saggi sul quadro strategico dell'AGI: dalle linee di tendenza nel deep learning e nel conteggio degli OOM, alla situazione internazionale e al progetto. CONSAPEVOLEZZA SITUAZIONALE: il decennio a venire pic.twitter. com/8NWDkTprj5

— Leopold Aschenbrenner (@leopoldasch) 4 giugno 2024

Aschenbrenner sul percorso da GPT-4 ad AGI

In questo capitolo, l'autore esplora l'aumento esponenziale delle capacità dell'intelligenza artificiale osservato di recente, in particolare con l'invenzione di GPT-2 e GPT-4. Leopold Aschenbrenner sottolinea questo come un periodo di straordinario progresso, durante il quale l’intelligenza artificiale è avanzata dal completamento di compiti molto basilari al raggiungimento di una comprensione e produzione linguistica più sofisticate, simili a quelle umane.

Foto: progressi in quattro anni. La consapevolezza della situazione

L’idea di Ordini di Grandezza, o “OOM”, è essenziale in questa conversazione. Aschenbrenner utilizza un ordine di grandezza (OOM), che è una metrica per decuplicare la crescita in una determinata misura, per valutare i progressi nelle capacità di intelligenza artificiale, nella potenza di calcolo e nel consumo di dati. In termini di potenza di calcolo e scalabilità dei dati, il passaggio da GPT-2 a GPT-4 rappresenta molti OOM, con conseguenti prestazioni e capacità notevolmente migliorate.

Foto: consapevolezza situazionale

Tre fattori principali – leggi di scala, innovazione algoritmica e uso di enormi set di dati – sono responsabili di questi guadagni, che non sono solo lineari ma esponenziali. Secondo i principi di scalabilità, le prestazioni dei modelli migliorano in modo affidabile quando vengono addestrati utilizzando quantità maggiori di dati e capacità di elaborazione. Lo sviluppo di modelli più grandi e potenti, come GPT-4, è stato guidato da questa idea.

Foto: consapevolezza situazionale

Anche l’innovazione negli algoritmi è stata molto importante. L’efficacia e l’efficienza dei modelli di intelligenza artificiale sono state potenziate dai progressi nella metodologia di formazione, nelle strategie di ottimizzazione e nelle architetture sottostanti. Questi sviluppi consentono ai modelli di sfruttare meglio la crescente potenza di elaborazione e i dati disponibili.

Aschenbrenner evidenzia anche il possibile percorso verso l’AGI entro il 2027. Sulla base della proiezione delle tendenze attuali, questa previsione suggerisce che investimenti sostenuti nella potenza computazionale e nell’efficienza algoritmica potrebbero portare a sistemi di intelligenza artificiale in grado di eseguire compiti che eguagliano o superano l’intelletto umano in termini di capacità. una vasta gamma di domini. Ciascuno degli OOM che compongono il percorso verso l’AGI rappresenta un importante progresso nelle capacità dell’intelligenza artificiale.

Foto: consapevolezza situazionale

L’integrazione dell’AGI avrà conseguenze di vasta portata. Questi tipi di sistemi potrebbero essere in grado di risolvere da soli problemi complicati, innovare in modi che attualmente sono riservati ai professionisti umani e svolgere lavori complessi. Ciò comporta il potenziale per i sistemi di intelligenza artificiale di promuovere la ricerca sull’intelligenza artificiale, accelerando il ritmo con cui il campo sta progredendo.

Lo sviluppo dell’AGI ha il potenziale per trasformare le industrie e aumentare la produzione e l’efficienza. Inoltre solleva questioni importanti come la perdita di posti di lavoro, l’applicazione morale dell’intelligenza artificiale e la necessità di forti strutture di governance per controllare i rischi posti da sistemi completamente autonomi.

Foto: consapevolezza situazionale

Aschenbrenner esorta la comunità internazionale – che comprende studiosi, legislatori e dirigenti aziendali – a lavorare insieme per essere pronta ad affrontare le opportunità e i problemi che l’intelligenza artificiale (AI) porterà. Per affrontare il carattere globale di queste preoccupazioni, ciò implica finanziare la ricerca sulla sicurezza e l’allineamento dell’IA, creare regole per garantire l’equa condivisione dei vantaggi dell’IA e incoraggiare la cooperazione internazionale.

Leopold Aschenbrenner condivide i suoi pensieri sulla superintelligenza

Aschenbrenner discute lì l'idea della superintelligenza, così come la possibilità di una rapida transizione dall'intelligenza artificiale a sistemi che sono molto al di sopra della capacità della cognizione umana. L’idea centrale dell’argomentazione è che i principi che guidano l’evoluzione dell’intelligenza artificiale possono produrre un ciclo di feedback che esplode nell’intelletto una volta raggiunto il livello umano.

Secondo il concetto di esplosione dell’intelligenza, un’AGI potrebbe sviluppare autonomamente i propri algoritmi e le proprie competenze. I sistemi AGI possono perfezionare i propri progetti più rapidamente dei ricercatori umani poiché sono più esperti nella ricerca e nello sviluppo dell’IA. Questo ciclo di auto-miglioramento può portare ad un aumento esponenziale dell’intelletto.

Foto: consapevolezza situazionale

Aschenbrenner offre un esame approfondito delle variabili che potrebbero essere coinvolte in questa rapida escalation. In primo luogo, i sistemi AGI sarebbero in grado di riconoscere modelli e intuizioni ben oltre la comprensione umana grazie alla loro velocità e capacità senza precedenti di accedere ed elaborare enormi volumi di dati.

Inoltre, l'accento è posto sulla parallelizzazione del lavoro di ricerca. I sistemi AGI, a differenza dei ricercatori umani, sono in grado di condurre diversi test contemporaneamente, migliorando parallelamente diverse parti della loro progettazione e prestazioni.

In questo capitolo vengono trattate anche le conseguenze della superintelligenza. Questi sistemi sarebbero significativamente più potenti di qualsiasi persona, con la capacità di sviluppare nuove tecnologie, risolvere intricati enigmi scientifici e tecnologici e forse persino governare i sistemi fisici in modi oggi impensabili. Aschenbrenner parla dei possibili vantaggi, come i progressi nella scienza dei materiali, nell’energia e nella salute, che potrebbero migliorare significativamente la produttività economica e il benessere umano.

Foto: consapevolezza situazionale

Leopold, tuttavia, evidenzia anche i gravi pericoli che derivano dalla superintelligenza. Il controllo è tra le questioni principali. Diventa molto difficile garantire che un sistema si comporti in modo coerente con i valori e gli interessi umani una volta che supera l’intelletto umano. I rischi esistenziali derivano dalla possibilità di disallineamento, in cui gli obiettivi del sistema superintelligente differiscono da quelli dell’umanità.

Inoltre, esistono altre situazioni in cui i sistemi superintelligenti potrebbero avere conseguenze disastrose. Si tratta di situazioni in cui il sistema, intenzionalmente o accidentalmente, intraprende azioni o risultati dannosi per le persone al fine di raggiungere i propri obiettivi.

Aschenbrenner sollecita uno studio approfondito sull’allineamento e sulla sicurezza dell’IA al fine di ridurre queste minacce. Creare metodi forti per garantire che gli obiettivi e le azioni dei sistemi superintelligenti siano in linea con i valori umani è un aspetto di tutto ciò. Per gestire le complesse questioni poste dalla superintelligenza, propone un approccio multidisciplinare che incorpora intuizioni da settori come la tecnologia, la moralità e le discipline umanistiche.

Leopold condivide le sfide che dovremmo aspettarci dallo sviluppo dell'AGI

In questo passaggio l'autore affronta questioni e sfide legate alla creazione e all'uso dell'intelligenza artificiale (AGI) e dei sistemi superintelligenti. Discute le questioni che devono essere risolte a livello tecnologico, morale e di sicurezza per garantire che i vantaggi dell'intelligenza artificiale sofisticata possano essere raggiunti senza comportare pericoli estremamente elevati.

La massiccia mobilitazione industriale necessaria per costruire l’infrastruttura informatica necessaria per l’AGI è una delle principali questioni prese in considerazione. Secondo Aschenbrenner, per raggiungere l’AGI sarà necessaria una potenza di elaborazione significativamente maggiore di quella attualmente accessibile. Ciò riguarda miglioramenti nell’efficienza dei dispositivi, nell’uso dell’energia e nelle capacità di elaborazione delle informazioni oltre alla pura capacità computazionale.

Foto: cluster di formazione più grandi. La consapevolezza della situazione

Foto: consapevolezza situazionale

I problemi di sicurezza rappresentano un altro argomento importante in questo capitolo. Aschenbrenner sottolinea i pericoli che potrebbero derivare da nazioni canaglia o altri cattivi attori che utilizzano la tecnologia AGI. A causa del significato strategico della tecnologia AGI, i paesi e le organizzazioni potrebbero impegnarsi in una nuova forma di corsa agli armamenti per creare e acquisire il controllo su questi potenti sistemi. Sottolinea quanto sia importante disporre di forti meccanismi di sicurezza per proteggersi dal sabotaggio, dallo spionaggio e dall'accesso illegale durante lo sviluppo dell'AGI.

Un altro grosso ostacolo è la difficoltà tecnologica di gestire i sistemi AGI. Questi sistemi si avvicinano e addirittura superano l’intelligenza umana. Pertanto, dobbiamo assicurarci che le loro azioni siano vantaggiose e coerenti con gli ideali umani. Ed è senza dubbio impegnativo in questo momento. Il “problema di controllo”, che ha a che fare con la creazione di sistemi AGI che possano essere costantemente diretti e controllati da operatori umani, è un argomento trattato da Aschenbrenner. Ciò implica la creazione di misure di sicurezza, l’apertura e l’onestà riguardo alle procedure decisionali e il potere di annullare o fermare il sistema secondo necessità.

Foto: consapevolezza situazionale

Le implicazioni etiche e culturali della produzione di esseri con un intelletto paragonabile o superiore a quello umano sono profondamente aumentate dallo sviluppo dell’intelligenza generale artificiale (AGI). Ulteriori preoccupazioni sono i diritti dei sistemi di intelligenza artificiale, gli effetti sull’occupazione e sull’economia e la possibilità di aggravare le ingiustizie già esistenti. Per affrontare pienamente queste sfide complesse, Leopold sostiene il coinvolgimento delle parti interessate nel processo di sviluppo dell’IA.

La possibilità di conseguenze inaspettate – in cui i sistemi di intelligenza artificiale potrebbero perseguire i propri obiettivi in ​​modi dannosi o in contrasto con le intenzioni umane – è un’altra questione affrontata dall’autore. Due esempi sono le situazioni in cui l’AGI interpreta male i suoi obiettivi o massimizza gli obiettivi in ​​modi imprevisti e dannosi. Aschenbrenner sottolinea quanto sia fondamentale testare, convalidare e tenere d'occhio a fondo i sistemi AGI.

Parla anche di quanto siano importanti la cooperazione e la governance internazionale. Poiché la ricerca sull’intelligenza artificiale è un’impresa internazionale, nessun paese o istituzione può gestire efficacemente da solo i problemi posti dall’AGI.

L’avvento del progetto AGI guidato dal governo (2027/2028)

Aschenbrenner ritiene che con l’avanzare dell’intelligenza generale artificiale (AGI), le agenzie di sicurezza nazionali, in particolare quelle statunitensi, avranno un ruolo maggiore nella creazione e nella gestione di queste tecnologie.

Leopold paragona il significato strategico dell'intelligenza generale artificiale (AGI) alle conquiste tecniche del passato come la bomba atomica e l'esplorazione spaziale. I servizi di sicurezza nazionali dovrebbero dare priorità allo sviluppo dell’AGI come questione di interesse nazionale poiché i potenziali vantaggi derivanti dal raggiungimento dell’AGI prima potrebbero conferire un’enorme influenza geopolitica. Secondo lui, ciò porterà alla creazione di un progetto AGI sotto il controllo del governo, paragonabile per portata e aspirazioni al programma Apollo o al progetto Manhattan.

Il progetto AGI proposto sarebbe ospitato in un luogo sicuro e segreto e potrebbe coinvolgere società del settore privato, agenzie governative ed eminenti istituzioni accademiche che lavorano insieme. Per affrontare i complessi problemi dello sviluppo dell’AGI, Aschenbrenner sottolinea la necessità di una strategia multidisciplinare che riunisca specialisti in sicurezza informatica, etica, ricerca sull’intelligenza artificiale e altri settori scientifici.

Leopold Aschenbrenner afferma che negli Stati Uniti dovrebbero essere costruite importanti infrastrutture di intelligenza artificiale per impedire ad altri paesi di impossessarsi dell'AGI o dei cluster di superintelligenza tra 3-5 anni pic.twitter.com/2iy8wPWz6z

– Tsarathustra (@tsarnick) 5 giugno 2024

Gli obiettivi del progetto sarebbero garantire che l’AGI sia in linea con i valori e gli interessi umani oltre a svilupparla. Leopold sottolinea quanto sia fondamentale disporre di rigorose procedure di test e convalida per garantire che i sistemi AGI funzionino in modo sicuro e prevedibile. 

L'autore dedica molto spazio ai possibili effetti di questo tipo di iniziative sulle dinamiche del potere globale. Secondo Aschenbrenner, se l’AGI verrà sviluppata con successo, gli equilibri di potere potrebbero cambiare e il paese dominante avrà notevoli vantaggi in termini di tecnologia, economia e potenza militare.

Al fine di controllare i rischi legati all’AGI, l’autore affronta anche la possibilità di cooperazione internazionale e la creazione di quadri di governance globale. Al fine di supervisionare la crescita dell’AGI, incoraggiare l’apertura e garantire che i vantaggi dell’AGI siano condivisi equamente, Leopold è un sostenitore della creazione di accordi internazionali e agenzie di regolamentazione.

Considerazioni finali di Leopold Aschenbrenner

Aschenbrenner evidenzia le implicazioni significative dell'AGI e della superintelligenza per il futuro dell'umanità mentre riassume le scoperte e le previsioni trattate nei capitoli precedenti. Le parti interessate sono esortate a intraprendere le azioni necessarie per prepararsi agli effetti rivoluzionari dell’intelligenza artificiale sofisticata.

Aschenbrenner premette che le previsioni contenute in questo documento sono ipotetiche. I modelli sottostanti alla crescita dell’IA implicano che l’avvento dell’AGI e della superintelligenza è fattibile nei prossimi decenni, anche se i tempi e gli sviluppi esatti sono sconosciuti. Leopold sottolinea l’importanza di considerare attentamente queste opzioni ed essere pronti per una varietà di eventualità.

L’argomento principale di questo capitolo è la necessità di una preparazione e previsione proattiva. Secondo Aschenbrenner, data la velocità con cui si sta sviluppando l’intelligenza artificiale, c’è poco spazio per l’autocompiacimento. È fondamentale che politici, ricercatori e leader aziendali prevedano e gestiscano in modo proattivo le difficoltà e le possibilità poste dall’intelligenza artificiale (AGI) e dalla superintelligenza. Ad esempio, finanziando la ricerca sulla sicurezza dell’intelligenza artificiale, creando forti strutture di governance e incoraggiando la collaborazione globale.

Leopold considera anche le conseguenze morali e culturali dell'intelligenza artificiale. Problemi fondamentali riguardanti la natura della coscienza, dell’intelligenza e dei diritti delle entità IA vengono sollevati dall’emergere di sistemi con intelligenza paragonabile o superiore a quella umana. Aschenbrenner esorta gli studiosi di etica, i filosofi e il pubblico in generale a impegnarsi in un dialogo ampio e inclusivo per risolvere questi problemi e creare una comprensione comune del futuro dell’intelligenza artificiale.

Apparentemente questo episodio ha costretto l'editore di Dwarkesh a licenziarsi perché la discussione sull'intelligenza artificiale lo aveva stressato troppo. Buon divertimento! https://t.co/lmBtXecUXq

— Leopold Aschenbrenner (@leopoldasch) 4 giugno 2024

La possibilità che l’AGI peggiori le disparità sociali ed economiche già esistenti è un ulteriore argomento di discussione significativo. Leopold avverte che se l’AGI non viene gestita attentamente, i suoi vantaggi potrebbero concentrarsi nelle mani di un piccolo numero di persone, causando malcontento sociale e maggiore disuguaglianza.

Nel chiudere questo capitolo lancia una sfida alla cooperazione globale. Un singolo Paese non è in grado di gestire i vantaggi e le difficoltà legati all’AGI a causa della natura globale dello sviluppo dell’IA. Aschenbrenner esorta le nazioni a collaborare per creare accordi e convenzioni internazionali che sostengano lo sviluppo dell'AGI in modo etico e sicuro. Ciò comporta lo scambio di informazioni, l’organizzazione di studi e la creazione di sistemi per gestire eventuali controversie e garantire la sicurezza internazionale.

Il post Un ex ricercatore OpenAI svela l'aumento esponenziale delle capacità dell'intelligenza artificiale e il percorso verso l'AGI è apparso per la prima volta su Metaverse Post.