Altman desidera che l'IA "ami l'umanità"; l'IA ha fatto molta strada.
Il CEO di OpenAI, Sam Altman, ha espresso una grande aspirazione per l'IA: che "ami l'umanità."
Pur essendo fiducioso che questo tratto possa essere incorporato nei sistemi IA, ammette che non c'è certezza.
“Penso di sì,” osservò Altman quando gli fu posta la domanda dalla senior associate dean della Harvard Business School, Debora Spar.
Sam Altman afferma che se avesse un desiderio per l'IA, sarebbe che "ami l'umanità" e che allineare un sistema IA per lavorare in un modo particolare sta funzionando sorprendentemente bene pic.twitter.com/zQJmviq0W8
— Tsarathustra (@tsarnick) 20 novembre 2024
Quello che una volta sembrava il regno della fantascienza, dai romanzi di Isaac Asimov agli epici cinematografici di James Cameron, si è evoluto in un dibattito serio e pressante.
L'idea di un'ira dell'IA, precedentemente scartata come speculativa, è diventata una legittima preoccupazione normativa.
Le conversazioni che una volta potrebbero essere state relegate a teorie del complotto stanno ora plasmando discussioni politiche in tutto il mondo.
Altman ha evidenziato la relazione "abbastanza costruttiva" di OpenAI con il governo, riconoscendo l'importanza della collaborazione nell'affrontare l'evoluzione rapida dell'IA.
Ha anche osservato che un progetto dell'ampiezza dell'IA avrebbe idealmente dovuto essere guidato dai governi, sottolineando le vaste implicazioni sociali legate al suo sviluppo.
Altman ha osservato:
“In una società ben funzionante, questo sarebbe un progetto governativo. Dato che non sta accadendo, penso sia meglio che accada in questo modo come progetto americano.”
Le linee guida sulla sicurezza dell'IA non sono ancora lì
Il governo federale ha fatto pochi progressi nell'avanzare la legislazione sulla sicurezza dell'IA.
Un recente tentativo in California ha cercato di ritenere i programmatori di IA responsabili per abusi catastrofici, come la creazione di armi di distruzione di massa o attacchi alle infrastrutture critiche.
Sebbene il disegno di legge sia passato nella legislatura statale, è stato infine posto il veto dal governatore Gavin Newsom.
L'urgenza di affrontare l'allineamento dell'IA con il benessere umano è stata sottolineata da alcune delle voci più influenti nel campo.
Il premio Nobel Geoffrey Hinton, spesso chiamato il "Padrino dell'IA," ha espresso gravi preoccupazioni, ammettendo di non vedere un percorso chiaro per garantire la sicurezza dell'IA.
Geoffrey Hinton afferma che le aziende di IA dovrebbero essere costrette a utilizzare un terzo delle loro risorse informatiche nella ricerca sulla sicurezza perché l'IA diventerà più intelligente di noi nei prossimi 20 anni e dobbiamo iniziare a preoccuparci di cosa accadrà allora pic.twitter.com/ocT3Scmyxg
— Tsarathustra (@tsarnick) 25 ottobre 2024
Allo stesso modo, il CEO di Tesla Elon Musk ha costantemente avvertito che l'IA pone rischi esistenziali per l'umanità.
Ironia della sorte, Musk, un critico vocale delle attuali pratiche dell'IA, è stato una figura chiave nella fondazione di OpenAI, fornendo un significativo finanziamento iniziale—un contributo per il quale Altman rimane "grato," anche se Musk ora sta facendo causa all'organizzazione.
La sfida della sicurezza dell'IA ha stimolato la creazione di organizzazioni specializzate dedicate all'affrontare queste preoccupazioni.
Gruppi come l'Alignment Research Center e Safe Superintelligence, fondati dall'ex chief science officer di OpenAI, sono emersi per esplorare strategie per garantire che i sistemi IA operino in allineamento con i valori umani.
Questi sforzi evidenziano il crescente riconoscimento che lo sviluppo rapido dell'IA deve essere accompagnato da salvaguardie altrettanto rigorose per proteggere il futuro dell'umanità.
Altman spera che l'IA raggiunga l'empatia
Altman crede che il design attuale dell'IA si presti bene all'allineamento, rendendo più fattibile di quanto molti assumano garantire che i sistemi IA non pongano danno all'umanità.
Ha detto:
“Una delle cose che ha funzionato sorprendentemente bene è stata la capacità di allineare un sistema IA a comportarsi in un modo particolare. Quindi, se possiamo articolare cosa significa in diversi casi, allora sì, penso che possiamo far agire il sistema in quel modo.”
Propone un approccio innovativo per definire i principi e i valori che dovrebbero guidare lo sviluppo dell'IA: sfruttare l'IA stessa per interagire direttamente con il pubblico.
Altman prevede di utilizzare chatbot IA per sondare miliardi di utenti, raccogliendo informazioni sui loro valori e priorità.
Favorendo una comunicazione profonda e diffusa, l'IA potrebbe acquisire una comprensione sfumata delle sfide sociali e identificare quali misure servirebbero meglio il benessere pubblico.
Ha spiegato:
“Sono interessato all'esperimento mentale [in cui] un'IA chatta con te per un paio d'ore sul tuo sistema di valori. Lo fa con me, con tutti gli altri. E poi dice 'ok non posso rendere tutti felici tutto il tempo.'"
Altman suggerisce che questo feedback collettivo potrebbe quindi essere utilizzato per allineare i sistemi IA con gli interessi più ampi dell'umanità, creando potenzialmente un quadro affinché l'IA operi in armonia con gli obiettivi sociali.
Questo approccio non solo sottolinea il potenziale dell'IA come strumento per promuovere il dialogo globale, ma solleva anche domande stimolanti.
Sam Altman afferma che se avesse un desiderio per l'IA, sarebbe che "ami l'umanità" e che allineare un sistema IA per lavorare in un modo particolare sta funzionando sorprendentemente bene pic.twitter.com/zQJmviq0W8
— Tsarathustra (@tsarnick) 20 novembre 2024
Può un tale metodo catturare veramente la complessità dei valori umani?
E potrebbe bilanciare le prospettive diverse di miliardi per raggiungere una visione unificata del bene sociale?
L'idea di Altman offre uno sguardo su come l'IA potrebbe non solo servire l'umanità ma anche collaborare con essa per affrontare le nostre sfide più urgenti.
Molti ex dipendenti di OpenAI temono che la sicurezza sia diventata una priorità secondaria nell'IA.
OpenAI aveva una volta un team dedicato alla superallineamento focalizzato nel prevenire che la futura superintelligenza digitale andasse fuori controllo e causasse danni catastrofici.
Nel dicembre 2023, il team ha pubblicato un documento di ricerca iniziale che delinea un potenziale processo in cui un grande modello linguistico sovraintenderebbe un altro, fungendo da salvaguardia.
Tuttavia, nella primavera successiva, il team fu sciolto dopo che i suoi leader, Ilya Sutskever e Jan Leike, lasciarono l'azienda.
Leike ha citato crescenti disaccordi con la leadership di OpenAI riguardo alle sue priorità di sicurezza mentre l'azienda avanzava verso l'intelligenza generale artificiale (AGI)—un livello di intelligenza dell'IA comparabile a quello degli esseri umani.
Costruire macchine più intelligenti degli esseri umani è un'impresa intrinsecamente pericolosa.
OpenAI si sta assumendo una responsabilità enorme a nome di tutta l'umanità.
— Jan Leike (@janleike) 17 maggio 2024
La sua partenza ha evidenziato le crescenti tensioni sul bilanciamento tra innovazione e sicurezza nella corsa allo sviluppo dell'AGI.
Quando Leike se ne andò, Altman espresse gratitudine per i suoi contributi in un post su X (precedentemente noto come Twitter), ma la situazione lasciò molti a interrogarsi su come OpenAI avrebbe affrontato le preoccupazioni critiche sulla sicurezza in futuro.
sono molto grato per i contributi di @janleike alla ricerca sull'allineamento di openai e alla cultura della sicurezza, e molto triste di vederlo andare via. ha ragione, abbiamo molto di più da fare; siamo impegnati a farlo. farò un post più lungo nei prossimi giorni.
🧡 https://t.co/t2yexKtQEk
— Sam Altman (@sama) 17 maggio 2024