Parte della magia dell’intelligenza artificiale generativa è che la maggior parte delle persone non ha idea di come funzioni. Ad un certo livello, è anche giusto dire che nessuno è del tutto sicuro di come funzioni, poiché il funzionamento interno di ChatGPT può lasciare perplessi gli scienziati più brillanti. È una scatola nera. Non siamo del tutto sicuri di come venga addestrato, quali dati producano quali risultati e quale proprietà intellettuale venga calpestata nel processo. Questo fa parte della magia e parte di ciò che è terrificante. Ariana Spring sarà relatrice al Consensus festival di quest'anno, ad Austin, Texas, dal 29 al 31 maggio.

E se ci fosse un modo per scrutare all’interno della scatola nera, consentendo una chiara visualizzazione di come l’intelligenza artificiale viene governata, addestrata e prodotta? Questo è l’obiettivo – o uno degli obiettivi – di EQTY Lab, che conduce ricerche e crea strumenti per rendere i modelli di intelligenza artificiale più trasparenti e collaborativi. Lineage Explorer di EQTY Lab, ad esempio, fornisce una visione in tempo reale di come viene costruito il modello.

Tutti questi strumenti sono intesi come controllo contro l’opacità e la centralizzazione. "Se non capisci perché un'intelligenza artificiale prende le decisioni che sta prendendo o chi ne è responsabile, è davvero difficile chiedersi perché vengono emesse cose dannose", afferma Ariana Spring, responsabile della ricerca presso EQTY Lab. “Quindi penso che la centralizzazione – e mantenere questi segreti nelle scatole nere – sia davvero pericolosa”.

Insieme al suo collega Andrew Stanco (responsabile delle finanze), Spring spiega come le criptovalute possono creare un'intelligenza artificiale più trasparente, come questi strumenti sono già utilizzati al servizio della scienza del cambiamento climatico e perché questi modelli open source possono essere più inclusivi e rappresentativi l'umanità in generale.

L'intervista è stata condensata e leggermente modificata per maggiore chiarezza.

Qual è la visione e l’obiettivo di EQTY Lab?

Ariana Spring: Stiamo sperimentando nuove soluzioni per creare fiducia e innovazione nell'intelligenza artificiale. E l'intelligenza artificiale generativa è un argomento caldo in questo momento, e questa è la proprietà più emergente, quindi è qualcosa su cui ci concentriamo.

Ma esaminiamo anche tutti i diversi tipi di intelligenza artificiale e gestione dei dati. E davvero la fiducia e l'innovazione sono i punti su cui ci appoggiamo. Lo facciamo utilizzando la crittografia avanzata per rendere i modelli più trasparenti, ma anche collaborativi. Consideriamo la trasparenza e la collaborazione come due facce della stessa medaglia che mira a creare un’intelligenza artificiale più intelligente e sicura.

Puoi parlarci ancora un po’ di come le criptovalute si inseriscono in tutto questo? Perché vedi molte persone dire che "Cripto e intelligenza artificiale sono un'ottima soluzione", ma spesso la logica si ferma a un livello molto alto.

Andrew Stanco: Penso che l'intersezione tra AI e criptovaluta sia una questione aperta, giusto? Una cosa che abbiamo scoperto è che il segreto nascosto dell’intelligenza artificiale è che è collaborativa; ha una moltitudine di stakeholder. Nessuno scienziato dei dati potrebbe creare un modello di intelligenza artificiale. Possono addestrarlo, possono metterlo a punto, ma la crittografia diventa un modo per fare qualcosa e quindi avere un modo a prova di manomissione per verificare che sia successo.

Pertanto, in un processo complesso come la formazione sull’intelligenza artificiale, disporre di attestati verificabili e a prova di manomissione, sia durante la formazione che successivamente, aiuta davvero. Crea fiducia e visibilità.

Ariana Spring: Ciò che facciamo è che in ogni fase del ciclo di vita dell'IA e del processo di formazione ci sia un'autenticazione - o un timbro - di ciò che è accaduto. Questo è l'ID decentralizzato, o identificatore, associato all'agente, all'essere umano o alla macchina che sta intraprendendo quell'azione. Hai il timestamp. E con il nostro Lineage Explorer, puoi vedere che tutto ciò che facciamo viene registrato automaticamente utilizzando la crittografia.

E poi utilizziamo contratti intelligenti nei nostri prodotti di governance. Pertanto, se il parametro X viene soddisfatto o meno, una determinata azione può procedere o meno. Uno degli strumenti di cui disponiamo è un Governance Studio, che fondamentalmente programma come addestrare un'IA o come gestire il ciclo di vita dell'IA, e questo si riflette poi a valle.

Puoi chiarire un po’ che tipo di strumenti stai costruendo? Ad esempio, stai costruendo strumenti e facendo ricerche destinate ad aiutare altre startup a costruire modelli di formazione o stai costruendo modelli di formazione tu stesso? In altre parole, qual è esattamente il ruolo di EQTY Labs in questo ambiente?

Andrew Stanco: È un mix, in un certo senso, perché la nostra attenzione è rivolta all'impresa, poiché quello sarà uno dei primi grandi luoghi in cui sarà necessario ottenere un'intelligenza artificiale corretta dal punto di vista della formazione e della governance. Se approfondisci questo aspetto, allora dobbiamo avere un'area in cui uno sviluppatore, o qualcuno in quell'organizzazione, possa annotare il codice e dire: "Okay, questo è quello che è successo", e quindi creare un record. È focalizzato sull'impresa, con un'enfasi sulla collaborazione con gli sviluppatori e le persone che creano e distribuiscono i modelli.

Ariana Spring: E ​​abbiamo lavorato anche sulla formazione del modello attraverso il Fondo per l’intelligenza climatica. Abbiamo contribuito alla formazione di un modello chiamato ClimateGPT, che è un modello di linguaggio ampio specifico per il clima. Questo non è il nostro pane quotidiano, ma abbiamo seguito il processo e utilizzato la nostra suite di tecnologie per visualizzare quel processo. Quindi capiamo com'è.

Cosa ti entusiasma di più dell'intelligenza artificiale e cosa ti terrorizza di più dell'intelligenza artificiale?

Andrew Stanco: Voglio dire, per eccitazione, quel primo momento in cui interagisci con l'intelligenza artificiale generativa ti è sembrato di aver stappato il fulmine nel modello. La prima volta che crei un prompt in MidJourney o che fai una domanda a ChatGPT, nessuno ha dovuto convincerti che forse è potente. E non pensavo ci fossero più molte novità, vero?

E per quanto riguarda il terrore?

Andrew Stanco: Penso che questa sia una preoccupazione che forse è il sottotesto di molto di ciò che accadrà al Consensus, solo dando una sbirciatina all'ordine del giorno. La preoccupazione è che questi strumenti consentano ai vincitori esistenti di approfondire le modalità. Che questa non è necessariamente una tecnologia dirompente, ma radicata.

E Ariana, la tua principale eccitazione e terrore dell'IA?

Ariana Spring: Inizierò con la mia paura perché stavo per dire qualcosa di simile. Direi centralizzazione. Abbiamo visto i danni della centralizzazione se abbinati alla mancanza di trasparenza su come funziona qualcosa. Lo abbiamo visto negli ultimi 10, 15 anni con i social media, per esempio. E se non capisci perché un’intelligenza artificiale prende le decisioni che sta prendendo o chi ne è responsabile, è davvero difficile chiedersi perché vengono diffuse cose dannose. Quindi penso che la centralizzazione – e mantenere questi segreti nelle scatole nere – sia davvero pericolosa.

Che ne dici dell'eccitazione?

Ciò che mi entusiasma di più è coinvolgere più persone. Abbiamo avuto la possibilità di lavorare con diversi tipi di gruppi di stakeholder mentre stavamo formando ClimateGPT, come gruppi indigeni di anziani o giovani a basso reddito, urbani, neri e di colore, o studenti in Medio Oriente. Stiamo lavorando con tutti questi attivisti climatici e accademici per dire: "Ehi, vuoi contribuire a migliorare questo modello?"

La gente è davvero emozionata, ma forse non ha capito come funzionava. Una volta che abbiamo insegnato loro come funziona e come possono aiutare, potevi vederli dire: "Oh, va bene". Acquisiscono fiducia. Quindi vogliono contribuire di più. Quindi sono davvero entusiasta, soprattutto attraverso il lavoro che stiamo svolgendo presso EQTY Research, di iniziare a pubblicare alcuni di questi framework, quindi non dobbiamo fare affidamento su sistemi che forse non sono così rappresentativi.

Ben detto. Ci vediamo ad Austin al Summit AI di Consensus.