Divulgazione: i punti di vista e le opinioni qui espressi appartengono esclusivamente all'autore e non rappresentano i punti di vista e le opinioni dell'editoriale di crypto.news.

Elon Musk ha citato in giudizio OpenAI per la sua presunta deviazione dalla missione di sviluppare l'AGI "a beneficio dell'umanità". Carlos E. Perez sospetta che la causa potrebbe trasformare l'attuale leader del mercato dell'intelligenza artificiale generativa nel prossimo WeWork. 

Potrebbe piacerti anche: L'intelligenza artificiale decentralizzata creerà la prossima ondata di unicorni della Silicon Valley | Opinione

La trasformazione a scopo di lucro di OpenAI è al centro di questa battaglia legale. Tuttavia, l’eccessiva enfasi sul profitto tradisce gli interessi aziendali acquisiti. Inoltre distoglie l’attenzione da preoccupazioni più critiche per gli utenti finali, vale a dire la formazione etica sull’IA e la gestione dei dati. 

Grok, frutto dell'ingegno di Elon e concorrente di ChatGPT, può accedere a "informazioni in tempo reale" dai tweet. OpenAI è comunque famigerato per aver raschiato dati protetti da copyright a sinistra, a destra e al centro. Ora, Google ha siglato un accordo da 60 milioni di dollari per accedere ai dati degli utenti Reddit per addestrare Gemini e Cloud AI. 

Spingere semplicemente per l’open source non serve l’interesse dell’utente in questo ambiente. Hanno bisogno di modi per garantire un consenso e un compenso significativi per aiutare a formare i LLM. Le piattaforme emergenti che creano strumenti per il crowdsourcing dei dati di formazione sull’intelligenza artificiale, ad esempio, sono fondamentali a questo riguardo. Ne parleremo più avanti. 

È principalmente senza scopo di lucro per gli utenti

Oltre 5,3 miliardi di persone utilizzano Internet a livello globale e circa il 93% di loro utilizza i social media centralizzati. Pertanto, è probabile che la maggior parte dei 147 miliardi di terabyte di dati prodotti online nel 2023 siano stati generati dagli utenti. Si prevede che il volume supererà i 180 miliardi entro il 2025. 

Sebbene questo enorme set di dati o “informazioni disponibili al pubblico” alimenti la formazione e l’evoluzione dell’intelligenza artificiale, nella maggior parte dei casi gli utenti non ne raccolgono i benefici. Non hanno né controllo né proprietà reale. Anche il modo “Accetto” di dare il consenso non è significativo: nella migliore delle ipotesi è un inganno e nella peggiore una coercizione. 

I dati sono il nuovo petrolio. Non è nell’interesse di Big Tech dare agli utenti finali un maggiore controllo sui propri dati. Per prima cosa, pagare gli utenti per i dati aumenterebbe significativamente i costi di formazione LLM, che ammontano comunque a oltre 100 milioni di dollari. Tuttavia, come sostiene Chris Dixon in “Read, Write, Own”, cinque grandi aziende che controllano e potenzialmente “rovinano tutto” sono la corsia preferenziale verso la distopia. 

Tuttavia, data l’evoluzione delle blockchain come livello di dati distribuiti e fonte di verità, l’era migliore per gli utenti è appena iniziata. Ancora più importante, a differenza delle grandi aziende, le società di intelligenza artificiale della nuova era abbracciano tali alternative per migliorare le prestazioni, l’efficienza in termini di costi e, in definitiva, il miglioramento dell’umanità. 

Dati in crowdsourcing per una formazione etica sull’IA

Il modello di fiducia in lettura-scrittura di Web2 si basa sul fatto che le entità e le parti interessate non siano malvagie. Ma l’avidità umana non conosce limiti: siamo tutti un gruppo di “furfanti egoisti”, secondo il filosofo del XVIII secolo David Hume. 

Il modello read-write-own di Web3, quindi, utilizza blockchain, crittografia, ecc., in modo che i partecipanti alla rete distribuita non possano essere malvagi. Chris esplora ampiamente questa idea nel suo libro.

Lo stack tecnologico web3 è fondamentalmente orientato alla comunità e guidato dagli utenti. Fornire il toolkit per consentire agli utenti di riprendere il controllo sui propri dati (finanziari, sociali, creativi e di altro tipo) è una premessa fondamentale in questo ambito. Le blockchain, ad esempio, fungono da livelli di dati distribuiti e verificabili per regolare le transazioni e stabilire in modo immutabile la provenienza. 

Inoltre, negli ultimi due anni si sono evoluti meccanismi di privacy e sicurezza praticabili come le prove a conoscenza zero (zkProofs) o il calcolo multipartitico (MPC). Aprono nuove strade nella convalida, condivisione e gestione dei dati consentendo alle controparti di stabilire la verità senza rivelarne il contenuto. 

Queste ampie capacità sono estremamente rilevanti da un PoV di formazione sull'intelligenza artificiale. Ora è possibile ottenere dati affidabili senza fare affidamento su fornitori o validatori centralizzati. Ma, cosa ancora più importante, la natura decentralizzata e non intermediata di web3 aiuta a connettere direttamente coloro che producono dati, ovvero gli utenti, e i progetti che ne hanno bisogno per addestrare i modelli di intelligenza artificiale. 

L’eliminazione degli “intermediari fidati” e dei guardiani riduce significativamente i costi. Allinea inoltre gli incentivi in ​​modo che i progetti possano compensare gli utenti per i loro sforzi e contributi. Ad esempio, gli utenti possono guadagnare criptovalute completando microtask come registrare script nel loro dialetto nativo, riconoscere ed etichettare oggetti, ordinare e classificare immagini, strutturare dati non strutturati, ecc. 

Le aziende, d’altro canto, possono costruire modelli più accurati utilizzando dati di alta qualità convalidati dagli esseri umani nel circuito e a un prezzo equo. È una vittoria per tutti. 

Progressi dal basso verso l’alto, non semplicemente open source

I framework tradizionali sono talmente contrari agli individui e alle comunità di utenti che il semplice open source non significa nulla in quanto tale. Sono necessari cambiamenti radicali nei modelli di business e nei quadri di formazione esistenti per garantire una formazione etica sull’IA. 

La strada da percorrere è sostituire i sistemi top-down con un approccio dal basso verso l’alto. Si tratta anche di stabilire un ordine meritocratico che tenga in grande considerazione la proprietà, l’autonomia e la collaborazione. In questo mondo, la soluzione più redditizia è la distribuzione equa, non la massimizzazione. 

È interessante notare che questi sistemi andranno a vantaggio delle grandi aziende tanto quanto danno potere alle piccole imprese e ai singoli utenti. Perché, dopo tutto, dati di alta qualità, prezzi equi e modelli di intelligenza artificiale accurati sono cose di cui tutti hanno bisogno. 

Ora, con gli incentivi allineati, è nell’interesse condiviso del settore abbracciare e adottare modelli new age. Aggrapparsi a guadagni limitati e miopi non aiuterà a lungo termine. Il futuro ha esigenze diverse rispetto al passato. 

Per saperne di più: Cosa c'è di meglio che possedere i tuoi beni? Possedere i tuoi dati | Opinione

Autore: William Simonin

William Simonin è il presidente di Ta-da, un mercato di dati AI che sfrutta la blockchain per rendere ludica la verifica dei dati. In precedenza ha lavorato come ingegnere informatico e ricercatore per il Ministero della Difesa francese per circa sei anni e con l'Associazione per la Sicurezza di Epitech Nancy, ricoprendo il ruolo di Presidente e successivamente come Professore di Programmazione Funzionale. È un imprenditore francese e co-fondatore di numerose società di intelligenza artificiale, tecnologia e criptovaluta.