A fine luglio, Mark Zuckerberg ha scritto una lettera in cui spiega perché "l'open source è necessario per un futuro positivo dell'IA", in cui si dilunga poeticamente sulla necessità di uno sviluppo dell'IA open source. Il fondatore adolescente nerd, ora trasformatosi nel "Zuck" che pratica wakeboard, catene d'oro e lotta nel jiu-jitsu, è stato definito il messia dello sviluppo di modelli open source.
Ma finora, lui e il team Meta non hanno detto molto su come questi modelli vengono distribuiti. Poiché la complessità del modello aumenta i requisiti di elaborazione, se la distribuzione del modello è controllata da una manciata di attori, non siamo forse caduti in una forma simile di centralizzazione? L'intelligenza artificiale decentralizzata promette di risolvere questa sfida, ma la tecnologia richiede progressi nelle tecniche crittografiche leader del settore e soluzioni ibride uniche.
Questo articolo di opinione fa parte del nuovo DePIN Vertical di CoinDesk, che tratta del settore emergente delle infrastrutture fisiche decentralizzate.
A differenza dei provider cloud centralizzati, l'AI decentralizzata (DAI) distribuisce i processi computazionali per l'inferenza e l'addestramento dell'AI su più sistemi, reti e posizioni. Se implementate correttamente, queste reti, un tipo di rete infrastrutturale fisica decentralizzata (DePIN), apportano vantaggi in termini di resistenza alla censura, accesso al calcolo e costi.
DAI affronta sfide in due aree principali: l'ambiente AI e l'infrastruttura decentralizzata stessa. Rispetto ai sistemi centralizzati, DAI richiede misure di sicurezza aggiuntive per impedire l'accesso non autorizzato ai dettagli del modello o il furto e la replica di informazioni proprietarie. Per questo motivo, esiste un'opportunità poco esplorata per i team che si concentrano sui modelli open source, ma riconoscono il potenziale svantaggio in termini di prestazioni dei modelli open source rispetto alle loro controparti closed source.
I sistemi decentralizzati affrontano specificamente ostacoli nell'integrità della rete e nel sovraccarico delle risorse. La distribuzione dei dati dei client su nodi separati, ad esempio, espone più vettori di attacco. Gli aggressori potrebbero far girare un nodo e analizzarne i calcoli, provare a intercettare le trasmissioni di dati tra nodi o persino introdurre pregiudizi che degradano le prestazioni del sistema. Anche in un modello di inferenza decentralizzato sicuro, devono esserci meccanismi per verificare i processi di calcolo. I nodi sono incentivati a risparmiare sui costi delle risorse presentando calcoli incompleti e la verifica è complicata dalla mancanza di un attore centralizzato affidabile.
Dimostrazioni a conoscenza zero
Le dimostrazioni a conoscenza zero (ZKP), sebbene attualmente troppo costose dal punto di vista computazionale, sono una potenziale soluzione ad alcune sfide DAI. ZKP è un meccanismo crittografico che consente a una parte (il dimostratore) di convincere un'altra parte (il verificatore) della verità di un'affermazione senza divulgare alcun dettaglio sull'affermazione stessa, eccetto la sua validità. La verifica di questa dimostrazione è rapida da eseguire per gli altri nodi e offre un modo per ogni nodo di dimostrare di aver agito in conformità con il protocollo. Le differenze tecniche tra i sistemi di dimostrazione e le loro implementazioni (approfondimenti su questo in seguito) sono importanti per gli investitori nello spazio.
Il calcolo centralizzato rende l'addestramento del modello esclusivo per una manciata di attori ben posizionati e dotati di risorse. Gli ZKP potrebbero essere una parte dello sblocco del calcolo inattivo sull'hardware consumer; un MacBook, ad esempio, potrebbe usare la sua larghezza di banda di calcolo extra per aiutare ad addestrare un modello di linguaggio ampio, guadagnando token per l'utente.
L'implementazione di training o inferenza decentralizzati con hardware consumer è al centro dell'attenzione di team come Gensyn e Inference Labs; a differenza di una rete di elaborazione decentralizzata come Akash o Render, lo sharding dei calcoli aggiunge complessità, ovvero il problema della virgola mobile. L'utilizzo di risorse di elaborazione distribuite inattive apre le porte agli sviluppatori più piccoli per testare e addestrare le proprie reti, a patto che abbiano accesso a strumenti che risolvano le sfide associate.
Attualmente, i sistemi ZKP sono apparentemente da quattro a sei ordini di grandezza più costosi rispetto all'esecuzione nativa del calcolo e per attività che richiedono un calcolo elevato (come l'addestramento del modello) o una bassa latenza (come l'inferenza del modello) l'utilizzo di uno ZKP è proibitivamente lento. Per fare un confronto, un calo di sei ordini di grandezza significa che un sistema all'avanguardia (come Jolt di a16z) in esecuzione su un chip M3 Max può dimostrare che un programma è 150 volte più lento rispetto all'esecuzione su una calcolatrice grafica TI-84.
La capacità dell'IA di elaborare grandi quantità di dati la rende compatibile con le dimostrazioni a conoscenza zero (ZKP), ma sono necessari ulteriori progressi nella crittografia prima che le ZKP possano essere ampiamente utilizzate. Il lavoro svolto da team come Irreducible (che ha progettato il sistema di prova Binius e lo schema di impegno), Gensyn, TensorOpera, Hellas e Inference Labs, tra gli altri, sarà un passo importante per raggiungere questa visione. Le tempistiche, tuttavia, rimangono eccessivamente ottimistiche poiché la vera innovazione richiede tempo e progresso matematico.
Nel frattempo, vale la pena notare altre possibilità e soluzioni ibride. HellasAI e altri stanno sviluppando nuovi metodi di rappresentazione di modelli e calcoli che possono abilitare un gioco di sfida ottimistico, consentendo solo un sottoinsieme di calcoli che devono essere gestiti in zero-knowledge. Le prove ottimistiche funzionano solo quando c'è staking, la capacità di dimostrare un illecito e una minaccia credibile che il calcolo venga controllato da altri nodi nel sistema. Un altro metodo, sviluppato da Inference Labs, convalida un sottoinsieme di query in cui un nodo si impegna a generare uno ZKP con un legame, ma presenta la prova solo se prima contestata dal client.
In sintesi
L'addestramento e l'inferenza decentralizzati dell'IA fungeranno da salvaguardia contro il consolidamento del potere da parte di pochi attori principali, sbloccando al contempo un calcolo precedentemente inaccessibile. Gli ZKP saranno parte integrante dell'abilitazione di questa visione. Il tuo computer sarà in grado di farti guadagnare soldi veri in modo impercettibile utilizzando una potenza di elaborazione extra in background. Le prove succinte che un calcolo è stato eseguito correttamente renderanno superflua la fiducia che i più grandi provider di cloud sfruttano, consentendo alle reti di calcolo con provider più piccoli di attrarre clientela aziendale.
Mentre le dimostrazioni a conoscenza zero consentiranno questo futuro e saranno una parte essenziale di più di semplici reti di calcolo (come la visione di Ethereum per la finalità a slot singolo), il loro sovraccarico computazionale rimane un ostacolo. Le soluzioni ibride che combinano la meccanica della teoria dei giochi dei giochi ottimistici con l'uso selettivo delle dimostrazioni a conoscenza zero sono una soluzione migliore e probabilmente diventeranno onnipresenti come punto di collegamento finché gli ZKP non diventeranno molto più veloci.
Per gli investitori in criptovalute nativi e non nativi, comprendere il valore e le sfide dei sistemi di intelligenza artificiale decentralizzati sarà fondamentale per distribuire efficacemente il capitale. I team dovrebbero avere risposte alle domande relative alle prove di calcolo dei nodi e alle ridondanze di rete. Inoltre, come abbiamo osservato in molti progetti DePIN, la decentralizzazione avviene nel tempo e un piano chiaro dei team verso quella visione è essenziale. Risolvere le sfide associate al calcolo DePIN è essenziale per restituire il controllo a singoli e piccoli sviluppatori, una parte vitale per mantenere i nostri sistemi aperti, liberi e resistenti alla censura.
Nota: le opinioni espresse in questa rubrica sono quelle dell'autore e non riflettono necessariamente quelle di CoinDesk, Inc. o dei suoi proprietari e affiliati.