Autore: Mahesh Ramakrishnan, Vinayak Kurup, CoinDesk Compilatore: Tao Zhu, Golden Finance;

Alla fine di luglio, Mark Zuckerberg ha scritto una lettera in cui spiegava perché “l’open source è essenziale per un futuro positivo dell’intelligenza artificiale”, in cui elogiava la necessità di uno sviluppo dell’intelligenza artificiale open source. L'adolescente fondatore, un tempo nerd, è ora diventato "Zuckerberg" che fa sci nautico, indossa catene d'oro e fa jujitsu, ed è conosciuto come il salvatore dello sviluppo di modelli open source.

Ma finora lui e il team Meta non hanno spiegato in dettaglio come verranno implementati questi modelli. Man mano che la complessità del modello aumenta nei requisiti computazionali, stiamo soccombendo a una forma simile di centralizzazione se la distribuzione del modello è controllata da un piccolo numero di attori? L’intelligenza artificiale decentralizzata promette di risolvere questa sfida, ma la tecnologia richiede progressi nella crittografia leader del settore e soluzioni ibride uniche.

A differenza dei fornitori di cloud centralizzati, l’intelligenza artificiale decentralizzata (DAI) distribuisce i processi computazionali di inferenza e formazione dell’intelligenza artificiale su più sistemi, reti e posizioni. Se implementate correttamente, queste reti – una rete di infrastruttura fisica decentralizzata (DePIN) – apporteranno vantaggi in termini di resistenza alla censura, accesso computazionale e costi.

DAI deve affrontare sfide in due aree principali: l’ambiente dell’intelligenza artificiale e l’infrastruttura decentralizzata stessa. Rispetto ai sistemi centralizzati, DAI richiede garanzie aggiuntive per impedire l'accesso non autorizzato ai dettagli del modello o il furto e la copia di informazioni proprietarie. Pertanto, esiste un’opportunità sottoutilizzata per i team che si concentrano sui modelli open source ma riconoscono i potenziali svantaggi prestazionali dei modelli open source rispetto ai modelli closed source.

I sistemi decentralizzati devono affrontare ostacoli legati all’integrità della rete e al sovraccarico delle risorse. Ad esempio, la distribuzione dei dati del client su nodi diversi espone più vettori di attacco. Un utente malintenzionato può avviare un nodo e analizzarne i calcoli, tentare di intercettare i trasferimenti di dati tra nodi o persino introdurre pregiudizi che degradano le prestazioni del sistema. Anche nei modelli di inferenza decentralizzati sicuri, devono esserci meccanismi per controllare il processo computazionale. I nodi risparmiano sui costi delle risorse eseguendo calcoli incompleti e la verifica è complicata dalla mancanza di un partecipante centralizzato affidabile.

Prova di conoscenza zero

Le prove a conoscenza zero (ZKP), sebbene attualmente computazionalmente proibitive, sono una potenziale soluzione ad alcune delle sfide DAI. ZKP è un meccanismo crittografico che consente ad una parte (il dimostratore) di convincere un'altra parte (il verificatore) della verità di un'affermazione senza rivelare alcun dettaglio sull'affermazione stessa, tranne la sua validità. Questa prova può essere rapidamente verificata da altri nodi e fornisce a ciascun nodo un modo per dimostrare di aver agito in conformità con il protocollo. Dimostrare le differenze tecniche tra il sistema e la sua implementazione (ne parleremo più avanti) è importante per gli investitori in questo ambito.

L'elaborazione centralizzata limita la formazione del modello a pochi partecipanti ben posizionati e ricchi di risorse. ZKP potrebbe contribuire a sbloccare l’elaborazione inattiva sull’hardware di consumo; ad esempio, un MacBook potrebbe utilizzare la sua larghezza di banda di elaborazione aggiuntiva per aiutare ad addestrare modelli linguistici di grandi dimensioni guadagnando token per gli utenti.

L'implementazione della formazione o dell'inferenza decentralizzata utilizzando l'hardware consumer è al centro dell'attenzione di team come Gensyn e Inference Labs, a differenza delle reti di elaborazione decentralizzate come Akash o Render, lo sharding di elaborazione aggiunge complessità, in particolare problemi in virgola mobile; Sfruttare le risorse informatiche distribuite inattive apre la strada ai piccoli sviluppatori per testare e addestrare le proprie reti, purché abbiano accesso a strumenti in grado di risolvere le sfide rilevanti.

Attualmente, i sistemi ZKP sembrano essere da quattro a sei ordini di grandezza più costosi rispetto all’esecuzione del calcolo locale, rendendo l’utilizzo di ZKP molto lento per attività che richiedono un calcolo elevato (come l’addestramento del modello) o una bassa latenza (come l’inferenza del modello). In confronto, un calo di sei ordini di grandezza significa che i sistemi all'avanguardia (come Jolt dell'a16z) in esecuzione su un chip M3 Max dimostrano programmi che sono 150 volte più lenti di quelli eseguiti su una calcolatrice grafica TI-84.

La capacità dell’intelligenza artificiale di elaborare grandi quantità di dati la rende compatibile con le prove a conoscenza zero (ZKP), ma sono necessari ulteriori progressi nella crittografia prima che le ZKP possano essere ampiamente utilizzate. Il lavoro in corso da parte di team come Irreducible (che ha progettato il sistema di prova Binius e lo schema di impegno), Gensyn, TensorOpera, Hellas e Inference Labs sarà un passo importante verso la realizzazione di questa visione. Tuttavia, la tempistica è ancora troppo ottimistica, poiché la vera innovazione richiede tempo e progressi matematici.

Allo stesso tempo, vale la pena notare altre possibilità e soluzioni ibride. HellasAI e altre società stanno sviluppando nuovi modi di rappresentare modelli e calcoli che consentano giochi di sfida ottimistici, consentendo solo il sottoinsieme di calcoli che devono essere elaborati a conoscenza zero. Le prove ottimistiche funzionano solo se esiste una minaccia credibile di staking, la capacità di dimostrare un errore e altri nodi nel sistema che controllano il calcolo. Un altro metodo sviluppato da Inference Labs convalida un sottoinsieme di query, in cui un nodo si impegna a produrre uno ZKP con un deposito, ma fornisce la prova solo se il cliente lo contesta prima.

Riassumere

La formazione e l’inferenza decentralizzate dell’intelligenza artificiale serviranno da salvaguardia contro alcuni dei principali attori che consolidano il potere sbloccando al contempo l’informatica precedentemente inaccessibile. ZKP sarà parte integrante della realizzazione di questa visione. Il tuo computer sarà in grado di farti guadagnare soldi veri senza nemmeno rendertene conto, utilizzando la potenza di elaborazione extra in background. Una prova concisa che i calcoli siano stati eseguiti correttamente renderebbe superflua la fiducia sfruttata dai più grandi fornitori di servizi cloud, consentendo alle reti informatiche con fornitori più piccoli di attrarre clienti aziendali.

Anche se le prove a conoscenza zero consentiranno questo futuro e diventeranno una parte importante non solo delle reti computazionali (come la visione di Ethereum della definitività a slot singolo), il loro sovraccarico computazionale rimane un ostacolo. Una soluzione ibrida che combini i meccanismi della teoria dei giochi dei giochi ottimistici con l’uso selettivo di dimostrazioni a conoscenza zero è una soluzione migliore e probabilmente diventerà il punto di collegamento onnipresente finché ZKP non diventerà più veloce.

Sia per gli investitori di criptovaluta nativi che per quelli non nativi, comprendere il valore e le sfide dei sistemi di intelligenza artificiale decentralizzati è fondamentale per distribuire il capitale in modo efficace. Il team dovrebbe avere risposte alle domande sulle prove computazionali dei nodi e sulla ridondanza della rete. Inoltre, come abbiamo osservato in molti progetti DePIN, la decentralizzazione avviene nel tempo ed è fondamentale che il team abbia un piano chiaro per raggiungere questa visione. Risolvere le sfide associate all'informatica DePIN è fondamentale per restituire il controllo ai singoli individui e ai piccoli sviluppatori: una parte essenziale per mantenere i nostri sistemi aperti, gratuiti e resistenti alla censura.