Poiché il numero di agenti continua ad aumentare, convalidare le loro interazioni diventerà sempre più importante.

L’intelligenza artificiale decentralizzata si sta sviluppando rapidamente e gli agenti guidati dalle macchine penetreranno presto nelle nostre vite on-chain. Ma man mano che queste entità digitali acquisiscono maggiore potere decisionale e controllano più capitali, la domanda diventa: possiamo fidarci di loro?

Su una rete decentralizzata l’onestà non è data per scontata ma deve essere verificata. Una volta che il valore del calcolo off-chain (ovvero il modello che guida l'agente) è sufficientemente elevato, è necessario verificare quale modello è stato utilizzato, se l'operatore del nodo ha elaborato correttamente i dati e se il lavoro è stato eseguito come previsto. Allo stesso tempo, è necessario considerare anche la riservatezza, poiché molte persone hanno a che fare con informazioni sensibili quando lavorano con modelli linguistici di grandi dimensioni (LLM). Si scopre che Web3 può risolvere questi due problemi. Esploriamolo.

Metodi di verifica dell'apprendimento automatico

Se si mette da parte il problema dell'allineamento dell'IA, ci sono diversi modi per minimizzare i requisiti di fiducia degli agenti, inclusi gli approcci basati su prove a conoscenza zero (zkML), verifica ottimista (opML) e ambienti di esecuzione fidati (teeML). Ognuno di questi approcci ha i propri compromessi, ma a un livello alto, ecco un confronto tra queste opzioni:

Un po' più dettagliato…

Prove a conoscenza zero - eccelle nella maggior parte delle categorie, ma è complesso e costoso

Una delle soluzioni più popolari è: prove ZK, in grado di rappresentare e verificare in modo conciso programmi arbitrari. zkML utilizza prove matematiche per verificare la correttezza del modello senza rivelare i dati sottostanti. Ciò garantisce che né il modello né il fornitore di calcolo possano manipolare i risultati.

Sebbene zkML abbia un grande potenziale per dimostrare in modo conciso l'accuratezza e l'esecuzione fedele dei modelli (verificabilità), le caratteristiche intensive in risorse richieste per creare le prove ZK spesso richiedono di esternalizzare la creazione delle prove a terzi—questo non solo introduce ritardi e costi, ma può anche portare a problemi di privacy. Attualmente, zk non è praticabile per casi di complessità superiore ai più semplici esempi. Esempio: Giza, RISC Zero.

Verifica ottimista - semplice e scalabile, ma con bassa privacy

L'approccio opML implica l'output del modello di fiducia, consentendo agli "osservatori" della rete di verificare la correttezza e di sfidare qualsiasi contenuto sospetto attraverso prove di frode.

Sebbene questo approccio sia generalmente più economico rispetto a zk e mantenga la sicurezza finché almeno un osservatore è onesto, gli utenti potrebbero affrontare un aumento dei costi proporzionale al numero di osservatori e devono anche affrontare tempi di attesa per la verifica e potenziali ritardi (se si verifica una sfida). Esempio: ORA.

Ambiente di esecuzione fidata per la verifica - alta privacy e sicurezza, ma bassa decentralizzazione

teeML dipende da prove hardware e da un insieme di validatori decentralizzati come radice di fiducia per realizzare calcoli verificabili sulla blockchain. Attraverso TEE, l'integrità dell'esecuzione è forzata da una blockchain sicura, e il costo relativamente basso la rende un'opzione pratica.

Il compromesso è che dipende dall'hardware e può essere difficile da implementare da zero. Ci sono anche limitazioni hardware al momento, ma con l'introduzione di tecnologie come Intel TDX e Amazon Nitro Enclaves, questa situazione potrebbe cambiare. Esempio: Oasis, Phala.

Economia crittografica - semplice e a basso costo, ma con scarsa sicurezza

L'approccio dell'economia crittografica utilizza un semplice voto ponderato. In questo caso, gli utenti possono personalizzare quanti nodi eseguiranno le loro query, e le differenze tra le risposte porteranno a penalizzazioni per i valori anomali. In questo modo, gli utenti possono bilanciare costi e fiducia mantenendo una bassa latenza.

Adottare approcci di economia crittografica è semplice e conveniente, ma porta anche a una sicurezza relativamente debole, poiché la maggior parte dei nodi potrebbe cospirare. In questa configurazione, gli utenti devono considerare gli interessi degli operatori dei nodi e i costi della loro frode. Esempio: Ritual.

Opzioni aggiuntive

Rete di oracoli

La rete di oracoli fornisce un'interfaccia sicura per verificare i calcoli off-chain e garantire che i dati esterni siano affidabili e a prova di manomissione. Ciò consente ai contratti intelligenti di accedere a dati verificati crittograficamente, consentendo agli utenti di interagire con gli agenti con il minimo di fiducia. Questo è realizzato tramite meccanismi come MPC, riesecuzione on-chain, ecc.

Apprendimento automatico con crittografia omomorfica completa

Esistono anche alcuni framework open source progettati per migliorare la privacy e la verificabilità sfruttando la crittografia omomorfica completa (FHE). In generale, la FHE consente di eseguire calcoli su dati crittografati senza decrittarli, garantendo così la veridicità dell'intero processo e assicurando che le informazioni sensibili rimangano riservate durante il processo.

Riepilogo

Ci sono molte soluzioni promettenti e, con l'aumento dell'attività nei settori della crittografia e dell'IA, stanno emergendo ulteriori soluzioni. Tuttavia, la natura non deterministica degli agenti rende la verifica dei loro carichi di lavoro una sfida unica. Fino a quando questo problema non sarà risolto in modo definitivo, la fiducia rimarrà un ostacolo.

Ciò che ci troviamo attualmente ad affrontare è: bassa adozione/fiducia degli utenti negli agenti IA, mentre l'uso di casi di intervento umano continua a dominare. Allo stesso tempo, stiamo avanzando verso un futuro in cui blockchain e agenti introducono una certa determinazione. In futuro, essi diventeranno i principali utenti di questi sistemi, in grado di effettuare transazioni in autonomia, mentre gli utenti non sapranno quale RPC, wallet o rete stiano utilizzando.

Oasis supporta la privacy e la verificabilità attraverso ROFL, un framework teeML progettato per estendere gli ambienti di esecuzione EVM (come Oasis Sapphire) al calcolo off-chain.

$ROSE

Questo articolo originale proviene dal sito ufficiale di Oasis, invitiamo tutti a visitare il sito ufficiale per maggiori informazioni sull'ecosistema Oasis.