Molte persone non capiscono ancora perché continui a sostenere che i progetti di standardizzazione dei framework AI debbano dirigersi verso la "chainizzazione"? Forse durante i due precedenti cicli di mercato, l'infrastruttura Chain ha sostenuto troppe aspettative, e ora che siamo finalmente nell'era delle "applicazioni" degli agenti AI, tutti sembrano avere paura della "chain". Ma, affinché gli agenti AI possano prendere decisioni autonome più affidabili e collaborare tra loro, è inevitabile che si dirigano verso la "chainizzazione".
I framework attualmente molto popolari come ELIZA, ARC, Swarms, si trovano basicamente ancora nella "fase concettuale". Questa fase non può essere confutata e ridotta a zero, né può essere verificata e far esplodere i valori; è fondamentalmente in una fase in cui la valutazione non può essere quantificata. Questo è il primo ostacolo per l'emissione di asset su Github: è necessario trovare possibilità concrete per i framework e le visioni delineate, affinché possano ottenere il riconoscimento unanime del mercato.
Se osserviamo attentamente i framework ELIZA, ARC, Swarms, sia per l'ottimizzazione estrema delle prestazioni di un singolo agente AI che per i framework di interazione e collaborazione tra più agenti AI, in sostanza devono elaborare una logica e delle regole rintracciabili per le chiamate API dei modelli AGI di grandi dimensioni.
Dopotutto, i dati sono off-chain, il processo di inferenza è difficile da verificare, il processo di esecuzione è opaco e il risultato dell'esecuzione è incerto.
Da una prospettiva a breve termine, il TEE fornisce una soluzione a basso costo e ad alta fattibilità off-chain senza fiducia che può accelerare l'applicazione degli AGI nel processo decisionale autonomo degli agenti AI; da una prospettiva a lungo termine, è necessaria anche una forma di "consenso on-chain" per assistere affinché diventi più affidabile.
Ad esempio, ELIZA vuole costruire una soluzione di custodia autonoma della chiave privata basata sul suo framework, utilizzando la capacità di autenticazione remota sicura TEE di @PhalaNetwork, per garantire che il codice di esecuzione dell'AI-Pool non venga manomesso prima della firma della chiave privata, ma questo è solo il primo piccolo passo del TEE verso la direzione degli agenti AI.
Se possiamo mettere la complessa logica di esecuzione preimpostata all'interno del Contract dell'Agente, consentendo ai Validatori della chain Phala di partecipare alla verifica, una catena basata sul consenso on-chain che vincola i dettagli di esecuzione TEE sarà stabilita. A quel punto, gli agenti AI stimoleranno la domanda di TEE, e il TEE attiverà il volano positivo dell'empowerment della chain.
La logica ha senso, il TEE può garantire che la chiave privata sia invisibile, ma come viene chiamata la chiave privata, in base a quali regole preimpostate viene chiamata, come viene attivata la risposta di emergenza per il rischio, ecc. A breve termine, possiamo affidare a un repository di codice open source la realizzazione della trasparenza, ma a lungo termine, non dobbiamo comunque basarci su un insieme di consensi di verifica decentralizzati per convalidare in tempo reale?
Quindi, la "chainizzazione" può accelerare il passaggio degli framework per agenti AI verso la fase di applicazione pratica, e può anche portare nuove opportunità incrementali con l'infrastruttura Crypto.
La direzione è già molto chiara; per la maggior parte delle persone, cercare e essere ottimisti riguardo ai framework per agenti AI che si stanno chainizzando per primi e alle vecchie chain che sostengono gli agenti AI è il vero Alpha nella nuova tendenza degli agenti AI.