Fonte dell'articolo: On-chain View
Molte persone non capiscono ancora perché io continui a chiedere ai progetti di standardizzazione dei framework AI di orientarsi verso la "chainizzazione"? Forse durante i primi due cicli di mercato, l'infrastruttura Chain ha accumulato troppe aspettative, e finalmente siamo arrivati all'era delle "applicazioni" degli AI Agent, ma tutti hanno una certa paura della "chain". Tuttavia, per rendere gli AI Agent più affidabili nella decisione autonoma e nella collaborazione reciproca, è inevitabile orientarsi verso la "chainizzazione".
Attualmente, i framework popolari come ELIZA, ARC, Swarms sono essenzialmente ancora nella "fase concettuale", una fase che non può essere falsificata e annullata, né può essere verificata e aumentata, rimanendo sostanzialmente in una fase in cui la valutazione non può essere quantificata. Questo è il primo ostacolo per le risorse emesse su Github. È necessario trovare possibilità di realizzazione per i framework e le visioni delineate per ottenere il riconoscimento unanime del mercato.
Esaminiamo attentamente i framework come ELIZA, ARC, Swarms, che sia per l'ottimizzazione delle prestazioni di un singolo AI Agent o per i framework di interazione e collaborazione tra più AI Agent, essenzialmente devono strutturare una logica e delle regole rintracciabili per le chiamate API dei modelli AGI di grandi dimensioni.
Dopotutto, i dati sono off-chain, il processo di inferenza è difficile da verificare, il processo di esecuzione è opaco e i risultati dell'esecuzione sono incerti.
In una prospettiva a breve termine, il TEE offre una soluzione a basso costo e ad alta fattibilità off-chain che può accelerare l'applicazione dell'AGI nel processo decisionale autonomo degli AI Agent. In una prospettiva più a lungo termine, è necessario anche un insieme di "consenso on-chain" per rendere il sistema più affidabile.
Ad esempio, ELIZA vuole costruire un piano di gestione autonoma delle chiavi private basato sul suo framework, utilizzando la capacità di autenticazione remota sicura TEE di @PhalaNetwork, garantendo che il codice di esecuzione dell'AI-Pool non venga manomesso prima della firma con la chiave privata, ma questo è solo il primo piccolo passo dell'applicazione del TEE nella direzione degli AI Agent.
Se possiamo inserire la logica di esecuzione predefinita complessa nel contratto dell'Agent, permettendo ai Validatori della chain Phala di partecipare alla verifica, si apre una catena basata su regole di esecuzione TEE vincolate dal consenso della chain. A quel punto, la domanda di TEE generata dagli AI Agent avvierà un volano positivo di empowerment della chain.
La logica ha senso. Il TEE può garantire che la chiave privata sia invisibile, ma come viene chiamata la chiave privata, sulla base di quali regole predefinite viene chiamata, come si attiva la risposta alle emergenze e così via. A breve termine, si può affidare al codice open source per garantire la trasparenza, ma a lungo termine, non sarà necessario basarsi su un insieme di consenso di verifica decentralizzato per convalidare in tempo reale?
Quindi, la "chainizzazione" può accelerare il passaggio del framework degli AI Agent alla fase di applicazione pratica, portando anche nuove opportunità incrementali nell'infrastruttura Crypto.
La direzione è già molto chiara. Per la maggior parte delle persone, cercare e avere fiducia nel framework degli AI Agent che per primi si orientano verso la chainizzazione e la vecchia chain che sostiene gli AI Agent, è l'Alpha nella nuova tendenza degli AI Agent.