Questo articolo è tratto da: Deep Value Memetics

Compilato da|Odaily Star Daily ( @OdailyChina )

Traduttore|Azuma(@azuma_eth)

Sintesi dei punti chiave

In questo rapporto, discuteremo il panorama dello sviluppo dei principali framework nel campo dell'AI Crypto. Esamineremo i quattro framework principali attuali — Eliza (AI16Z), G.A.M.E (GAME), Rig (ARC), ZerePy (ZEREBRO), analizzando le loro differenze tecniche e il loro potenziale di sviluppo.

Nella settimana scorsa, abbiamo condotto analisi e test sui quattro principali framework sopra menzionati, le conclusioni sono le seguenti.

  • Riteniamo che Eliza (con una quota di mercato di circa il 60%, con una capitalizzazione di mercato di circa 900 milioni di dollari al momento della scrittura originale, e 1,4 miliardi di dollari al momento della pubblicazione) continuerà a dominare la quota di mercato. Il valore di Eliza risiede nel suo vantaggio competitivo e nell'adozione accelerata da parte degli sviluppatori, come dimostrano i 193 contributori su GitHub, 1800 fork e oltre 6000 stelle, rendendola uno dei repository software più popolari su GitHub.

  • G.A.M.E (quota di mercato circa 20%, con una capitalizzazione di mercato di circa 300 milioni di dollari al momento della scrittura originale, e circa 257 milioni di dollari al momento della pubblicazione) ha avuto uno sviluppo molto positivo fino ad ora e sta vivendo un'adozione rapida, come indicato dall'annuncio rilasciato in precedenza dal Virtuals Protocol, attualmente ci sono oltre 200 progetti costruiti su G.A.M.E, con oltre 150.000 richieste quotidiane e un tasso di crescita settimanale superiore al 200%. G.A.M.E continuerà a beneficiare dell'esplosione di VIRTUAL e potrebbe diventare uno dei principali vincitori di questo ecosistema.

  • Rig (quota di mercato circa 15%, con una capitalizzazione di mercato di circa 160 milioni di dollari al momento della scrittura originale, e circa 279 milioni di dollari al momento della pubblicazione) si distingue per il suo design modulare e la facilità d'uso, con la possibilità di dominare nell'ecosistema Solana (RUST).

  • Zerepy (quota di mercato circa 5%, con una capitalizzazione di mercato di circa 300 milioni di dollari al momento della scrittura originale, e circa 424 milioni di dollari al momento della pubblicazione) è un'applicazione più di nicchia, specifica per una comunità ZEREBRO appassionata, la sua recente collaborazione con la comunità ai16z potrebbe portare a sinergie.

Nelle statistiche sopra, la 'quota di mercato' considera in modo integrato la capitalizzazione di mercato, i record di sviluppo e l'ampiezza del mercato terminale del sistema operativo sottostante.

Riteniamo che i framework AI diventeranno il settore in più rapida crescita di questo ciclo, con un attuale valore totale di mercato di circa 1,7 miliardi di dollari che crescerà facilmente fino a 20 miliardi di dollari. Rispetto alla valutazione picco di Layer 1 nel 2021, questo numero è probabilmente comunque conservativo — all'epoca molte singole valutazioni di progetto superavano i 20 miliardi di dollari. Sebbene i framework sopra menzionati servano a diversi mercati terminali (catena/ecosistema), riteniamo che poiché il settore crescerà nel suo insieme, un approccio ponderato per capitalizzazione di mercato potrebbe essere il più prudente.

Quattro framework principali

All'incrocio tra AI e Crypto, sono emersi diversi framework progettati per accelerare lo sviluppo dell'AI, tra cui Eliza (AI16Z), G.A.M.E (GAME), Rig (ARC), ZerePy (ZEREBRO). Dai progetti della comunità open source a soluzioni aziendali focalizzate sulle prestazioni, ciascun framework soddisfa esigenze e filosofie diverse nello sviluppo degli agenti.

Nella tabella qui sotto, elenchiamo le tecnologie chiave, i componenti e i punti di forza di ciascun framework.

Questo rapporto si concentrerà prima su cosa sono questi framework, i linguaggi di programmazione che utilizzano, le architetture tecniche, gli algoritmi e le funzionalità uniche con potenziali casi d'uso. Successivamente, confronteremo ciascun framework in base a facilità d'uso, scalabilità, adattabilità e prestazioni, discutendo i loro punti di forza e le loro limitazioni.

Eliza

Eliza è un framework open source multi-agente sviluppato da ai16z, progettato per creare, dispiegare e gestire agenti AI autonomi. È sviluppato in TypeScript come linguaggio di programmazione, fornendo una piattaforma flessibile e scalabile per costruire agenti intelligenti che possono interagire con gli esseri umani su più piattaforme, mantenendo al contempo una personalità e una conoscenza coerenti.

Le funzionalità centrali di questo framework includono: supporto per il dispiegamento e la gestione simultanei di più personalità AI uniche in un'architettura multi-agente; un sistema di ruoli per creare agenti diversificati tramite file di ruolo; fornitura di gestione della memoria a lungo termine e contestuale tramite un sistema di recupero aumentato (RAG). Inoltre, il framework Eliza offre un'integrazione fluida con la piattaforma, consentendo connessioni affidabili con Discord, X e altre piattaforme di social media.

Nel campo delle comunicazioni e delle funzionalità multimediali degli agenti AI, Eliza è un'ottima scelta. In termini di comunicazione, questo framework supporta l'integrazione con le funzioni dei canali vocali di Discord, le funzioni di X, Telegram e l'accesso API diretto per casi d'uso personalizzati. D'altra parte, le capacità di gestione dei media del framework si sono espanse alla lettura e analisi di documenti PDF, estrazione e sintesi di contenuti da link, trascrizione audio, gestione dei contenuti video, analisi delle immagini e sintesi delle conversazioni, permettendo una gestione efficace di vari input e output multimediali.

Eliza offre un supporto flessibile per modelli AI, consentendo l'inferenza locale tramite modelli open-source, inferenza basata su cloud tramite configurazioni predefinite come OpenAI e Nous Hermes Llama 3.1 B, e supporta l'integrazione di Claude per gestire query complesse. Eliza ha adottato un'architettura modulare, con un ampio sistema di azioni, supporto per client personalizzati e una API completa, garantendo scalabilità e adattabilità tra applicazioni.

I casi d'uso di Eliza coprono vari ambiti, come assistenti AI legati al supporto clienti, gestione comunitaria e compiti personali; come creatori di contenuti automatici, rappresentanti di marca e ruoli sui social media; può anche fungere da lavoratore della conoscenza, ricoprendo ruoli come assistente alla ricerca, analista di contenuti e gestore di documenti; e ruoli interattivi come bot di gioco di ruolo, tutor educativi e agenti di marketing.

L'architettura di Eliza è costruita attorno a un runtime per agenti che si integra senza soluzione di continuità con un sistema di ruoli (supportato dai fornitori di modelli), un gestore di memoria (collegato a un database) e un sistema di azioni (collegato ai client della piattaforma). Le funzionalità uniche di questo framework includono un sistema di plugin che consente l'espansione modulare delle funzionalità, supporta interazioni multimodali come voce, testo e media, e compatibilità con modelli AI di punta come Llama, GPT-4 e Claude. Grazie alla sua versatilità e potente progettazione, Eliza diventa uno strumento potente per lo sviluppo di applicazioni AI attraverso vari campi.

G.A.M.E

G.A.M.E è sviluppato ufficialmente dal team di Virtuals, e sta per 'Generative Autonomous Multimodal Entities Framework', progettato per fornire agli sviluppatori API e SDK per esperimenti con agenti AI. Questo framework offre un approccio strutturato per gestire il comportamento, le decisioni e i processi di apprendimento degli agenti AI.

  • I componenti chiave di G.A.M.E sono i seguenti: prima di tutto, l' 'Interfaccia di Prompting per Agenti' (Agent Prompting Interface) è il punto di ingresso per gli sviluppatori per integrare G.A.M.E negli agenti per ottenere comportamenti degli agenti.

  • Il 'Sottosistema di Percezione' avvia la sessione tramite parametri come ID di sessione, ID di agente, utente e altri dettagli pertinenti. Combina i messaggi in entrata in un formato adatto per il 'Motore di Pianificazione Strategica', fungendo da meccanismo di input sensoriale per gli agenti AI, sia in forma di dialogo che di reazione. Il cuore di questo sistema è il 'Modulo di Elaborazione del Dialogo', responsabile della gestione dei messaggi e delle risposte dagli agenti e collaborando con il 'Sottosistema di Percezione' per interpretare e rispondere efficacemente agli input.

  • Il 'Motore di Pianificazione Strategica' collabora con il 'Modulo di Elaborazione del Dialogo' e l' 'Operatore di Portafoglio On-chain' per generare risposte e pianificare. Questo motore opera su due livelli: come pianificatore di alto livello, crea strategie ampie in base al contesto o agli obiettivi; come pianificatore di basso livello, trasforma queste strategie in politiche eseguibili, ulteriormente suddivise in pianificatori d'azione (per specificare i compiti) e esecutori di pianificazione (per eseguire i compiti).

  • Un componente separato ma chiave è il 'Contesto Mondiale', che fa riferimento all'ambiente, alle informazioni sul mondo e allo stato del gioco, fornendo il contesto necessario per le decisioni degli agenti. Inoltre, la 'Biblioteca degli Agenti' viene utilizzata per memorizzare attributi a lungo termine, come obiettivi, riflessioni, esperienze e personalità, che insieme plasmano il comportamento e il processo decisionale degli agenti. Questo framework utilizza la 'Memoria di Lavoro a Breve Termine' e il 'Processore di Memoria a Lungo Termine' — la memoria a breve termine conserva informazioni rilevanti riguardo ad azioni precedenti, risultati e piani attuali; mentre il processore di memoria a lungo termine estrae informazioni chiave in base a criteri come importanza, recentità e rilevanza. Questa memoria immagazzina conoscenze relative all'esperienza degli agenti, riflessioni, personalità dinamiche, contesto mondiale e memoria di lavoro, per migliorare le decisioni e fornire una base per l'apprendimento.

  • Per aumentare il layout, il 'Modulo di Apprendimento' acquisisce dati dal 'Sottosistema di Percezione' per generare conoscenza generale, che viene restituita al sistema per ottimizzare le interazioni future. Gli sviluppatori possono fornire feedback sull'azione, lo stato del gioco e i dati sensoriali tramite l'interfaccia, per migliorare l'apprendimento degli agenti AI e aumentare le loro capacità di pianificazione e decisione.

Il flusso di lavoro inizia quando gli sviluppatori interagiscono attraverso l'Interfaccia di Prompting per Agenti; il 'Sottosistema di Percezione' gestisce l'input e lo inoltra al 'Modulo di Elaborazione del Dialogo', che gestisce la logica interattiva; infine, il 'Motore di Pianificazione Strategica' formula e attua piani in base a queste informazioni, utilizzando strategie di alto livello e pianificazione d'azione dettagliata.

I dati provenienti dal 'contesto mondiale' e dalla 'biblioteca degli agenti' forniscono informazioni per questi processi, mentre la memoria di lavoro tiene traccia delle attività istantanee. Nel frattempo, il 'processore di memoria a lungo termine' memorizza e recupera conoscenze nel tempo. Il 'modulo di apprendimento' analizza i risultati e integra nuove conoscenze nel sistema, migliorando continuamente il comportamento e l'interazione degli agenti.

Rig

Rig è un framework open source basato su Rust, progettato per semplificare lo sviluppo di applicazioni per modelli linguistici di grandi dimensioni (LLM). Fornisce un'interfaccia unificata per interagire con più fornitori di LLM (come OpenAI e Anthropic) e supporta vari sistemi di memorizzazione vettoriale, tra cui MongoDB e Neo 4 j. L'architettura modulare di questo framework include componenti chiave come 'Layer di Astrazione dei Fornitori', 'Integrazione di Memorizzazione Vettoriale' e 'Sistema di Agenti', facilitando interazioni senza soluzione di continuità tra LLM.

Il pubblico principale di Rig include sviluppatori che costruiscono applicazioni AI/ML in Rust, mentre il pubblico secondario comprende organizzazioni che cercano di integrare più fornitori di LLM e archiviazione vettoriale nelle loro applicazioni Rust. La libreria è organizzata in una struttura basata su workspaces, contenente più crates, per implementare scalabilità e gestione del progetto efficiente. Le funzionalità principali di Rig includono il 'Layer di Astrazione dei Fornitori', che standardizza le API utilizzate per completare e incorporare i fornitori di LLM attraverso una gestione coerente degli errori; il componente di 'Integrazione di Archiviazione Vettoriale' fornisce un'interfaccia astratta per più backend e supporta la ricerca di similarità vettoriale; il 'Sistema di Agenti' semplifica le interazioni LLM, supportando il recupero aumentato generativo (RAG) e l'integrazione degli strumenti. Inoltre, il framework di embedding offre capacità di batch e operazioni di embedding sicure dal punto di vista dei tipi.

Rig sfrutta molteplici vantaggi tecnologici per garantire affidabilità e prestazioni. Le operazioni asincrone utilizzano il runtime asincrono di Rust per gestire in modo efficiente numerose richieste concorrenti; il meccanismo di gestione degli errori intrinseco al framework migliora la capacità di recupero da guasti nei fornitori di AI o nelle operazioni del database; la sicurezza dei tipi previene errori di compilazione, migliorando la manutenibilità del codice; i processi di serializzazione e deserializzazione efficienti aiutano nella gestione di dati in formati come JSON, cruciali per la comunicazione e memorizzazione dei servizi AI; registrazioni dettagliate e dashboard facilitano ulteriormente il debugging e il monitoraggio delle applicazioni.

Il flusso di lavoro in Rig inizia quando il client invia una richiesta, che attraversa il 'Layer di Astrazione dei Fornitori' e interagisce con il modello LLM corrispondente; successivamente, i dati vengono elaborati dal layer centrale, dove l'agente può utilizzare strumenti o accedere a memorizzazione vettoriale per ottenere contesto; attraverso flussi di lavoro complessi come RAG, genera e perfeziona le risposte, inclusi recupero di documenti e comprensione del contesto, prima di restituirli al client. Questo sistema integra più fornitori di LLM e memorizzazione vettoriale, adattandosi alla disponibilità o alle variazioni delle prestazioni del modello.

I casi d'uso di Rig sono vari, inclusi sistemi di risposta alle domande per recuperare documenti pertinenti e fornire risposte accurate, ricerca e recupero di documenti per la scoperta efficiente di contenuti, e chatbot o assistenti virtuali per interazioni contestuali nel servizio clienti o nell'istruzione. Supporta anche la generazione di contenuti, in grado di creare testi e altri materiali basati sui modelli appresi, rendendolo uno strumento multifunzionale per sviluppatori e organizzazioni.

ZerePy

ZerePy è un framework open source scritto in Python, progettato per dispiegare agenti su X utilizzando i LLM di OpenAI o Anthropic. ZerePy deriva da una versione modulare del backend Zerebro, consentendo agli sviluppatori di avviare agenti con funzionalità simili a quelle delle funzioni principali di Zerebro. Sebbene questo framework fornisca una base per il dispiegamento degli agenti, è necessario effettuare un fine-tuning sui modelli per generare output creativi. ZerePy semplifica lo sviluppo e il dispiegamento di agenti AI personalizzati, particolarmente adatto per la creazione di contenuti su piattaforme social, promuovendo un ecosistema creativo AI focalizzato sulle arti e sulle applicazioni decentralizzate.

Questo framework è costruito in linguaggio Python, enfatizzando l'autonomia degli agenti e focalizzandosi sulla generazione di output creativi, in linea con l'architettura di Eliza e le sue partnership. La sua progettazione modulare supporta l'integrazione dei sistemi di memoria, facilitando il dispiegamento degli agenti sulle piattaforme sociali. Le sue funzioni principali includono un'interfaccia a riga di comando per la gestione degli agenti, integrazione con X, supporto per i LLM di OpenAI e Anthropic, e un sistema di connessione modulare per funzionalità avanzate.

I casi d'uso di ZerePy coprono l'automazione dei social media, consentendo agli utenti di dispiegare agenti AI per pubblicare, rispondere, mettere 'mi piace' e ritwittare, aumentando l'engagement sulla piattaforma. Inoltre, è adatto per la creazione di contenuti in ambiti come la musica, le note e gli NFT, ed è uno strumento fondamentale per l'arte digitale e le piattaforme di contenuti basate su blockchain.

Confronto orizzontale

A nostro avviso, ciascuno dei framework sopra menzionati offre un approccio unico allo sviluppo AI, rispondendo a specifiche esigenze e ambienti, il che rende il dibattito non più limitato alla questione se questi framework siano concorrenti, ma piuttosto se ciascun framework possa fornire un'utilità e un valore unici.

  • Eliza si distingue per la sua interfaccia user-friendly, particolarmente adatta per sviluppatori familiari con ambienti JavaScript e Node.js. La sua documentazione completa aiuta a impostare agenti AI su varie piattaforme, sebbene il suo ricco set di funzionalità possa presentare una curva di apprendimento moderata. Grazie all'uso di TypeScript, Eliza è particolarmente adatta per costruire agenti da integrare nel web, poiché gran parte dell'infrastruttura del frontend è costruita su TypeScript. Questo framework è noto per la sua architettura multi-agente, capace di distribuire agenti AI personalizzati attraverso piattaforme come Discord, X e Telegram. Il suo avanzato sistema RAG per la gestione della memoria lo rende particolarmente adatto per costruire assistenti AI per il supporto clienti o applicazioni sui social media. Sebbene offra flessibilità, un forte supporto della comunità e prestazioni cross-platform coerenti, è ancora nelle fasi iniziali, il che potrebbe impattare la curva di apprendimento per gli sviluppatori.

  • G.A.M.E è progettato per sviluppatori di giochi, fornendo un'interfaccia a basso codice o senza codice tramite API, facilitando l'accesso degli utenti con minori competenze tecniche nel campo dei giochi. Tuttavia, si concentra sullo sviluppo di giochi e sull'integrazione blockchain, il che potrebbe comportare una curva di apprendimento ripida per coloro che non hanno esperienza pertinente. Si distingue nella generazione di contenuti procedurali e nel comportamento degli NPC, ma è limitato dalla sua nicchia e dalla complessità aggiuntiva nell'integrazione della blockchain.

  • Rig potrebbe risultare poco amichevole per gli utenti a causa della complessità del linguaggio Rust, presentando sfide significative per l'apprendimento, ma per coloro che padroneggiano la programmazione di sistema, può offrire interazioni intuitive. Rispetto a TypeScript, Rust è noto per le sue prestazioni e sicurezza della memoria. Ha severi controlli al momento della compilazione e un'astrazione a costo zero, necessari per eseguire algoritmi complessi di intelligenza artificiale. L'efficienza e il basso livello di controllo di questo linguaggio lo rendono ideale per applicazioni AI ad alta intensità di risorse. Questo framework adotta una progettazione modulare e scalabile, in grado di offrire soluzioni ad alte prestazioni, risultando molto adatto per applicazioni aziendali. Tuttavia, per gli sviluppatori non familiari con il linguaggio Rust, l'uso di Rust comporta una curva di apprendimento ripida.

  • ZerePy utilizza il linguaggio Python, offrendo una maggiore usabilità per compiti AI creativi. Per gli sviluppatori Python, in particolare quelli con background in AI/ML, la curva di apprendimento è bassa, e grazie all'entusiasmo per ZEREBRO, c'è un forte supporto della comunità. ZerePy si distingue in applicazioni AI creative come NFT, posizionandosi come uno strumento potente nei media digitali e nelle arti. Sebbene eccella nella creatività, il suo ambito di applicazione è relativamente ristretto rispetto ad altri framework.

In termini di scalabilità, il confronto tra i quattro framework è il seguente.

  • Eliza ha compiuto notevoli progressi dopo l'aggiornamento alla versione V2, introducendo una linea di messaggi unificata e un framework centrale scalabile, consentendo una gestione efficiente su più piattaforme. Tuttavia, senza ottimizzazione, gestire questa interazione multipiattaforma potrebbe portare a sfide in termini di scalabilità.

  • G.A.M.E è abile nel trattamento in tempo reale necessario per i giochi, la sua scalabilità può essere gestita attraverso algoritmi efficienti e potenziali sistemi distribuiti basati su blockchain, anche se potrebbe essere limitata da specifici motori di gioco o restrizioni delle reti blockchain.

  • Il framework Rig può sfruttare i vantaggi delle prestazioni di Rust per ottenere una migliore scalabilità, progettato intrinsecamente per applicazioni ad alto throughput, il che potrebbe essere particolarmente efficace per implementazioni aziendali, sebbene questo possa significare che per ottenere una reale scalabilità sia necessaria una configurazione complessa.

  • La scalabilità di ZerePy è focalizzata sull'output creativo ed è supportata dai contributi della comunità, ma l'enfasi di questo framework potrebbe limitare la sua applicazione in un contesto AI più ampio, la sua scalabilità potrebbe essere messa alla prova dalla diversità dei compiti creativi piuttosto che dal numero di utenti.

In termini di applicabilità, Eliza guida il gruppo grazie al suo sistema di plugin e alla compatibilità cross-platform, seguita da G.A.M.E negli ambienti di gioco e Rig nel trattare compiti AI complessi. ZerePy ha dimostrato una grande adattabilità nel campo creativo, ma è meno applicabile in un contesto AI più ampio.

In termini di prestazioni, i risultati dei test per i quattro framework sono i seguenti.

  • Eliza è ottimizzata per interazioni rapide sui social media, ma le sue prestazioni potrebbero variare quando si affrontano compiti di calcolo più complessi.

  • G.A.M.E si concentra su interazioni in tempo reale ad alte prestazioni in scenari di gioco, sfruttando processi decisionali efficienti e possibili operazioni decentralizzate AI tramite blockchain.

  • Rig, basato su Rust, offre prestazioni eccezionali per compiti di calcolo ad alte prestazioni, adatto per applicazioni aziendali dove l'efficienza computazionale è cruciale.

  • Le prestazioni di ZerePy sono focalizzate sulla creazione di contenuti creativi, con metriche centrate sull'efficienza e qualità della generazione di contenuti, e potrebbero non essere molto universali al di fuori del campo creativo.

Combinando l'analisi dei punti di forza e di debolezza sopra menzionati, Eliza offre una maggiore flessibilità e scalabilità, mentre il sistema di plugin e la configurazione dei ruoli conferiscono una forte adattabilità, utile per l'interazione sociale dell'intelligenza artificiale su più piattaforme; G.A.M.E offre capacità uniche di interazione in tempo reale in scenari di gioco, e fornisce un coinvolgimento innovativo attraverso l'integrazione blockchain; i punti di forza di Rig risiedono nelle sue prestazioni e scalabilità, adatta per compiti AI di livello aziendale, ponendo attenzione alla semplicità e modularità del codice, per garantire una sana evoluzione del progetto nel lungo termine; Zerepy è abile nel coltivare la creatività, posizionandosi come leader nelle applicazioni AI per l'arte digitale, supportato da un modello di sviluppo guidato da una comunità vivace.

In sintesi, ciascun framework ha le proprie limitazioni. Eliza è ancora nelle fasi iniziali e presenta potenziali problemi di stabilità, con una curva di apprendimento lunga per i nuovi sviluppatori; l'attenzione di nicchia di G.A.M.E potrebbe limitare la sua applicazione più ampia, e l'introduzione della blockchain aggiunge complessità; la curva di apprendimento di Rig è ulteriormente ripida a causa della complessità del linguaggio Rust, il che potrebbe scoraggiare alcuni sviluppatori; la focalizzazione ristretta di Zerepy sugli output creativi potrebbe limitare la sua applicazione in altri ambiti dell'AI.

Analisi dei principali punti di confronto

Rig (ARC)

  • Linguaggio: Rust, con un focus sulla sicurezza e sulle prestazioni.

  • Casi d'uso: Focalizzato su efficienza e scalabilità, è una scelta ideale per applicazioni AI di livello aziendale.

  • Comunità: Meno orientata alla comunità, con maggiore attenzione agli sviluppatori tecnici.

Eliza (AI16Z)

  • Linguaggio: TypeScript, enfatizzando la flessibilità del Web3 e il coinvolgimento della comunità.

  • Casi d'uso: Progettati per interazioni sociali, DAO e transazioni, con particolare enfasi sui sistemi multi-agente.

  • Comunità: Fortemente guidata dalla comunità, con ampie connessioni a GitHub.

ZerePy (ZEREBRO):

  • Linguaggio: Python, più facilmente accessibile a un'ampia gamma di sviluppatori AI.

  • Casi d'uso: Adatto per automazione dei social media e compiti di agenti AI relativamente semplici.

  • Comunità: Relativamente nuova, ma grazie alla popolarità di Python e al supporto dei contributori ai16z, ci si aspetta una crescita.

G.A.M.E (VIRTUAL, GMAE):

  • Punti focali: Agenti AI autonomi e adattivi, capaci di evolversi in base all'interazione in ambienti virtuali.

  • Casi d'uso: Più adatti a scenari in cui gli agenti devono apprendere e adattarsi, come nei giochi o nei mondi virtuali.

  • Comunità: Innovativa, ma ancora in fase di definizione della propria posizione nel mercato.

Crescita dei dati su Github

I grafici sopra mostrano l'andamento del numero di stelle su GitHub da quando questi framework sono stati lanciati. In generale, le stelle su GitHub possono servire come indicatore dell'interesse della comunità, della popolarità del progetto e del valore percepito del progetto.

  • Eliza (linea rossa): Il grafico mostra un notevole aumento e una tendenza stabile nel numero di stelle di questo framework, partendo da un basso valore a luglio, ha cominciato a esplodere a novembre, raggiungendo ora 6100 stelle. Questo indica un rapido aumento dell'interesse attorno a questo framework, attirando l'attenzione degli sviluppatori. La crescita esponenziale suggerisce che Eliza ha guadagnato grande attrattiva grazie alle sue funzionalità, aggiornamenti e coinvolgimento della comunità, la sua popolarità supera di gran lunga quella di altri prodotti, indicando un forte supporto della comunità e una più ampia applicabilità o interesse all'interno della comunità AI.

  • Rig (linea blu): Rig è il framework più 'vecchio' tra i quattro, il suo aumento di stelle è modesto ma costante, recentemente ha mostrato un chiaro incremento nel mese scorso. Il numero totale di stelle ha raggiunto 1700, ma è ancora in fase di crescita. L'accumulo stabile di attenzione è dovuto a uno sviluppo continuo, aggiornamenti e a una base utenti in crescita. Questo potrebbe riflettere il fatto che Rig è un framework che sta ancora accumulando reputazione.

  • ZerePy (linea gialla): ZerePy è stato lanciato solo pochi giorni fa, e il numero di stelle è già cresciuto fino a 181. È importante sottolineare che ZerePy ha bisogno di ulteriori sviluppi per migliorare la sua visibilità e tasso di adozione, e la collaborazione con ai16z potrebbe attrarre più contributori a partecipare al suo codice sorgente.

  • G.A.M.E (linea verde): Questo framework ha un numero ridotto di stelle, ma è degno di nota il fatto che può essere applicato direttamente agli agenti nel sistema Virtual tramite API, eliminando la necessità di pubblicare su Github. Tuttavia, sebbene il framework sia stato reso pubblico solo poco più di un mese fa, ci sono già oltre 200 progetti che utilizzano G.A.M.E per la loro costruzione.

Aspettative di aggiornamento del framework AI

La versione 2.0 di Eliza includerà l'integrazione con il toolkit per agenti Coinbase. Tutti i progetti che utilizzano Eliza otterranno supporto per il futuro TEE (Trusted Execution Environment) nativo, consentendo agli agenti di operare in un ambiente sicuro. Il registro dei plugin (Plugin Registry) è una funzione imminente di Eliza, che permetterà agli sviluppatori di registrare e integrare plugin senza soluzione di continuità.

Inoltre, Eliza 2.0 supporterà la messaggistica anonima automatizzata cross-platform. Il white paper di Tokenomics, previsto per il rilascio il 1 gennaio 2025 (con proposte correlate già pubblicate), avrà un impatto positivo sui token AI16Z a supporto del framework Eliza. ai16z prevede di continuare a migliorare l'utilità di questo framework, sfruttando gli sforzi dei suoi principali contributori per attrarre talenti di alta qualità.

Il framework G.A.M.E fornisce integrazione senza codice per gli agenti, consentendo l'uso simultaneo di G.A.M.E ed Eliza all'interno di un singolo progetto, ciascuno servendo casi d'uso specifici. Ci si aspetta che questo approccio attiri costruttori focalizzati sulla logica aziendale piuttosto che sulla complessità tecnica. Sebbene questo framework sia stato reso pubblico solo da oltre 30 giorni, ha già fatto progressi significativi grazie agli sforzi del team per attrarre maggiore supporto dai contributori. Si prevede che ogni progetto avviato su VirtualI adotterà G.A.M.E.

Il framework Rig, alimentato dal token ARC, ha un potenziale significativo, sebbene la crescita del suo framework sia ancora nelle fasi iniziali, e i progetti che spingono l'adozione di Rig siano stati lanciati solo da pochi giorni. Tuttavia, si prevedono progetti di alta qualità con ARC a breve, simili al volano di Virtual, ma focalizzati su Solana. Il team di Rig è ottimista riguardo alla collaborazione con Solana, posizionando ARC come il Virtual di Solana. È interessante notare che il team non solo incentiva i nuovi progetti avviati con Rig, ma incoraggia anche gli sviluppatori ad arricchire il framework Rig stesso.

Zerepy è un framework recentemente lanciato, attualmente ricevendo molta attenzione grazie alla collaborazione con ai16z (il framework Eliza). Ha attratto contributori da Eliza, che stanno lavorando attivamente per migliorare il framework. Zerepy gode di un fervente supporto da parte della comunità ZEREBRO e sta creando nuove opportunità per gli sviluppatori Python che precedentemente avevano poca libertà nel competitivo campo dell'infrastruttura AI. Si prevede che questo framework avrà un ruolo importante nel campo creativo dell'AI.