Article repris de : Odaily星球日报

Cet article provient de : Deep Value Memetics

Rédaction|Odaily星球日报(@OdailyChina)

Traducteur|Azuma(@azuma_eth)

Résumé des points clés

Dans ce rapport, nous avons examiné le paysage de développement des principaux cadres dans le domaine de la crypto et de l'IA. Nous allons analyser les quatre principaux cadres actuels - Eliza (AI16Z), G.A.M.E (GAME), Rig (ARC), ZerePy (ZEREBRO), en décomposant leurs différences techniques et leur potentiel de développement.

Au cours de la semaine dernière, nous avons analysé et testé les quatre cadres ci-dessus, et voici un résumé de nos conclusions.

  • Nous pensons qu'Eliza (avec une part de marché d'environ 60 % et une capitalisation boursière d'environ 900 millions de dollars au moment de la rédaction, atteignant environ 1,4 milliard de dollars à la publication) continuera de dominer le marché. La valeur d'Eliza réside dans son avantage de premier arrivé et l'adoption rapide par les développeurs, comme le prouve le nombre de 193 contributeurs, 1800 forks et plus de 6000 étoiles sur Github, faisant d'elle l'une des bibliothèques logicielles les plus populaires sur Github.

  • G.A.M.E (avec une part de marché d'environ 20 % et une capitalisation boursière d'environ 300 millions de dollars au moment de la rédaction, atteignant environ 257 millions de dollars à la publication) a jusqu'à présent connu un développement très fluide, faisant également l'expérience d'une adoption rapide. Comme l'indiquait un précédent communiqué de Virtuals Protocol, plus de 200 projets basés sur G.A.M.E ont déjà été construits, avec des demandes quotidiennes dépassant 150 000, et un taux de croissance hebdomadaire supérieur à 200 %. G.A.M.E continuera de bénéficier de l'explosion de VIRTUAL et pourrait devenir l'un des plus grands gagnants de cet écosystème.

  • Rig (avec une part de marché d'environ 15 % et une capitalisation boursière d'environ 160 millions de dollars au moment de la rédaction, atteignant environ 279 millions de dollars à la publication) présente un design modulaire très attrayant et facile à utiliser, avec des perspectives pour dominer dans l'écosystème Solana (RUST).

  • Zerepy (avec une part de marché d'environ 5 % et une capitalisation boursière d'environ 300 millions de dollars au moment de la rédaction, atteignant environ 424 millions de dollars à la publication) est une application plus de niche, spécifique à une communauté ZEREBRO passionnée, dont la récente collaboration avec la communauté ai16z pourrait créer des synergies.

Dans les statistiques ci-dessus, la 'part de marché' tient compte de la capitalisation boursière, de l'historique de développement et de la largeur du marché terminal du système d'exploitation sous-jacent.

Nous croyons que les cadres AI deviendront le secteur à la croissance la plus rapide de cette période, avec une capitalisation boursière totale d'environ 1,7 milliard de dollars qui pourrait facilement atteindre 20 milliards de dollars, un chiffre qui pourrait encore sembler conservateur par rapport à l'évaluation des Layer1 au pic de 2021, où de nombreux projets uniques valaient plus de 20 milliards de dollars. Bien que ces cadres servent différents marchés finaux (chaînes/écosystèmes), nous pensons que le secteur global connaîtra une croissance, et une approche pondérée par la capitalisation boursière pourrait être relativement plus prudente.

Quatre principaux cadres

À l'intersection de l'IA et de la crypto-monnaie, plusieurs cadres visant à accélérer le développement de l'IA ont émergé, notamment Eliza (AI16Z), G.A.M.E (GAME), Rig (ARC) et ZerePy (ZEREBRO). Des projets communautaires open source aux solutions d'entreprise axées sur la performance, chaque cadre répond à différents besoins et philosophies de développement d'agents.

Dans le tableau ci-dessous, nous avons répertorié les technologies clés, les composants et les avantages de chaque cadre.

Ce rapport se concentrera d'abord sur ce que sont ces cadres, les langages de programmation qu'ils utilisent, leur architecture technique, leurs algorithmes et les fonctionnalités uniques aux cas d'utilisation potentiels. Ensuite, nous comparerons chaque cadre selon leur facilité d'utilisation, leur évolutivité, leur adaptabilité et leur performance, tout en discutant de leurs avantages et limites.

Eliza

Eliza est un cadre multi-agents open source développé par ai16z, conçu pour créer, déployer et gérer des agents IA autonomes. Il est développé en TypeScript, offrant une plateforme flexible et évolutive pour construire des agents intelligents capables d'interagir avec les humains sur plusieurs plateformes tout en maintenant une personnalité et une connaissance cohérentes.

Les fonctionnalités clés de ce cadre incluent : la prise en charge du déploiement et de la gestion simultanés de plusieurs personnalités AI uniques grâce à une architecture multi-agents ; la création d'un système de rôles variés pour les agents à l'aide d'un cadre de fichiers de rôles ; et la fourniture de fonctionnalités de gestion de mémoire à long terme et de contexte perceptible grâce à un système de génération augmentée par récupération (RAG) avancé. De plus, le cadre Eliza offre une intégration fluide avec les plateformes, assurant une connexion fiable avec Discord, X et d'autres plateformes de médias sociaux.

Concernant les fonctionnalités de communication et de médias des agents AI, Eliza est un excellent choix. En matière de communication, ce cadre prend en charge l'intégration avec les fonctionnalités des canaux vocaux de Discord, les fonctionnalités de X, Telegram, ainsi qu'un accès API direct pour des cas d'utilisation personnalisés. D'autre part, les fonctionnalités de traitement des médias du cadre ont été étendues pour inclure la lecture et l'analyse de documents PDF, l'extraction et le résumé de contenu de liens, la transcription audio, le traitement de contenu vidéo, l'analyse d'images et le résumé de conversations, permettant ainsi de traiter efficacement divers entrées et sorties multimédias.

Eliza offre un support flexible pour les modèles AI, permettant un raisonnement local via des modèles open source, ainsi qu'un raisonnement basé sur le cloud à l'aide de configurations par défaut telles que OpenAI et Nous Hermes Llama 3.1B, tout en prenant en charge l'intégration de Claude pour traiter des requêtes complexes. Eliza adopte une architecture modulaire, possédant un large éventail de systèmes d'action, un support client personnalisé et une API complète, garantissant évolutivité et adaptabilité inter-applications.

Les cas d'utilisation d'Eliza couvrent plusieurs domaines, tels que les assistants AI liés au support client, à la gestion communautaire et aux tâches personnelles ; des créateurs de contenu automatisés, des représentants de marques et d'autres rôles sur les médias sociaux ; il peut également servir de travailleur du savoir, jouant des rôles tels que l'assistant de recherche, l'analyste de contenu et le gestionnaire de documents ; ainsi que des rôles interactifs sous forme de robots de jeu de rôle, de tuteurs éducatifs et d'agents d'investissement.

L'architecture d'Eliza est construite autour d'un runtime d'agent, qui peut s'intégrer de manière transparente avec des systèmes de rôle (soutenus par des fournisseurs de modèles), un gestionnaire de mémoire (connecté à une base de données) et un système d'actions (lié au client de la plateforme). Les fonctionnalités uniques de ce cadre incluent un système de plugins permettant l'extension modulaire des fonctionnalités, la prise en charge des interactions multimodales telles que la voix, le texte et les médias, ainsi que la compatibilité avec des modèles AI de pointe comme Llama, GPT-4 et Claude. Grâce à sa polyvalence et son design puissant, Eliza devient un outil puissant pour le développement d'applications AI inter-domaines.

G.A.M.E

G.A.M.E est développé par l'équipe officielle de Virtuals, et signifie 'Cadre des Entités Multimodales Autonomes Génératives', ce cadre vise à fournir aux développeurs des API et des SDK afin qu'ils puissent expérimenter avec des agents AI. Ce cadre propose une approche structurée pour gérer le comportement, la prise de décision et le processus d'apprentissage des agents AI.

  • Les composants clés de G.A.M.E sont les suivants : d'abord, l'interface de prompt d'agent, qui est l'entrée pour les développeurs intégrant G.A.M.E dans les agents pour obtenir des comportements d'agents.

  • Le 'système de perception' lance la session en spécifiant des paramètres tels que l'ID de session, l'ID d'agent, l'utilisateur et d'autres détails pertinents. Il synthétise les messages entrants dans un format adapté au 'moteur de planification stratégique', agissant comme le mécanisme d'entrée sensoriel de l'agent AI, que ce soit sous forme de dialogues ou de réponses. Le cœur ici est le 'module de traitement des dialogues', qui est chargé de traiter les messages et réponses des agents, collaborant efficacement avec le 'système de perception' pour interpréter et répondre aux entrées.

  • Le 'moteur de planification stratégique' travaille en synergie avec le 'module de traitement des dialogues' et le 'opérateur de portefeuille on-chain', générant des réponses et des plans. Ce moteur fonctionne à deux niveaux : en tant que planificateur de haut niveau, créant des stratégies larges basées sur le contexte ou les objectifs ; en tant que stratégie de bas niveau, transformant ces stratégies en politiques exécutables, subdivisées en planificateurs d'actions (pour spécifier les tâches) et exécuteurs de plan (pour exécuter les tâches).

  • Un composant distinct mais clé est le 'contexte mondial', qui fait référence à l'environnement, aux informations mondiales et à l'état du jeu, fournissant le contexte nécessaire à la prise de décision des agents. De plus, la 'bibliothèque d'agents' est utilisée pour stocker des attributs à long terme tels que les objectifs, les réflexions, les expériences et la personnalité, qui façonnent collectivement le comportement et le processus décisionnel des agents. Ce cadre utilise la 'mémoire de travail à court terme' et le 'processeur de mémoire à long terme' — la mémoire à court terme conserve des informations pertinentes sur les actions passées, les résultats et les plans en cours ; en revanche, le processeur de mémoire à long terme extrait des informations clés selon des critères tels que l'importance, la récence et la pertinence. Cette mémoire stocke des connaissances sur les expériences des agents, les réflexions, la personnalité dynamique, le contexte mondial et la mémoire de travail, afin d'améliorer la prise de décision et de fournir une base pour l'apprentissage.

  • Pour accroître la structure, le 'module d'apprentissage' extrait des données du 'système de perception' pour générer des connaissances générales, qui sont renvoyées dans le système pour optimiser les interactions futures. Les développeurs peuvent fournir des retours via l'interface sur les actions, l'état du jeu et les données sensorielles afin d'améliorer l'apprentissage des agents AI et d'augmenter leur capacité de planification et de décision.

Le flux de travail commence par l'interaction des développeurs via l'interface de prompt d'agent ; le 'système de perception' traite les entrées et les transmet au 'module de traitement des dialogues', qui gère la logique d'interaction ; ensuite, le 'moteur de planification stratégique' élabore et exécute des plans basés sur ces informations, en utilisant des stratégies avancées et une planification d'actions détaillée.

Les données provenant du 'contexte mondial' et de la 'bibliothèque d'agents' fournissent des informations pour ces processus, tandis que la mémoire de travail suit les tâches immédiates. Parallèlement, le 'processeur de mémoire à long terme' stocke et récupère des connaissances au fil du temps. Le 'module d'apprentissage' analyse les résultats et intègre les nouvelles connaissances dans le système, permettant aux comportements et interactions des agents de s'améliorer continuellement.

Rig

Rig est un cadre open source basé sur Rust, conçu pour simplifier le développement d'applications de modèles de langage de grande taille (LLM). Il fournit une interface unifiée pour interagir avec plusieurs fournisseurs de LLM (comme OpenAI et Anthropic) et prend en charge divers stockages de vecteurs, y compris MongoDB et Neo4j. L'architecture modulaire de ce cadre comprend des composants clés tels que 'couche d'abstraction des fournisseurs', 'intégration de stockage de vecteurs' et 'système d'agents', facilitant l'interaction transparente avec les LLM.

Le principal public de Rig comprend les développeurs construisant des applications AI/ML en Rust, tandis que le public secondaire inclut les organisations cherchant à intégrer plusieurs fournisseurs de LLM et de stockage de vecteurs dans leurs applications Rust. La bibliothèque est organisée selon une structure basée sur des espaces de travail, contenant plusieurs crates, permettant une évolutivité et une gestion efficace des projets. Les principales fonctionnalités de Rig incluent la 'couche d'abstraction des fournisseurs', qui standardise les API des fournisseurs de LLM pour leur intégration et leur acheminement en gérant les erreurs de manière cohérente ; le composant 'intégration de stockage de vecteurs' fournit une interface abstraite pour plusieurs backends et prend en charge la recherche de similarité de vecteurs ; le 'système d'agents' simplifie l'interaction avec les LLM, prenant en charge la génération augmentée par récupération (RAG) et l'intégration d'outils. De plus, le cadre d'insertion offre des capacités de traitement par lot et des opérations d'insertion à type sécurisé.

Rig utilise plusieurs avantages technologiques pour garantir la fiabilité et la performance. Les opérations asynchrones tirent parti du runtime asynchrone de Rust pour gérer efficacement un grand nombre de demandes simultanées ; le mécanisme de gestion des erreurs inhérent au cadre améliore la capacité de récupération en cas de défaillance des fournisseurs d'intelligence artificielle ou des opérations de base de données ; la sécurité de type prévient les erreurs à la compilation, améliorant ainsi la maintenabilité du code ; des processus de sérialisation et de désérialisation efficaces aident à traiter les données au format JSON, entre autres, ce qui est crucial pour la communication et le stockage des services d'intelligence artificielle ; une journalisation et un tableau de bord détaillés aident également au débogage et à la surveillance des applications.

Le flux de travail dans Rig commence par une demande initiée par le client, le flux de demandes transitant par la 'couche d'abstraction des fournisseurs', interagissant avec le modèle LLM approprié ; ensuite, les données sont traitées par la couche centrale, où les agents peuvent utiliser des outils ou accéder à un stockage de vecteurs pour obtenir un contexte ; à travers des flux de travail complexes tels que RAG, des réponses sont générées et affinées, comprenant la recherche de documents et la compréhension du contexte, puis renvoyées au client. Ce système intègre plusieurs fournisseurs de LLM et de stockage de vecteurs, s'adaptant aux disponibilités ou aux variations de performance des modèles.

Les cas d'utilisation de Rig sont variés, allant de la recherche de documents pertinents pour fournir des réponses précises dans les systèmes de questions-réponses, à la recherche et à la récupération de documents pour une découverte de contenu efficace, ainsi qu'à des chatbots ou assistants virtuels fournissant des interactions contextuelles pour le service client ou l'éducation. Il prend également en charge la génération de contenu, capable de créer des textes et d'autres matériels basés sur des modèles appris, en faisant un outil polyvalent pour les développeurs et les organisations.

ZerePy

ZerePy est un cadre open source écrit en Python, conçu pour déployer des agents en utilisant OpenAI ou Anthropic LLM sur X. ZerePy est dérivé de la version modulaire de l'arrière-plan Zerebro, permettant aux développeurs de démarrer des agents avec des fonctionnalités similaires à celles du cœur de Zerebro. Bien que ce cadre fournisse une base pour le déploiement des agents, un ajustement fin des modèles est nécessaire pour produire des sorties créatives. ZerePy simplifie le développement et le déploiement d'agents AI personnalisés, particulièrement adaptés à la création de contenu sur les plateformes sociales, facilitant un écosystème AI créatif axé sur l'art et les applications décentralisées.

Ce cadre est construit en Python, mettant l'accent sur l'autonomie des agents, avec un accent sur la génération de productions créatives, en accord avec l'architecture d'Eliza + les partenariats. Son design modulaire prend en charge l'intégration des systèmes de mémoire, facilitant le déploiement des agents sur les plateformes sociales. Ses principales fonctionnalités incluent une interface de ligne de commande pour la gestion des agents, l'intégration avec X, le support pour OpenAI et Anthropic LLM, et un système de connexion modulaire pour des fonctionnalités améliorées.

Les cas d'utilisation de ZerePy couvrent l'automatisation des médias sociaux, permettant aux utilisateurs de déployer des agents AI pour publier, répondre, aimer et retweeter, augmentant ainsi l'engagement sur la plateforme. De plus, il est adapté à la création de contenu dans des domaines tels que la musique, les mémos et les NFT, étant un outil important pour l'art numérique et les plateformes de contenu basées sur la blockchain.

Comparaison horizontale

À notre avis, chacun des cadres mentionnés ci-dessus apporte une approche unique au développement de l'IA, répondant à des besoins et contextes spécifiques, ce qui rend le débat moins centré sur la question de savoir si ces cadres sont concurrents, mais plutôt sur la capacité de chaque cadre à offrir une utilité et une valeur uniques.

  • Eliza se distingue par son interface conviviale, particulièrement adaptée aux développeurs familiers avec JavaScript et l'environnement Node.js. Sa documentation complète aide à configurer des agents IA sur diverses plateformes, bien que son ensemble de fonctionnalités riches puisse présenter une courbe d'apprentissage modérée. Grâce à l'utilisation de TypeScript, Eliza est très adaptée à la construction d'agents intégrés dans le web, la plupart de l'infrastructure frontale étant construite avec TypeScript. Le cadre est connu pour son architecture multi-agent, capable de déployer des agents de personnalité AI diversifiés sur des plateformes comme Discord, X et Telegram. Son système RAG avancé pour la gestion de la mémoire le rend particulièrement adapté à la construction d'assistants AI pour le support client ou les applications de médias sociaux. Bien qu'il offre flexibilité, un fort soutien communautaire et des performances cohérentes sur plusieurs plateformes, il en est encore à ses débuts et pourrait représenter une courbe d'apprentissage pour les développeurs.

  • G.A.M.E est conçu pour les développeurs de jeux, offrant une interface à faible code ou sans code via une API, facilitant l'accès pour les utilisateurs ayant un niveau technique plus faible dans le domaine du jeu. Cependant, il se concentre sur le développement de jeux et l'intégration blockchain, ce qui peut rendre la courbe d'apprentissage assez raide pour ceux qui n'ont pas d'expérience pertinente. Il excelle dans la génération de contenus programmatiques et le comportement des NPC, mais est également limité par sa niche et la complexité supplémentaire lors de l'intégration blockchain.

  • Rig, en raison de l'utilisation du langage Rust, peut être peu convivial pour les utilisateurs en raison de la complexité du langage, ce qui pose un grand défi en matière d'apprentissage, mais offre une interaction intuitive pour ceux qui maîtrisent la programmation système. Comparé à TypeScript, Rust est connu pour sa performance et sa sécurité mémoire. Il dispose de vérifications strictes à la compilation et d'une abstraction sans coût, ce qui est nécessaire pour exécuter des algorithmes d'intelligence artificielle complexes. L'efficacité et les caractéristiques à faible contrôle de ce langage en font un choix idéal pour les applications AI gourmandes en ressources. Le cadre adopte un design modulaire et évolutif, offrant des solutions de haute performance, particulièrement adaptées aux applications d'entreprise. Cependant, pour les développeurs non familiarisés avec le langage Rust, l'utilisation de Rust peut entraîner une courbe d'apprentissage abrupte.

  • ZerePy utilise le langage Python, offrant une plus grande disponibilité pour les tâches AI créatives. Pour les développeurs Python, en particulier ceux ayant un bagage en IA/ML, la courbe d'apprentissage est faible, et grâce à la popularité de ZEREBRO, un solide soutien communautaire est disponible. ZerePy excelle dans les applications AI créatives telles que les NFT, le cadre se positionnant également comme un puissant outil dans le domaine des médias numériques et de l'art. Bien qu'il excelle dans le domaine créatif, son champ d'application est relativement étroit comparé à d'autres cadres.

Voici la comparaison de l'évolutivité entre les quatre principaux cadres.

  • Eliza a fait de grands progrès avec la mise à jour V2, introduisant un flux de messages unifié et un cadre central extensible, permettant une gestion efficace inter-plateformes. Cependant, sans optimisation, la gestion de cette interaction multi-plateformes peut poser des défis en matière d'évolutivité.

  • G.A.M.E excelle dans le traitement en temps réel requis par les jeux, et son évolutivité peut être gérée par des algorithmes efficaces et un potentiel de systèmes distribués basés sur la blockchain, bien qu'il puisse être limité par des moteurs de jeu spécifiques ou des réseaux blockchain.

  • Le cadre Rig peut tirer parti des avantages de performance de Rust pour une meilleure évolutivité, conçu dès le départ pour des applications à fort débit, ce qui pourrait être particulièrement efficace pour les déploiements d'entreprise, bien que cela puisse impliquer des configurations complexes pour réaliser une véritable évolutivité.

  • L'évolutivité de ZerePy est axée sur la production créative, soutenue par des contributions communautaires, mais l'accent mis par ce cadre pourrait limiter son application dans un environnement AI plus large, son évolutivité étant probablement mise à l'épreuve par la diversité des tâches créatives plutôt que par le nombre d'utilisateurs.

En termes d'applicabilité, Eliza, grâce à son système de plugins et sa compatibilité inter-plateformes, est de loin en tête, suivie par G.A.M.E dans les environnements de jeu et Rig dans le traitement de tâches d'IA complexes. ZerePy montre une grande adaptabilité dans le domaine créatif, mais est moins applicable dans un cadre AI plus large.

En termes de performance, voici les résultats des tests des quatre cadres.

  • Eliza est optimisée pour des interactions rapides sur les médias sociaux, mais sa performance peut varier lors du traitement de tâches computationnelles plus complexes.

  • G.A.M.E se concentre sur les interactions en temps réel à haute performance dans les scénarios de jeu, tirant parti de processus décisionnels efficaces et de la blockchain potentielle pour des opérations AI décentralisées.

  • Rig, basé sur Rust, peut fournir d'excellentes performances pour des tâches de calcul haute performance, adaptées aux applications d'entreprise où l'efficacité du calcul est essentielle.

  • La performance de ZerePy est axée sur la création de contenus créatifs, ses indicateurs étant centrés sur l'efficacité et la qualité de la génération de contenus, ce qui pourrait être moins générique en dehors du domaine créatif.

En combinant l'analyse des forces et des faiblesses ci-dessus, Eliza offre une meilleure flexibilité et évolutivité, son système de plugins et de configuration des rôles lui conférant une grande adaptabilité, favorable aux interactions sociales AI inter-plateformes ; G.A.M.E offre des capacités d'interaction en temps réel uniques dans le cadre des jeux, et propose une participation AI innovante grâce à l'intégration blockchain ; les points forts de Rig résident dans sa performance et son évolutivité, adaptées aux tâches AI de niveau entreprise, tout en mettant l'accent sur la simplicité et la modularité du code pour garantir le développement à long terme des projets ; Zerepy excelle dans la stimulation de la créativité, étant à l'avant-garde des applications AI dans les arts numériques, soutenu par un modèle de développement communautaire dynamique.

En résumé, chaque cadre a ses limites. Eliza est encore à ses débuts et présente des problèmes de stabilité potentiels, avec une courbe d'apprentissage longue pour les nouveaux développeurs ; l'orientation de niche de G.A.M.E pourrait limiter son application plus large, et l'introduction de la blockchain pourrait ajouter de la complexité ; la courbe d'apprentissage de Rig est plus abrupte en raison de la complexité du langage Rust, ce qui pourrait dissuader certains développeurs ; l'accent étroit de Zerepy sur la production créative pourrait limiter son application dans d'autres domaines d'IA.

Résumé des principaux éléments de comparaison

Rig (ARC)

  • Langage : Rust, axé sur la sécurité et la performance.

  • Cas d'utilisation : axé sur l'efficacité et l'évolutivité, idéal pour les applications AI de niveau entreprise.

  • Communauté : peu axée sur la communauté, davantage sur les développeurs techniques.

Eliza (AI16Z)

  • Langage : TypeScript, soulignant la flexibilité de Web3 et la participation communautaire.

  • Cas d'utilisation : conçu spécifiquement pour les interactions sociales, les DAO et les transactions, mettant particulièrement l'accent sur les systèmes multi-agents.

  • Communauté : hautement axée sur la communauté, en ayant des liens étendus avec GitHub.

ZerePy (ZEREBRO) :

  • Langage : Python, plus facilement accepté par un plus large groupe de développeurs AI.

  • Cas d'utilisation : adapté à l'automatisation des médias sociaux et aux tâches d'agent AI relativement simples.

  • Communauté : relativement nouvelle, mais avec le soutien de la popularité de Python et des contributeurs d'ai16z, elle devrait connaître une croissance.

G.A.M.E (VIRTUAL, GMAE) :

  • Points clés : agents IA autonomes et adaptatifs, pouvant évoluer en fonction des interactions dans des environnements virtuels.

  • Cas d'utilisation : le mieux adapté aux scénarios où les agents doivent apprendre et s'adapter, tels que les jeux ou les mondes virtuels.

  • Communauté : innovante, mais encore en train de déterminer sa position dans la concurrence.

Croissance des données Github

Le graphique ci-dessus montre l'évolution du nombre d'étoiles sur GitHub depuis le lancement de ces cadres. En général, les étoiles sur GitHub peuvent servir d'indicateurs de l'intérêt communautaire, de la popularité du projet et de la valeur perçue du projet.

  • Eliza (ligne rouge) : Le graphique montre une augmentation significative et une tendance stable dans le nombre d'étoiles de ce cadre, démarrant d'une basse base en juillet, avec une montée en flèche à la fin novembre, atteignant maintenant 6100 étoiles. Cela indique un intérêt croissant autour de ce cadre, attirant l'attention des développeurs. La croissance exponentielle indique qu'Eliza a gagné une immense attrait en raison de ses fonctionnalités, mises à jour et participation communautaire, sa popularité dépassant de loin celle des autres produits, ce qui témoigne d'un fort soutien communautaire et d'une applicabilité ou d'un intérêt plus larges dans la communauté de l'intelligence artificielle.

  • Rig (ligne bleue) : Rig est le plus ancien des quatre cadres, sa croissance en étoiles étant modeste mais stable, avec une augmentation notable ces derniers mois. Son total d'étoiles a atteint 1700, mais il est toujours en voie d'augmentation. L'accumulation stable de l'attention est due à un développement continu, des mises à jour et une base d'utilisateurs en expansion. Cela peut refléter que Rig est un cadre qui continue de bâtir sa réputation.

  • ZerePy (ligne jaune) : ZerePy vient tout juste d'être lancé il y a quelques jours, et le nombre d'étoiles a déjà augmenté à 181. Il convient de souligner que ZerePy a besoin de plus de développement pour améliorer sa visibilité et son taux d'adoption, et la collaboration avec ai16z pourrait attirer davantage de contributeurs pour son code.

  • G.A.M.E (ligne verte) : Le nombre d'étoiles de ce cadre est faible, mais il est à noter que ce cadre peut être directement appliqué aux agents dans l'écosystème Virtual via API, donc sans besoin de publication sur Github. Cependant, bien que ce cadre ait été ouvert aux constructeurs il y a un peu plus d'un mois, plus de 200 projets utilisent déjà G.A.M.E pour leur construction.

Anticipation des mises à niveau du cadre AI

La version 2.0 d'Eliza comprendra une intégration avec le kit d'outils d'agent Coinbase. Tous les projets utilisant Eliza bénéficieront d'un soutien pour un environnement TEE natif (Trusted Execution Environment) dans le futur, permettant aux agents de fonctionner dans un environnement sécurisé. Un registre de plugins est une fonctionnalité à venir d'Eliza, permettant aux développeurs de s'inscrire et d'intégrer des plugins de manière transparente.

De plus, Eliza 2.0 prendra en charge la messagerie anonyme automatisée inter-plateformes. Le livre blanc sur la Tokenomics, prévu pour le 1er janvier 2025, aura un impact positif sur le token AI16Z soutenant le cadre Eliza. ai16z prévoit de continuer à renforcer l'utilité de ce cadre et de tirer parti des efforts de ses principaux contributeurs pour attirer des talents de haut niveau.

Le cadre G.A.M.E offre une intégration sans code pour les agents, permettant d'utiliser à la fois G.A.M.E et Eliza dans un seul projet, chacun servant des cas d'utilisation spécifiques. Cette approche devrait attirer les constructeurs axés sur la logique métier plutôt que sur la complexité technique. Bien que ce cadre ne soit disponible publiquement que depuis un peu plus de 30 jours, il a déjà fait des progrès significatifs grâce aux efforts de l'équipe pour attirer davantage de contributeurs. Il est prévu que chaque projet lancé sur VirtuaI adoptera G.A.M.E.

Le cadre Rig, soutenu par le token ARC, possède un potentiel significatif, bien que sa croissance soit à un stade précoce et que les projets de contrat incitant à l'adoption de Rig ne soient en ligne que depuis quelques jours. Cependant, des projets de haute qualité associés à l'ARC devraient apparaître prochainement, similaires à l'effet de volant de Virtual, mais en se concentrant sur Solana. L'équipe Rig est optimiste quant à sa collaboration avec Solana, positionnant l'ARC comme le Virtual de Solana. Il est important de noter que l'équipe incite non seulement l'utilisation de nouveaux projets lancés sur Rig, mais également les développeurs à améliorer le cadre Rig lui-même.

Zerepy est un cadre récemment lancé, qui attire une attention considérable grâce à sa collaboration avec ai16z (le cadre Eliza), attirant des contributeurs d'Eliza qui travaillent activement à améliorer ce cadre. Zerepy bénéficie d'un soutien passionné de la communauté ZEREBRO, ouvrant de nouvelles opportunités pour les développeurs Python qui n'ont pas pu se faire une place dans le domaine de l'infrastructure AI compétitive. Ce cadre devrait jouer un rôle important dans les aspects créatifs de l'IA.