En 2022, OpenAI a lancé ChatGPT, basé sur le modèle GPT-3.5, qui a depuis lancé des vagues de récits d'IA. Cependant, même si ChatGPT peut gérer efficacement les problèmes dans la plupart des cas, ses performances peuvent encore être limitées lorsque des connaissances spécifiques au domaine ou des données en temps réel sont requises. Par exemple, interrogé sur l’historique des échanges de jetons de Vitalik Buterin au cours des 18 derniers mois, il n’a pas été en mesure de fournir des informations fiables et détaillées. À cette fin, Semiotic Labs, l'équipe de développement principale de The Graph, a combiné la pile logicielle d'indexation The Graph et OpenAI pour lancer le projet Agentc, qui peut fournir aux utilisateurs des services d'analyse des tendances du marché des crypto-monnaies et de requête de données de transaction.

Lorsque Agentc a été interrogé sur l’historique des échanges de jetons de Vitalik Buterin au cours des 18 derniers mois, il a fourni une réponse plus détaillée. Cependant, la présentation de l'IA de The Graph ne se limite pas à cela. Dans le livre blanc publié "The Graph as AI Infrastructure", il est indiqué que l'objectif n'est pas de lancer une application spécifique, mais d'en tirer pleinement parti en tant qu'index de données décentralisé. Avantages du protocole, fournissant aux développeurs des outils pour créer des applications d'IA natives Web3. Afin de soutenir cet objectif, Semiotic Labs ouvrira également la base de code Agentc, permettant aux développeurs de créer des dapps IA avec des fonctions similaires à Agentc, telles que les agents d'analyse des tendances du marché NFT et les agents assistants commerciaux DeFi.

La feuille de route de l'IA décentralisée Graph

Lancé en juillet 2018, The Graph est un protocole décentralisé d'indexation et d'interrogation des données blockchain. Grâce à ce protocole, les développeurs peuvent utiliser des API ouvertes pour créer et publier des index de données appelés sous-graphes, permettant aux applications de récupérer efficacement des données en chaîne. À ce jour, The Graph a pris en charge plus de 50 chaînes, hébergé plus de 75 000 projets et traité plus de 1 260 milliards de requêtes.

La capacité de Graph à gérer d'aussi énormes quantités de données est indissociable du soutien de l'équipe principale derrière lui, notamment Edge & Node, Streamingfast, Semiotic, The Guild, GraphOps, Messari et Pinax. Parmi eux, Streamingfast fournit principalement une technologie d'architecture inter-chaînes pour le flux de données blockchain, tandis que Semiotic AI se concentre sur l'application de l'IA et de la cryptographie à The Graph. The Guild, GraphOps, Messari et Pinax se concentrent chacun sur des domaines tels que le développement GraphQL, les services d'indexation, le développement de sous-graphes et les solutions de flux de données.

L’IA de mise en page graphique n’est pas une idée nouvelle. En mars de l'année dernière, The Graph Blog a publié un article décrivant le potentiel d'exploitation de ses capacités d'indexation de données pour les applications d'intelligence artificielle. En décembre de l'année dernière, The Graph a publié une nouvelle feuille de route appelée « New Era », prévoyant d'ajouter des requêtes assistées par l'IA pour les grands modèles de langage. Sa feuille de route en matière d’IA est devenue plus claire avec la récente publication d’un livre blanc. Le livre blanc présente deux services d'IA : Inference et Agent Service, qui permettent aux développeurs d'intégrer directement les fonctions d'IA dans le front-end de l'application. L'ensemble du processus est pris en charge par The Graph.

Service d'inférence : prend en charge plusieurs modèles d'IA open source

Dans les services d'inférence traditionnels, les modèles effectuent des prédictions sur les données d'entrée via des ressources informatiques cloud centralisées. Par exemple, lorsque vous posez une question à ChatGPT, il raisonnera et renverra une réponse. Cependant, cette approche centralisée non seulement augmente les coûts mais crée également des risques de censure. The Graph espère résoudre ce problème en créant un marché d'hébergement de modèles décentralisé, permettant aux développeurs de dApp d'être plus flexibles lors du déploiement et de l'hébergement de modèles d'IA.

The Graph donne un exemple dans son livre blanc de la façon dont il a créé une application pour aider les utilisateurs de Farcaster à comprendre si leurs publications obtiendraient beaucoup de likes. Tout d'abord, utilisez le service de données de sous-graphe de The Graph pour indexer le nombre de commentaires et de likes sur les publications de Farcaster. Ensuite, un réseau neuronal est formé pour prédire si un nouveau commentaire Farcaster sera apprécié, et le réseau neuronal est déployé dans le service d'inférence de The Graph. La dApp résultante a été développée pour aider les utilisateurs à rédiger des articles qui obtiennent plus de likes.

Cette approche permet aux développeurs d'exploiter facilement l'infrastructure de The Graph, d'héberger des modèles pré-entraînés sur le réseau The Graph et de les intégrer dans des applications via des interfaces API, afin que les utilisateurs puissent directement découvrir ces fonctionnalités lorsqu'ils utilisent des dApps.

Afin d'offrir aux développeurs plus de choix et de flexibilité, le service d'inférence de The Graph prend en charge la plupart des modèles populaires existants. Il écrit dans le livre blanc : « Au stade MVP, le service d'inférence de The Graph prendra en charge un ensemble sélectionné de modèles d'IA open source populaires, notamment Stable Diffusion, Stable Video Diffusion, LLaMA, Mixtral, Grok et Whisper, etc. » À l’avenir, tous les modèles ouverts ayant subi suffisamment de tests et d’opérations d’indexation pourront être déployés dans The Graph Inference Service. De plus, pour réduire la complexité technique du déploiement de modèles d'IA, The Graph fournit une interface conviviale qui simplifie l'ensemble du processus, permettant aux développeurs de télécharger et de gérer facilement leurs modèles d'IA sans se soucier de la maintenance de l'infrastructure.

Afin d'améliorer encore les performances du modèle dans des scénarios d'application spécifiques, The Graph prend également en charge le réglage fin du modèle pour des ensembles de données spécifiques. Mais il est important de noter que le réglage fin n’est généralement pas effectué sur The Graph. Les développeurs doivent affiner les modèles en externe, puis les déployer à l'aide du service d'inférence de The Graph. Pour encourager les développeurs à rendre publics des modèles affinés, The Graph développe des incitations telles que la répartition des frais de requête entre les créateurs de modèles et les indexeurs qui fournissent les modèles.

Lorsqu'il s'agit de vérifier l'exécution des tâches d'inférence, The Graph fournit plusieurs méthodes telles que l'autorité de confiance, le consensus M-of-N, les preuves de fraude interactives et les zk-SNARK. Chacune de ces quatre méthodes a ses avantages et ses inconvénients, parmi lesquels l'autorité de confiance repose sur des entités de confiance ; le consensus M-of-N nécessite une vérification par plusieurs indexeurs, ce qui augmente la difficulté de tricherie et augmente les coûts de calcul et de coordination de la sécurité interactive contre la fraude ; plus robuste, mais il ne convient pas aux applications qui nécessitent une réponse rapide ; tandis que zk-SNARKs est plus complexe dans sa mise en œuvre technique et ne convient pas aux grands modèles ;

The Graph estime que les développeurs et les utilisateurs devraient avoir le pouvoir de choisir le niveau de sécurité approprié en fonction de leurs besoins. Par conséquent, The Graph prévoit de prendre en charge plusieurs méthodes de vérification dans son service d'inférence pour s'adapter aux différentes exigences de sécurité et scénarios d'application. Par exemple, lorsque des transactions financières ou une logique métier importante sont impliquées, il peut être nécessaire d'utiliser des méthodes de vérification de sécurité plus élevées, telles que les zk-SNARK ou le consensus M-of-N. Pour certaines applications à faible risque ou orientées divertissement, vous pouvez choisir des méthodes de vérification moins coûteuses et plus simples à mettre en œuvre, telles que des autorités de confiance ou des preuves interactives de fraude. De plus, The Graph prévoit d'explorer des technologies améliorant la confidentialité pour améliorer les problèmes de confidentialité des modèles et des utilisateurs.

Service d'agent : aidez les développeurs à créer des applications autonomes basées sur l'IA

Comparé au service d'inférence, qui exécute principalement des modèles d'IA entraînés pour le raisonnement, le service d'agent est plus complexe et nécessite que plusieurs composants fonctionnent ensemble afin que ces agents puissent effectuer une série de tâches complexes et automatisées. La proposition de valeur du service d'agent de The Graph est que la création, l'hébergement et l'exécution d'agents sont tous intégrés dans The Graph et servis par un réseau d'indexeurs.

Plus précisément, The Graph fournira un réseau décentralisé pour prendre en charge la construction et l'hébergement d'agents. Lorsque l'agent est déployé sur le réseau The Graph, l'indexeur Graph fournira le support d'exécution nécessaire, y compris l'indexation des données, la réponse aux événements en chaîne et à d'autres demandes interactives.

Comme mentionné ci-dessus, Semiotic Labs, l'équipe de développement principale de The Graph, a lancé un premier produit expérimental Agent Agentc, qui combine la pile logicielle d'index de The Graph et OpenAI. Sa fonction principale est de convertir les entrées en langage naturel en requêtes SQL pour faciliter les utilisateurs. Interrogez directement les données en temps réel sur la blockchain et présentez les résultats de la requête aux utilisateurs sous une forme facile à comprendre. Pour comprendre simplement, Agentc s'efforce de fournir aux utilisateurs une analyse pratique des tendances du marché des crypto-monnaies et une requête de données de transaction. Toutes ses données proviennent d'Uniswap V2, Uniswap V3, Uniswap X et de leurs forks sur Ethereum, et les prix sont mis à jour toutes les heures.

De plus, The Graph a également déclaré que le modèle LLM utilisé par The Graph a une précision de seulement 63,41 %, il existe donc un problème de réponses incorrectes. Pour résoudre ce problème, The Graph développe un nouveau grand modèle de langage appelé KGLLM (Knowledge Graph-enabled Large Language Models).

KGLLM peut réduire considérablement la probabilité de générer des informations erronées en utilisant les données structurées du graphique de connaissances fournies par Geo. Chaque réclamation dans le système Geo est étayée par des horodatages en chaîne et une vérification des votes. Après avoir intégré le graphe de connaissances de Geo, les agents peuvent être appliqués à une variété de scénarios, notamment les réglementations médicales, le développement politique, l'analyse de marché, etc., améliorant ainsi la diversité et la précision des services des agents. Par exemple, KGLLM peut exploiter les données politiques pour fournir des recommandations de changement de politique aux organisations autonomes décentralisées (DAO), en garantissant qu'elles sont basées sur des informations actuelles et précises.

Les avantages de KGLLM comprennent également :

  • Utilisation de données structurées : KGLLM utilise une base de connaissances externe structurée. Les informations sont modélisées graphiquement dans le graphe de connaissances, ce qui rend la relation entre les données claire en un coup d'œil, de sorte que l'interrogation et la compréhension des données deviennent plus intuitives ;

  • Capacités de traitement des données relationnelles : KGLLM est particulièrement adapté au traitement des données relationnelles. Par exemple, il peut comprendre la relation entre les personnes, la relation entre les personnes et les événements, etc. Et il utilise un algorithme de parcours de graphe pour trouver des informations pertinentes en sautant plusieurs nœuds dans le graphe de connaissances (semblable à un déplacement sur une carte). De cette manière, KGLLM peut trouver les informations les plus pertinentes pour répondre à la question ;

  • Récupération et génération efficaces d'informations : grâce à l'algorithme de parcours graphique, les relations extraites par KGLLM sont converties en invites que le modèle peut comprendre en langage naturel. Grâce à ces instructions claires, le modèle KGLLM est capable de générer des réponses plus précises et pertinentes.

Perspectives

En tant que « Google du Web3 », The Graph utilise ses avantages pour compenser le problème de pénurie de données des services d'IA actuels et simplifie le processus de développement de projets pour les développeurs en introduisant des services d'IA. À mesure que davantage d’applications d’IA seront développées et utilisées, l’expérience utilisateur devrait encore s’améliorer. À l’avenir, l’équipe de développement de The Graph continuera d’explorer la possibilité de combiner l’intelligence artificielle avec Web3. De plus, d'autres équipes de son écosystème, telles que Playgrounds Analytics et DappLooker, conçoivent également des solutions liées aux services proxy.