Écrit par : Ed Roman, associé directeur, Hack VC

Compilé : 1912212.eth, Foresight News

AI+ Crypto est l’un des domaines frontières qui a récemment attiré beaucoup d’attention sur le marché des cryptomonnaies, comme la formation décentralisée en IA, les GPU DePIN et les modèles d’IA résistants à la censure.

Derrière ces avancées fulgurantes, on ne peut s’empêcher de se demander : s’agit-il d’une véritable avancée technologique ou simplement d’un sujet brûlant ? Cet article dissipera le brouillard pour vous, analysera la vision du chiffrement x IA, discutera des véritables défis et opportunités, et révélera lesquelles sont des promesses creuses et lesquelles sont réellement réalisables ?

Vision n°1 : Formation décentralisée en IA

Le problème avec la formation à l'IA en chaîne est qu'elle nécessite une communication et une coordination à haut débit entre les GPU, car les réseaux de neurones nécessitent une rétropropagation lors de la formation. Nvidia propose pour cela deux innovations (NVLink et InfiniBand). Ces technologies rendent la communication GPU ultra rapide, mais il s'agit de technologies uniquement locales qui ne fonctionnent que sur des clusters GPU (vitesses de plus de 50 gigabits) situés dans un seul centre de données.

Si un réseau décentralisé est introduit, la vitesse ralentira soudainement de plusieurs ordres de grandeur en raison de l'augmentation de la latence et de la bande passante du réseau. Comparée au débit que vous pouvez obtenir grâce à l'interconnexion haut débit de Nvidia au sein du centre de données, cette vitesse n'est tout simplement pas possible pour les cas d'utilisation de la formation IA.

Notez qu’il existe également des innovations ci-dessous qui peuvent offrir de l’espoir pour l’avenir :

  • La formation distribuée sur InfiniBand se déroule à grande échelle, car NVIDIA elle-même prend en charge la formation distribuée non native sur InfiniBand via la bibliothèque de communications collectives NVIDIA. Cependant, il en est encore à ses balbutiements, les paramètres d’adoption doivent donc encore être déterminés. Le goulot d'étranglement du droit physique à distance existe toujours, donc la formation locale sur InfiniBand est encore beaucoup plus rapide.

  • De nouvelles recherches ont été publiées sur la formation décentralisée qui nécessite moins de temps de synchronisation des communications, ce qui pourrait rendre la formation décentralisée plus pratique à l'avenir.

  • Le partage intelligent et la planification de la formation des modèles contribuent à améliorer les performances. De même, de nouvelles architectures de modèles pourraient être spécifiquement conçues pour les futures infrastructures distribuées (Gensyn mène des recherches dans ces domaines).

La partie données de la formation est également un défi. Tout processus de formation à l’IA implique le traitement de grandes quantités de données. En règle générale, les modèles sont formés sur des systèmes de stockage de données sécurisés centralisés offrant une évolutivité et des performances élevées. Cela nécessite le transfert et le traitement de téraoctets de données, et il ne s'agit pas d'un cycle unique. Les données sont souvent bruitées et contiennent des erreurs. Elles doivent donc être nettoyées et converties dans un format utilisable avant d'entraîner un modèle. Cette étape implique les tâches répétitives de normalisation, de filtrage et de gestion des valeurs manquantes. Tous ces éléments sont confrontés à de sérieux défis dans un environnement décentralisé.

La partie données de formation est également itérative, ce qui n'est pas compatible avec Web3. OpenAI a subi des milliers d'itérations pour arriver à ses résultats. Les scénarios de tâches les plus élémentaires pour un data scientist dans une équipe d'IA comprennent la définition d'objectifs, la préparation des données, l'analyse et la conservation des données pour extraire des informations importantes et les rendre adaptées à la modélisation. Ensuite, développez un modèle d'apprentissage automatique pour résoudre le problème défini et validez ses performances à l'aide d'un ensemble de données de test. Le processus est itératif : si le modèle actuel ne fonctionne pas comme prévu, les experts reviennent aux étapes de collecte de données ou de formation du modèle pour améliorer les résultats. Imaginez que si ce processus était réalisé dans un environnement décentralisé, il ne serait pas facile d'adapter les frameworks et outils existants les plus avancés dans le Web3.

Un autre problème avec la formation de modèles d’IA en chaîne est que ce marché est bien moins intéressant que l’inférence. Actuellement, la formation de modèles de langage d’IA à grande échelle nécessite une grande quantité de ressources informatiques GPU. À long terme, l’inférence deviendra le principal cas d’utilisation des GPU. Imaginez combien de grands modèles de langage d'IA doivent être formés pour répondre à la demande mondiale. Quel est le nombre le plus élevé par rapport au nombre de clients utilisant ces modèles ?

Hypothèse n°2 : utiliser des calculs d'inférence d'IA trop redondants pour parvenir à un consensus

Un autre défi concernant la cryptographie et l'IA consiste à vérifier l'exactitude de l'inférence de l'IA, car vous ne pouvez pas faire entièrement confiance à une seule partie centralisée pour effectuer les opérations d'inférence, et il existe un risque potentiel que les nœuds se comportent de manière inappropriée. Ce défi n'existe pas dans Web2 AI car il n'y a pas de système de consensus décentralisé.

La solution est une informatique redondante, permettant à plusieurs nœuds de répéter les mêmes opérations d'inférence d'IA, qui peuvent s'exécuter dans un environnement sans confiance et éviter les points de défaillance uniques.

Le problème de cette approche, cependant, est qu’il existe une pénurie extrême de puces IA haut de gamme. Les délais d'attente de plusieurs années pour les puces NVIDIA haut de gamme font grimper les prix. Si vous exigez que l’inférence IA soit réexécutée plusieurs fois sur plusieurs nœuds, cela devient exponentiellement plus coûteux, ce qui la rend irréalisable pour de nombreux projets.

Hypothèse n°3 : Cas d'utilisation de l'IA spécifiques au Web3 à court terme

Il a été suggéré que Web3 devrait avoir ses propres cas d'utilisation de l'IA, spécifiquement destinés aux clients Web3. Il peut s'agir (par exemple) d'un protocole Web3 qui utilise l'IA pour risquer des pools DeFi, d'un portefeuille Web3 qui suggère de nouveaux protocoles aux utilisateurs en fonction de l'historique du portefeuille, ou d'un jeu Web3 qui utilise l'IA pour contrôler des personnages non-joueurs (PNJ).

Pour l’instant, il s’agit d’un marché naissant (à court terme) où les cas d’usage sont encore à l’étude. Certains défis comprennent :

  • Étant donné que la demande du marché en est encore à ses balbutiements, il y a moins d’accords potentiels d’IA requis pour les cas d’utilisation natifs du Web3.

  • Il y a moins de clients, des ordres de grandeur en moins de clients Web3 par rapport aux clients Web2, le marché est donc moins décentralisé.

  • Les clients eux-mêmes sont moins stables car ce sont des startups avec moins de financement, et certaines startups peuvent disparaître avec le temps. Et les fournisseurs de services Web3 AI qui s'adressent aux clients Web3 devront peut-être regagner une partie de leur clientèle pour remplacer ceux qui ont disparu, ce qui rend la croissance de leur activité extrêmement difficile.

À plus long terme, nous sommes très optimistes quant aux cas d’utilisation de l’IA Web3 native, d’autant plus que les agents d’IA deviennent plus répandus. Nous imaginons qu’à l’avenir, tout utilisateur Web3 disposera d’un grand nombre d’agents IA pour l’aider à accomplir ses tâches.

Vision n°4 : GPU DePIN grand public

Il existe de nombreux réseaux informatiques d’IA décentralisés qui s’appuient sur des GPU grand public plutôt que sur des centres de données. Les GPU grand public sont idéaux pour les tâches d'inférence d'IA bas de gamme ou les cas d'utilisation grand public où la latence, le débit et la fiabilité sont flexibles. Mais pour les cas d'utilisation sérieux en entreprise (qui représentent la majorité du marché qui compte), les clients ont besoin de réseaux plus fiables que les machines domestiques, et souvent de GPU haut de gamme s'ils ont des tâches d'inférence plus complexes. Les centres de données sont mieux adaptés à ces cas d’utilisation client plus précieux.

Notez que nous considérons les GPU grand public adaptés aux démos, ainsi qu'aux particuliers et aux startups qui peuvent tolérer une fiabilité inférieure. Mais ces clients ont moins de valeur, nous pensons donc que les DePIN, personnalisés spécifiquement pour les entreprises Web2, auront plus de valeur à long terme. En conséquence, le projet GPU DePIN a évolué, passant d'une utilisation principalement de matériel grand public à ses débuts à une disponibilité A100/H100 et au niveau du cluster.

Réalité – Cas d’utilisation pratique de la crypto-monnaie x IA

Nous discutons maintenant de cas d'utilisation qui offrent de réels avantages. Ce sont les vraies victoires, et Crypto x AI peut ajouter une valeur évidente.

Véritable avantage n°1 : servir les clients Web2

McKinsey estime que sur les 63 cas d’utilisation analysés, l’IA générative pourrait ajouter l’équivalent de 2 600 milliards à 4 400 milliards de dollars de revenus par an – par rapport au PIB total du Royaume-Uni en 2021, qui s’élève à 3 100 milliards de dollars. Cela augmenterait l’impact de l’IA de 15 à 40 %. Si l’on prend en compte l’impact de l’IA générative intégrée dans les logiciels actuellement utilisés pour des tâches autres que les cas d’utilisation, on estime que cet impact doublera environ.

Si vous faites le calcul sur la base des estimations ci-dessus, cela signifie que la valeur totale du marché mondial de l’IA (au-delà de l’IA générative) pourrait s’élever à des dizaines de milliards de dollars. À titre de comparaison, la valeur totale de toutes les crypto-monnaies (y compris le Bitcoin et tous les altcoins) n’est aujourd’hui que d’environ 2 700 milliards de dollars. Alors soyons réalistes : la grande majorité des clients qui ont besoin d'IA à court terme seront des clients Web2, car les clients Web3 qui ont réellement besoin d'IA ne représenteront qu'une petite partie de ces 2 700 milliards de dollars (en considérant que BTC est le marché, Bitcoin lui-même). ne nécessite/n’utilise pas d’IA).

Les cas d'utilisation de l'IA Web3 ne font que commencer, et on ne sait pas quelle sera la taille du marché. Mais une chose est sûre : cela ne représentera qu’une petite partie du marché du Web2 dans un avenir prévisible. Nous pensons que Web3 AI a encore un brillant avenir, mais cela signifie simplement que l'application la plus puissante de Web3 AI est actuellement au service des clients Web2.

Voici des exemples hypothétiques de clients Web2 qui pourraient bénéficier de l’IA Web3 :

  • Créer une société de logiciels verticale et centrée sur l'IA à partir de zéro (par exemple Cedar.ai ou Observe.ai)

  • Grandes entreprises qui affinent les modèles pour leurs propres besoins (par exemple Netflix)

  • Fournisseurs d’IA à croissance rapide (par exemple Anthropic)

  • Éditeurs de logiciels intégrant l’IA dans des produits existants (par exemple Canva)

Il s'agit d'un rôle de client relativement stable car les clients sont généralement importants et précieux. Il est peu probable qu’ils fassent faillite de sitôt et ils représentent d’énormes clients potentiels pour les services d’IA. Les services Web3 AI au service des clients Web2 bénéficieront de cette base de clients stable.

Mais pourquoi les clients Web2 voudraient-ils utiliser une pile Web3 ? La suite de cet article explique cette situation.

Véritable avantage n°2 : Réduisez les coûts d’utilisation du GPU avec GPU DePIN

GPU DePIN regroupe la puissance de calcul GPU sous-utilisée, dont la plus fiable provient des centres de données, et la rend disponible pour l'inférence de l'IA. Une analogie simple avec ce problème est « Airbnb dans les GPU ».

La raison pour laquelle nous sommes enthousiasmés par GPU DePIN est que, comme mentionné ci-dessus, il existe une pénurie de puces NVIDIA et il existe actuellement des cycles GPU gaspillés qui pourraient être utilisés pour l'inférence de l'IA. Ces propriétaires de matériel ont des coûts irrécupérables et des équipements actuellement sous-utilisés, de sorte que ces GPU partiels peuvent être mis à disposition à un coût bien inférieur au statu quo, car cela « trouve réellement l'argent » pour le propriétaire du matériel.

Les exemples comprennent:

  • Machine AWS. Si vous deviez louer un H100 auprès d'AWS aujourd'hui, vous devrez vous engager sur un bail d'un an car l'offre du marché est limitée. Cela crée du gaspillage car vous n'utiliserez probablement pas le GPU 7 jours sur 7, 365 jours par an.

  • Matériel minier Filecoin. Filecoin a une offre subventionnée importante mais pas une demande réelle importante. Filecoin n’a jamais trouvé de véritable adéquation produit-marché, de sorte que les mineurs de Filecoin risquaient de faire faillite. Ces machines sont équipées de GPU qui peuvent être réutilisés pour des tâches d'inférence d'IA bas de gamme.

  • Matériel minier ETH. Lorsque Ethereum passe de PoW à PoS, cela libère rapidement une grande partie du matériel qui peut être réutilisé pour l'inférence de l'IA.

Notez que tous les matériels GPU ne sont pas adaptés à l’inférence IA. Une raison évidente à cela est que les GPU plus anciens ne disposent pas de la quantité de mémoire GPU requise pour les LLM, bien qu'il existe déjà des innovations intéressantes qui peuvent aider à cet égard. Par exemple, la technologie Exabits peut charger des neurones actifs dans la mémoire GPU et des neurones inactifs dans la mémoire CPU. Ils prédisent quels neurones doivent être actifs/inactifs. Cela permet aux GPU bas de gamme de gérer les charges de travail d’IA, même avec une mémoire GPU limitée. Cela rend effectivement les GPU bas de gamme plus utiles pour l’inférence de l’IA.

Web3 AI DePINs devra faire évoluer son produit au fil du temps et fournir des services de niveau entreprise tels que l'authentification unique, la conformité SOC 2, les accords de niveau de service (SLA), etc. Ceci est similaire à ce que les fournisseurs de services cloud actuels proposent aux clients Web2.

Véritable avantage n°3 : des modèles résistants à la censure pour éviter l'autocensure d'OpenAI

Il y a beaucoup de discussions sur la censure de l’IA. La Turquie, par exemple, a temporairement interdit OpenAI (elle a ensuite modifié son approche lorsque OpenAI a amélioré sa conformité). Nous pensons que la censure au niveau national n’est pas intéressante car les pays doivent adopter l’IA pour rester compétitifs.

OpenAI procède également à l'autocensure. Par exemple, OpenAI ne gérera pas le contenu NSFW. OpenAI ne prédira pas non plus la prochaine élection présidentielle. Nous pensons que les cas d’utilisation de l’IA sont non seulement intéressants, mais qu’il existe un marché énorme, mais auquel OpenAI ne touchera pas pour des raisons politiques.

L'open source est une excellente solution car les référentiels Github ne sont pas influencés par les actionnaires ou un conseil d'administration. Un exemple est Venice.ai, qui promet la confidentialité et fonctionne de manière résistante à la censure. L'IA Web3 peut efficacement passer au niveau supérieur en alimentant ces modèles de logiciels open source (OSS) sur des clusters GPU moins coûteux pour effectuer des inférences. C’est pour ces raisons que nous pensons qu’OSS + Web3 constituent la combinaison idéale pour ouvrir la voie à une IA résistante à la censure.

Véritable avantage n°4 : évitez d'envoyer des informations personnelles identifiables à OpenAI

Les grandes entreprises ont des préoccupations en matière de confidentialité concernant leurs données internes. Pour ces clients, faire confiance à un tiers OpenAI pour posséder ces données peut être difficile.

Dans le Web3, il peut paraître encore plus inquiétant (en apparence) pour ces entreprises que leurs données internes apparaissent soudainement sur le web décentralisé. Il existe cependant des innovations dans les technologies améliorant la confidentialité pour l’IA :

Environnement d'exécution de confiance (TEE) tel que Super Protocol

Cryptage entièrement homomorphe (FHE) tel que Fhenix.io (une société de portefeuille d'un fonds géré par Hack VC) ou Inco Network (tous deux alimentés par Zama.ai), ainsi que PPML de Bagel

Ces technologies continuent d'évoluer et les performances continuent de s'améliorer avec les prochains ASIC Zero Knowledge (ZK) et FHE. Mais l’objectif à long terme est de protéger les données de l’entreprise tout en affinant le modèle. À mesure que ces protocoles émergeront, le Web3 pourrait devenir un lieu encore plus attrayant pour l’informatique IA préservant la confidentialité.

Véritable avantage n°5 : exploitez les dernières innovations du modèle open source

Les logiciels open source ont grugé la part de marché des logiciels propriétaires au cours des dernières décennies. Nous considérons LLM comme une forme de logiciel propriétaire capable de perturber les logiciels libres. Des exemples notables de challengers incluent Llama, RWKV et Mistral.ai. Cette liste s'allongera sans aucun doute avec le temps (une liste plus complète peut être trouvée sur Openrouter.ai). En tirant parti de l'IA Web3 (optimisée par des modèles OSS), les utilisateurs peuvent innover avec ces nouvelles innovations.

Nous pensons qu’au fil du temps, la main-d’œuvre mondiale chargée du développement de l’open source, combinée aux incitations en matière de cryptomonnaies, peut stimuler une innovation rapide dans les modèles open source ainsi que dans les agents et les frameworks construits sur ceux-ci. Un exemple de protocole d’agent IA est Theoriq. Theoriq exploite les modèles OSS pour créer un réseau interconnecté d'agents d'IA composables qui peuvent être assemblés pour créer des solutions d'IA de niveau supérieur.

La raison pour laquelle nous sommes confiants à ce sujet est que dans le passé, la plupart des innovations en matière de « logiciels de développement » ont été lentement dépassées par les logiciels libres au fil du temps. Microsoft était autrefois une entreprise de logiciels propriétaires et est désormais la première entreprise à contribuer à Github. Il y a une raison à cela : si vous regardez comment Databricks, PostGresSQL, MongoDB et d'autres perturbent les bases de données propriétaires, c'est un exemple de logiciel libre qui perturbe toute une industrie, donc le précédent ici est assez convaincant.

Cependant, il y a un problème. Une difficulté à propos des grands modèles de langage open source (OSS LLM) est qu'OpenAI a commencé à conclure des accords de licence de données payantes avec certaines organisations, telles que Reddit et le New York Times. Si cette tendance se poursuit, les grands modèles de langages open source pourraient devenir plus difficiles à concurrencer en raison des obstacles financiers à l'acquisition de données. Nvidia pourrait encore augmenter ses investissements dans l'informatique confidentielle afin de sécuriser le partage de données. Le temps nous dira comment cela se déroulera.

Véritable avantage n°6 : Consensus via un échantillonnage aléatoire réduisant les coûts ou via des preuves ZK

L'un des défis de l'inférence Web3 AI est la vérification. On suppose que les validateurs ont la possibilité de tricher sur leurs résultats pour gagner des frais, la validation des inférences est donc une mesure importante. Notez que cette tricherie n’a pas encore eu lieu, car l’inférence de l’IA en est à ses balbutiements, mais elle est inévitable à moins que des mesures ne soient prises pour freiner ce comportement.

L'approche Web3 standard consiste à demander à plusieurs validateurs de répéter la même opération et de comparer les résultats. Comme mentionné précédemment, le défi majeur de ce problème est que l’inférence IA est très coûteuse en raison de la pénurie actuelle de puces Nvidia haut de gamme. Étant donné que Web3 peut fournir une inférence à moindre coût via un GPU DePIN sous-utilisé, le calcul redondant affaiblira considérablement la proposition de valeur de Web3.

Une solution plus prometteuse consiste à effectuer des preuves ZK pour les calculs d'inférence d'IA hors chaîne. Dans ce cas, une preuve ZK concise peut être vérifiée pour déterminer si le modèle a été correctement entraîné ou si l'inférence s'est déroulée correctement (appelée zkML). Les exemples incluent Modulus Labs et ZKonduit. Étant donné que les opérations ZK nécessitent beaucoup de calculs, les performances de ces solutions en sont encore à leurs balbutiements. Cependant, nous nous attendons à ce que la situation s'améliore avec la sortie prochaine des ASIC matériels ZK.

Plus prometteuse est l’idée d’une méthode de raisonnement d’IA basée sur l’échantillonnage quelque peu « optimiste ». Dans ce modèle, seule une petite fraction des résultats produits par le validateur est vérifiée, mais le coût économique de la barre oblique est suffisamment élevé pour que s'il est détecté, il existe une forte dissuasion économique pour les validateurs de tricher. De cette façon, vous enregistrez les calculs redondants.

Une autre idée prometteuse concerne les solutions de filigrane et d’empreintes digitales, comme celle proposée par Bagel Network. Ceci est similaire au mécanisme par lequel Amazon Alexa fournit une assurance qualité du modèle d'IA intégré à ses millions d'appareils.

Avantage réel n°7 : économies avec OSS (bénéfices d'OpenAI)

La prochaine opportunité que Web3 apporte à l’IA est la démocratisation des coûts. Jusqu'à présent, nous avons discuté des économies de coûts GPU avec DePIN. Mais Web3 offre également la possibilité d’économiser des marges sur les services centralisés d’IA Web2 (tels que OpenAI, qui, au moment d’écrire ces lignes, génère plus d’un milliard de dollars de revenus annuels). Ces économies de coûts proviennent du fait que l'utilisation de modèles OSS plutôt que de modèles propriétaires permet de réaliser des économies supplémentaires car les créateurs de modèles ne cherchent pas à réaliser des bénéfices.

De nombreux modèles OSS resteront entièrement gratuits, ce qui offrira les meilleures économies pour les clients. Mais il se peut que certains modèles de logiciels libres essaient également ces méthodes de monétisation. Considérez que seulement 4 % de tous les modèles sur Hugging Face ont été formés par des entreprises disposant du budget nécessaire pour aider à subventionner les modèles. Les 96 % de modèles restants sont formés par la communauté. Ce groupe (96 % de Hugging Face) a des coûts réels de base (y compris les coûts de calcul et les coûts de données). Par conséquent, ces modèles devront être monétisés d’une manière ou d’une autre.

Il existe plusieurs propositions pour monétiser le modèle logiciel open source. L'un des plus intéressants est le concept d'« émission initiale du modèle », qui consiste à symboliser le modèle lui-même, à conserver une partie des jetons pour l'équipe et à canaliser une partie des revenus futurs du modèle vers les détenteurs de jetons, bien qu'il y ait certainement certains Obstacles juridiques et réglementaires.

D'autres modèles OSS tenteront de monétiser l'utilisation. Notez que si cela devient une réalité, le modèle OSS pourrait commencer à ressembler de plus en plus à son modèle de monétisation Web2. Mais en réalité, le marché sera divisé en deux parties, certains modèles restant totalement gratuits.

Véritable avantage n°8 : sources de données décentralisées

L’un des plus grands défis de l’IA est de trouver les bonnes données pour entraîner un modèle. Nous avons mentionné plus tôt que la formation décentralisée en IA présente ses défis. Mais qu’en est-il de l’utilisation d’un réseau décentralisé pour obtenir les données (qui peuvent ensuite être utilisées pour la formation ailleurs, même dans les lieux Web2 traditionnels) ?

C’est exactement ce que font des startups comme Grass. Grass est un réseau décentralisé de « grattoirs de données » qui mettent la puissance de traitement inutilisée de leurs machines à disposition des sources de données afin de fournir des informations pour la formation des modèles d'IA. Hypothétiquement, à grande échelle, cette source de données pourrait surpasser les efforts de source de données internes de n'importe quelle entreprise grâce à la puissance d'un vaste réseau de nœuds incités. Cela implique non seulement d'obtenir davantage de données, mais aussi de les obtenir plus fréquemment pour les rendre plus pertinentes et à jour. En fait, il est également impossible d’arrêter les hordes décentralisées de collecte de données, car elles sont intrinsèquement décentralisées et ne résident pas au sein d’une seule adresse IP. Ils disposent également d'un réseau qui nettoie et normalise les données afin qu'elles soient utiles une fois récupérées.

Une fois que vous disposez des données, vous avez également besoin d'un emplacement pour les stocker en chaîne, ainsi que des LLM générés à l'aide de ces données.

Notez que le rôle des données dans Web3 AI pourrait changer à l'avenir. L'état actuel des LLM consiste à pré-entraîner le modèle à l'aide de données et à l'affiner au fil du temps avec plus de données. Cependant, comme les données sur Internet évoluent en temps réel, ces modèles sont toujours un peu dépassés. Par conséquent, les réponses déduites par LLM sont légèrement inexactes.

L'orientation future pourrait être un nouveau paradigme : les données « en temps réel ». Le concept est que lorsqu'on pose une question d'inférence à un grand modèle de langage (LLM), le LLM peut transmettre des indices et injecter des données qui sont rassemblées à nouveau sur Internet en temps réel. De cette façon, LLM peut utiliser les données les plus récentes. Grass travaille sur cette partie.

Un merci tout spécial aux personnes suivantes pour leurs commentaires et leur aide concernant cet article : Albert Castellana, Jasper Zhang, Vassilis Tziokas, Bidhan Roy, Rezo, Vincent Weisser, Shashank Yadav, Ali Husain, Nukri Basharuli, Emad Mostaque, David Minarsch, Tommy Shaughnessy, Michael Heinrich, Keccak Wong, Marc Weinstein, Phillip Bonello, Jeff Amico, Ejaaz Ahamadeen, Evan Feng, JW Wang.