Alex Xu - Mint Ventures

Heure de publication originale : 2024-04-08 10:23

Lien original : https://research.mintventures.fund/2024/04/08/zh-a-new-solana-based-ai-depin-project-a-brief-analysis-of-upcoming-tokenlaunch-io-net /

introduction

Dans mon dernier article, j’ai mentionné que ce cycle de marché haussier de la cryptographie manque de nouvelles affaires et de nouveaux récits d’actifs suffisamment influents par rapport aux deux cycles précédents. L'IA est l'un des rares nouveaux récits dans ce domaine du Web3. L'auteur de cet article tentera de faire le tri dans mes réflexions sur les deux questions suivantes en fonction du projet d'IA en vogue de cette année, IO.NET :

  • La nécessité commerciale de l’IA+Web3

  • La nécessité et les défis des services informatiques distribués

Deuxièmement, l'auteur triera les informations clés du projet IO.NET, un projet représentatif de la puissance de calcul distribuée de l'IA, y compris la logique du produit, les produits concurrents et l'historique du projet, et en déduira la valorisation du projet.

Une partie des réflexions de cet article sur la combinaison de l'IA et du Web3 ont été inspirées par « The Real Merge » écrit par Michael Rinko, chercheur chez Delphi Digital. Certains des points de vue contenus dans cet article sont digérés et cités à partir de l’article. Il est recommandé aux lecteurs de lire l’article original.

Cet article est la réflexion mise en scène de l'auteur au moment de sa publication. Il peut changer à l'avenir et les points de vue sont très subjectifs. Il peut également y avoir des erreurs dans les faits, les données et le raisonnement. Les commentaires et discussions des pairs sont les bienvenus.

Ce qui suit est le texte principal.

1. Logique métier : la combinaison de l’IA et du Web3

1.1 2023 : La nouvelle « année miracle » créée par l’IA

En regardant l’histoire du développement humain, une fois que la technologie aura réalisé une percée, des changements bouleversants s’ensuivront dans la vie quotidienne des individus, dans diverses structures industrielles et dans l’ensemble de la civilisation humaine.

Il y a deux années importantes dans l’histoire de l’humanité, à savoir 1666 et 1905. On les appelle aujourd’hui les deux « années miracles » de l’histoire de la science et de la technologie.

1666 est considérée comme l'Année des Miracles car les réalisations scientifiques de Newton ont émergé cette année-là de manière concentrée. Cette année-là, il ouvrit la branche physique de l'optique, fonda la branche mathématique du calcul et dériva la formule de la gravité, la loi fondamentale des sciences naturelles modernes. Chacun d’eux constituera une contribution fondamentale au développement de la science humaine au cours des cent prochaines années, accélérant considérablement le développement de la science dans son ensemble.

La deuxième année miracle fut 1905. A cette époque, Einstein, qui n'avait que 26 ans, publia quatre articles consécutifs dans les "Annals of Physics", traitant de l'effet photoélectrique (posant les bases de la mécanique quantique) et du mouvement brownien (devenant un méthode d'analyse des processus aléatoires). Références importantes), la relativité restreinte et l'équation masse-énergie (c'est-à-dire la fameuse formule E=MC^2). Dans l'évaluation des générations ultérieures, chacun de ces quatre articles dépassait le niveau moyen du prix Nobel de physique (Einstein lui-même a également remporté le prix Nobel pour son article sur l'effet photoélectrique), et le processus historique de la civilisation humaine a été une fois de plus grandement avancé. Plusieurs étapes.

L'année 2023 qui vient de s'écouler sera très probablement appelée une autre « année miracle » grâce à ChatGPT.

Nous considérons 2023 comme une « année miracle » dans l'histoire des sciences et technologies humaines, non seulement en raison des énormes progrès du GPT dans la compréhension et la génération du langage naturel, mais aussi parce que les humains ont compris la croissance des capacités des grands modèles de langage à partir de l'évolution de GPT La règle - c'est-à-dire qu'en élargissant les paramètres du modèle et les données d'entraînement, les capacités du modèle peuvent être améliorées de manière exponentielle - et il n'y a pas de goulot d'étranglement dans ce processus à court terme (tant que la puissance de calcul est suffisante).

Cette capacité est loin de comprendre le langage et de générer du dialogue. Elle peut également être largement utilisée dans divers domaines scientifiques et technologiques. Prenons comme exemple l'application de grands modèles de langage dans le domaine biologique :

  • En 2018, le prix Nobel de chimie Francis Arnold a déclaré lors de la cérémonie de remise des prix : « Aujourd'hui, nous pouvons lire, écrire et éditer n'importe quelle séquence d'ADN dans des applications pratiques, mais nous ne pouvons pas encore la composer, cinq ans après son discours, en 2023. » de l'Université de Stanford et de la start-up d'IA de la Silicon Valley, Salesforce Research, a publié un article dans "Nature-Biotechnology". Ils ont utilisé un grand modèle de langage affiné basé sur GPT3 pour passer de 0 à 0. Un million de nouvelles protéines ont été créées et deux protéines avec des structures complètement différentes. , mais tous deux dotés de capacités bactéricides, ont été découverts. Ils devraient devenir une solution pour lutter contre les bactéries en plus des antibiotiques. En d’autres termes : grâce à l’IA, le goulot d’étranglement de la « création » de protéines a été surmonté.

  • Auparavant, l'algorithme d'intelligence artificielle AlphaFold prédisait la structure de la quasi-totalité des 214 millions de protéines présentes sur Terre en 18 mois. Ce résultat représentait des centaines de fois celui de tous les biologistes structurels humains du passé.

Avec divers modèles basés sur l’IA, tout, depuis les technologies dures telles que la biotechnologie, la science des matériaux et la recherche et le développement de médicaments jusqu’aux domaines des sciences humaines comme le droit et l’art, inaugurera des changements bouleversants, et 2023 sera la première année de tout cela.

Nous savons tous que la capacité de l’humanité à créer de la richesse a connu une croissance exponentielle au cours du siècle dernier, et la maturité rapide de la technologie de l’IA va inévitablement accélérer encore ce processus.

Graphique de tendance du PIB mondial, source de données : Banque mondiale

1.2 La combinaison de l'IA et de la Crypto

Pour comprendre essentiellement la nécessité de combiner IA et Crypto, on peut partir des caractéristiques complémentaires des deux.

Fonctionnalités complémentaires de l'IA et de la Crypto

L'IA a trois attributs :

  • Caractère aléatoire : L’IA est aléatoire Derrière son mécanisme de production de contenu se cache une boîte noire difficile à reproduire et à détecter, les résultats sont donc également aléatoires.

  • À forte intensité de ressources : l'IA est une industrie à forte intensité de ressources qui nécessite beaucoup d'énergie, de puces et de puissance de calcul.

  • Intelligence humaine : l’IA sera (bientôt) capable de passer le test de Turing, et par la suite, les humains ne pourront plus être distingués des machines*

※Le 30 octobre 2023, l'équipe de recherche de l'Université de Californie à San Diego a publié les résultats des tests de Turing (rapport de test) sur GPT-3.5 et GPT-4.0. Le score GPT4.0 est de 41 %, ce qui n'est qu'à 9 % de la ligne de réussite de 50 %. Le score au test humain du même projet est de 63 %. La signification de ce test de Turing est le pourcentage de personnes qui pensent que la personne avec qui elles discutent est une personne réelle. S'il dépasse 50 %, cela signifie qu'au moins la moitié des personnes présentes pensent que l'interlocuteur est un être humain et non une machine, ce qui est considéré comme ayant réussi le test de Turing.

Si l’IA crée un nouveau bond en avant en matière de productivité pour l’humanité, ses trois attributs posent également d’énormes défis à la société humaine, à savoir :

  • Comment vérifier et contrôler le caractère aléatoire de l'IA afin que le caractère aléatoire devienne un avantage plutôt qu'un défaut

  • Comment combler l’énorme déficit d’énergie et de puissance de calcul requis par l’IA

  • Comment faire la différence entre les humains et les machines

Les caractéristiques de la crypto et de l’économie blockchain peuvent être le bon remède pour résoudre les défis posés par l’IA. L’économie crypto présente les trois caractéristiques suivantes :

  • Déterminisme : l'entreprise fonctionne sur la base de la blockchain, du code et des contrats intelligents. Les règles et les limites sont claires. Ce qui est entré se traduira par un haut degré de certitude.

  • Allocation efficace des ressources : La crypto-économie a construit un immense marché libre mondial. La tarification, la collecte et la circulation des ressources sont très rapides et, grâce à l’existence de jetons, des incitations peuvent être utilisées pour accélérer la mise en adéquation de l’offre et de la demande du marché. et accélérer le point critique.

  • Sans confiance : le grand livre est ouvert, le code est open source et tout le monde peut facilement le vérifier, apportant un système « sans confiance », tandis que la technologie ZK évite l'exposition de la vie privée en même temps que la vérification.

Ensuite, trois exemples seront utilisés pour illustrer la complémentarité de l’IA et de la crypto-économie.

Exemple A : Résolution du caractère aléatoire, agent d'IA basé sur la cryptoéconomie

AI Agent est un programme d'intelligence artificielle chargé d'effectuer un travail pour les humains basé sur la volonté humaine (les projets représentatifs incluent Fetch.AI). Supposons que nous souhaitions que notre agent IA traite une transaction financière, telle que « Achetez 1 000 $ en BTC ». Les agents IA peuvent être confrontés à deux situations :

Scénario 1 : Il doit se connecter aux institutions financières traditionnelles (telles que BlackRock) et acheter des ETF BTC. Il est confronté à un grand nombre de problèmes d'adaptation entre les agents d'IA et les institutions centralisées, tels que KYC, examen des informations, connexion, vérification d'identité, etc. C'est encore très gênant en ce moment.

Scénario 2 : Il fonctionne sur la base de l'économie de cryptage native, et la situation deviendra beaucoup plus simple. Il utilisera directement votre compte pour signer et passer un ordre pour finaliser la transaction via Uniswap ou une plateforme de trading agrégée, et recevoir du WBTC (ou autre). encapsulation) au format BTC), l'ensemble du processus est simple et rapide. En fait, c’est ce que font divers Trading BOT. Ils ont en fait joué le rôle d’agent IA junior, mais leur travail est axé sur le trading. À l'avenir, avec l'intégration et l'évolution de l'IA, différents types de BOT de trading seront inévitablement capables d'exécuter des intentions de trading plus complexes. Par exemple : suivre 100 adresses d'argent intelligent sur la chaîne, analyser leurs stratégies de trading et leurs taux de réussite, utiliser 10 % des fonds de mon adresse pour effectuer des transactions similaires en une semaine, et arrêter lorsque l'effet n'est pas bon, et résumer la possibilité de la raison de l'échec.

L’IA fonctionnera mieux dans un système blockchain, essentiellement en raison de la clarté des règles cryptoéconomiques et de l’accès sans autorisation au système. En effectuant des tâches selon des règles limitées, les risques potentiels liés au caractère aléatoire de l’IA seront également moindres. Par exemple, les performances de l’IA dans les compétitions d’échecs, de cartes et dans les jeux vidéo ont dépassé celles des humains, car les jeux d’échecs et de cartes sont des bacs à sable fermés avec des règles claires. Les progrès de l’IA dans la conduite autonome seront relativement lents, car les défis d’un environnement externe ouvert sont plus grands et il nous est plus difficile de tolérer le caractère aléatoire des problèmes de traitement de l’IA.

Exemple B : Façonner les ressources et collecter des ressources grâce à des incitations symboliques

Le réseau mondial de puissance de calcul derrière BTC, sa puissance de calcul totale actuelle (Hashrate : 576,70 EH/s) dépasse la puissance de calcul globale des superordinateurs de n’importe quel pays. Sa motivation de développement vient d'incitations de réseau simples et équitables.

Tendance de la puissance de calcul du réseau BTC, source : https://www.coinwarz.com/

En outre, les projets DePIN, y compris Mobile, tentent également d'utiliser des incitations symboliques pour façonner un marché biface des deux côtés de l'offre et de la demande afin d'obtenir des effets de réseau. IO.NET, sur lequel cet article se concentrera ensuite, est une plate-forme conçue pour rassembler la puissance de calcul de l'IA. On espère que grâce au modèle de jeton, davantage de potentiel de puissance de calcul de l'IA sera stimulé.

Exemple C : code open source, introduisant ZK, distinguant les humains et les machines tout en protégeant la confidentialité

En tant que projet Web3 auquel a participé le fondateur d'OpenAI, Sam Altman, Worldcoin utilise le périphérique matériel Orb pour générer des valeurs de hachage exclusives et anonymes basées sur la biométrie de l'iris humain et la technologie ZK pour vérifier l'identité et distinguer les humains des machines. Début mars de cette année, le projet artistique Web3 Drip a commencé à utiliser les identifiants Worldcoin pour vérifier les vrais utilisateurs et émettre des récompenses.

En outre, Worldcoin a également récemment ouvert le code de programme de son matériel d'iris Orb afin de garantir la sécurité et la confidentialité des données biométriques des utilisateurs.

D'une manière générale, en raison de la certitude du code et de la cryptographie, des avantages de la circulation des ressources et de la collecte de fonds apportés par le mécanisme sans autorisation et par jeton, et des attributs sans confiance basés sur du code open source et des registres publics, la cryptoéconomie est devenue un défi majeur pour l'IA. société humaine. Une solution potentielle importante.

Et parmi eux, le défi le plus urgent, avec la demande commerciale la plus forte, est la faim extrême de produits d’IA en ressources informatiques, qui accompagne l’énorme demande de puces et de puissance de calcul.

C’est également la principale raison pour laquelle la croissance des projets de puissance de calcul distribuée dépasse la tendance globale de l’IA dans ce cycle de marché haussier.


La nécessité commerciale du calcul décentralisé

L’IA nécessite d’énormes ressources informatiques, à la fois pour former des modèles et effectuer des inférences.

Dans la pratique de formation des grands modèles de langage, un fait a été confirmé : tant que l'échelle des paramètres de données est suffisamment grande, de grands modèles de langage émergeront avec certaines fonctionnalités qui n'étaient pas disponibles auparavant. Le saut exponentiel des capacités de chaque génération de GPT par rapport à la génération précédente est dû à l'augmentation exponentielle de la quantité de calculs requis pour la formation du modèle.

Des recherches menées par DeepMind et l'Université de Stanford montrent que lorsque différents grands modèles de langage sont confrontés à des tâches différentes (opérations, réponses aux questions persanes, compréhension du langage naturel, etc.), il leur suffit d'augmenter la taille des paramètres du modèle pendant la formation du modèle (en conséquence, la formation Le la quantité de calcul a également augmenté), jusqu'à ce que la quantité d'entraînement n'atteigne pas 10 ^ 22 FLOP (les FLOP font référence aux opérations en virgule flottante par seconde, utilisées pour mesurer les performances informatiques), la performance de n'importe quelle tâche est presque la même que celle de donner des réponses aléatoires. Et une fois que l'échelle des paramètres dépasse la valeur critique de cette échelle, les performances de la tâche s'améliorent fortement, quel que soit le modèle de langage.

来源:Capacités émergentes des grands modèles de langage

来源:Capacités émergentes des grands modèles de langage

C'est également la vérification de la loi et de la pratique des « grands miracles » en matière de puissance de calcul qui a conduit le fondateur d'OpenAI, Sam Altman, à proposer de lever 7 000 milliards de dollars pour construire une usine de puces avancées 10 fois plus grande que la taille actuelle de TSMC (cette partie Il devrait coûter 1 500 milliards et utiliser les fonds restants pour la production de puces et la formation de modèles.

En plus de la puissance de calcul nécessaire pour entraîner les modèles d'IA, le processus d'inférence du modèle lui-même nécessite également beaucoup de puissance de calcul (bien que la quantité de calculs soit inférieure à celle de l'entraînement), de sorte que la faim de puces et de puissance de calcul est devenue un facteur majeur dans la participation à l’IA sur la piste de l’état normal de la personne.

Par rapport aux fournisseurs de puissance de calcul d'IA centralisés tels qu'Amazon Web Services, Google Cloud Platform, Microsoft Azure, etc., les principales propositions de valeur de l'informatique d'IA distribuée comprennent :

  • Accessibilité : accéder aux puces informatiques à l'aide de services cloud comme AWS, GCP ou Azure prend souvent des semaines, et les modèles de GPU populaires sont souvent en rupture de stock. De plus, pour obtenir de la puissance de calcul, les consommateurs doivent souvent signer des contrats à long terme et rigides avec ces grandes entreprises. La plate-forme informatique distribuée peut fournir une sélection de matériel flexible et une plus grande accessibilité.

  • Prix ​​bas : en raison de l'utilisation de puces inutilisées et des subventions symboliques fournies par la partie au protocole réseau aux fournisseurs de puces et de puissance de calcul, le réseau de puissance de calcul distribué peut être en mesure de fournir une puissance de calcul moins chère.

  • Résistance à la censure : à l'heure actuelle, les puces et les fournitures de puissance de calcul de pointe sont monopolisées par de grandes entreprises technologiques, et le gouvernement représenté par les États-Unis s'intéresse de plus en plus à la puissance de calcul de l'IA. La puissance de calcul de l'IA peut être distribuée de manière flexible et libre. Devenant progressivement une demande explicite, c'est aussi la proposition de valeur fondamentale de la plate-forme de services de puissance de calcul basée sur web3.

Si l'énergie fossile est le sang de l'ère industrielle, alors la puissance de calcul pourrait être le sang de la nouvelle ère numérique ouverte par l'IA, et la fourniture de puissance de calcul deviendra l'infrastructure de l'ère de l'IA. Tout comme les pièces stables sont devenues une branche secondaire florissante de la monnaie légale à l’ère du Web3, le marché de la puissance de calcul distribuée deviendra-t-il une branche secondaire du marché de la puissance de calcul de l’IA en croissance rapide ?

Comme il s’agit d’un marché encore relativement précoce, tout reste à voir. Cependant, les facteurs suivants peuvent stimuler l’adoption narrative ou commerciale de la puissance de calcul distribuée :

  • L’offre et la demande de GPU restent tendues. L’offre toujours limitée de GPU pourrait pousser certains développeurs à essayer des plates-formes informatiques distribuées.

  • Élargissement de la réglementation. Si vous souhaitez obtenir des services de puissance de calcul IA à partir d’une grande plate-forme de puissance de cloud computing, vous devez passer par KYC et plusieurs niveaux d’examens. Cela pourrait plutôt favoriser l’adoption de plates-formes informatiques distribuées, en particulier dans les domaines soumis à des restrictions et à des sanctions.

  • Stimulation des prix symboliques. L'augmentation des prix des jetons au cours du cycle de marché haussier augmentera la valeur des subventions de la plate-forme du côté de l'offre de GPU, attirant ainsi davantage de fournisseurs à entrer sur le marché, augmentant la taille du marché et réduisant le prix d'achat réel des consommateurs.

Mais en même temps, les défis des plates-formes informatiques distribuées sont également évidents :

  • Défis techniques et d’ingénierie

    • Problème de vérification du travail : en raison de la structure hiérarchique du calcul du modèle d'apprentissage profond, la sortie de chaque couche est utilisée comme entrée de la couche suivante. Par conséquent, la vérification de la validité du calcul nécessite l'exécution de tous les travaux précédents, ce qui est nécessaire. ne peut pas être vérifié facilement et efficacement. Pour résoudre ce problème, les plates-formes informatiques distribuées doivent développer de nouveaux algorithmes ou utiliser des techniques de vérification approximative qui peuvent fournir des garanties probabilistes de l'exactitude des résultats plutôt qu'une certitude absolue.

    • Problème de parallélisation : la plate-forme de puissance de calcul distribuée rassemble un approvisionnement de puces à longue traîne, ce qui signifie que la puissance de calcul fournie par un seul appareil est relativement limitée. Un seul fournisseur de puces peut presque effectuer les tâches de formation ou de raisonnement du modèle d'IA. de manière indépendante en peu de temps. Par conséquent, la parallélisation doit être utilisée pour démonter et répartir les tâches afin de raccourcir le temps d'exécution total. La parallélisation sera inévitablement confrontée à une série de problèmes tels que la façon de décomposer les tâches (en particulier les tâches complexes d'apprentissage en profondeur), les dépendances en matière de données et les coûts de communication supplémentaires entre les appareils.

    • Enjeu de protection de la vie privée : Comment s’assurer que les données et modèles de l’acheteur ne soient pas exposés au destinataire de la tâche ?

  • Défis de conformité réglementaire

    • La plate-forme informatique distribuée peut être utilisée comme argument de vente pour attirer certains clients en raison de la nature sans autorisation du marché bilatéral de l'approvisionnement et de l'approvisionnement. D’un autre côté, à mesure que les normes réglementaires en matière d’IA s’améliorent, elle pourrait devenir la cible d’une rectification gouvernementale. En outre, certains fournisseurs de GPU s'inquiètent également de savoir si les ressources informatiques qu'ils louent sont fournies à des entreprises ou à des particuliers sanctionnés.

En général, la plupart des consommateurs de plates-formes informatiques distribuées sont des développeurs professionnels ou des institutions de petite et moyenne taille. Contrairement aux investisseurs en crypto qui achètent des crypto-monnaies et des NFT, ces utilisateurs ont une compréhension limitée des services que le protocole peut fournir. Les exigences de stabilité sont plus élevées. et la durabilité, et le prix n'est peut-être pas la principale motivation de leur prise de décision. À l’heure actuelle, les plates-formes informatiques distribuées ont encore un long chemin à parcourir pour gagner la reconnaissance de ces utilisateurs.

Ensuite, nous avons trié et analysé les informations du projet IO.NET, un nouveau projet de puissance de calcul distribué dans ce cycle, et sur la base des projets d'IA et des projets de calcul distribué actuels dans la même voie sur le marché, nous avons calculé son potentiel possible après niveau de valorisation.

2. Plateforme de puissance de calcul d'IA distribuée : IO.NET

2.1 Positionnement du projet

IO.NET est un réseau informatique décentralisé qui construit un marché à deux faces autour des puces : le côté offre est la puissance de calcul des puces distribuées dans le monde (principalement les GPU, mais aussi les CPU et les iGPU d'Apple, etc.), et le côté demande. espère compléter les ingénieurs en intelligence artificielle pour la formation de modèles d'IA ou les tâches d'inférence.

Sur le site officiel de IO.NET, il est écrit :

Notre mission

Rassembler un million de GPU dans un DePIN – réseau d’infrastructure physique décentralisé.

Sa mission est d'intégrer des millions de GPU dans son réseau DePIN.

Par rapport aux fournisseurs de services de puissance de calcul d’IA cloud existants, ses principaux arguments de vente soulignés sont :

  • Combinaison flexible : les ingénieurs en IA peuvent librement sélectionner et combiner les puces dont ils ont besoin pour former un « cluster » pour accomplir leurs propres tâches informatiques.

  • Déploiement rapide : pas besoin de semaines d'approbation et d'attente (c'est actuellement le cas avec des fournisseurs centralisés tels qu'AWS), le déploiement peut être terminé et les tâches peuvent être démarrées en quelques dizaines de secondes.

  • Services à bas prix : le coût des services est 90 % inférieur à celui des grands fabricants

En outre, IO.NET prévoit également de lancer un magasin de modèles d'IA et d'autres services à l'avenir.

2.2 Mécanisme produit et données commerciales

Mécanisme de produit et expérience de déploiement

Comme Amazon Cloud, Google Cloud et Alibaba Cloud, le service informatique fourni par IO.NET s'appelle IO Cloud. IO Cloud est un réseau de puces distribué et décentralisé capable d'exécuter du code d'apprentissage automatique basé sur Python et d'exécuter des programmes d'IA et d'apprentissage automatique.

Le module métier de base d'IO Cloud est appelé Clusters. Il s'agit d'un groupe de GPU qui peuvent s'auto-coordonner pour effectuer des tâches informatiques. Les ingénieurs en intelligence artificielle peuvent personnaliser le cluster souhaité en fonction de leurs propres besoins.

L'interface du produit IO.NET est très conviviale. Si vous souhaitez déployer votre propre cluster de puces pour effectuer des tâches informatiques d'IA, après avoir accédé à sa page produit Clusters, vous pouvez commencer à configurer ce que vous voulez selon vos besoins.

Informations sur la page : https://cloud.io.net/cloud/clusters/create-cluster, la même chose ci-dessous

Vous devez d’abord choisir votre propre scénario de mission. Il existe actuellement trois types parmi lesquels choisir :

  1. Général : Fournit un environnement plus général, adapté aux premières étapes du projet où les besoins spécifiques en ressources sont incertains.

  2. Train : un cluster conçu pour la formation et le réglage fin des modèles d'apprentissage automatique. Cette option peut fournir davantage de ressources GPU, une capacité de mémoire plus élevée et/ou des connexions réseau plus rapides pour gérer ces tâches informatiques intensives.

  3. Inférence : un cluster conçu pour l'inférence à faible latence et les charges de travail lourdes. Dans le contexte de l'apprentissage automatique, l'inférence fait référence à l'utilisation d'un modèle entraîné pour faire des prédictions ou analyser de nouvelles données et fournir des commentaires. Par conséquent, cette option se concentrera sur l’optimisation de la latence et du débit pour répondre aux besoins de traitement des données en temps réel ou quasi réel.

Ensuite, vous devez choisir le fournisseur du cluster de puces. Actuellement, IO.NET a conclu une coopération avec Render Network et le réseau de mineurs de Filecoin, afin que les utilisateurs puissent choisir IO.NET ou des puces des deux autres réseaux comme fournisseur de leur propre cluster informatique. . Cela équivaut à ce que IO.NET joue le rôle d'un agrégateur (mais au moment de la rédaction de cet article, le service Filecon est temporairement hors ligne). Il convient de mentionner que selon la page, le nombre de GPU disponibles pour IO.NET est actuellement de plus de 200 000, tandis que le nombre de GPU disponibles pour Render Network est de plus de 3 700.

Ensuite, nous entrons dans le processus de sélection du matériel des puces de cluster. Actuellement, les seuls types de matériel répertoriés par IO.NET pour la sélection sont les GPU, à l'exclusion des CPU ou des iGPU d'Apple (M1, M2, etc.), et les GPU sont principalement des produits NVIDIA.

Parmi les options matérielles GPU officiellement répertoriées et disponibles, selon les données testées par l'auteur ce jour-là, le nombre de GPU disponibles sur le réseau IO.NET est de 206 001. Parmi elles, la GeForce RTX 4090 (45 250 photos) possède le plus de données disponibles, suivie de la GeForce RTX 3090 Ti (30 779 photos).

De plus, la puce A100-SXM4-80GB (prix du marché 15 000 $+), plus efficace dans le traitement des tâches informatiques de l'IA telles que l'apprentissage automatique, l'apprentissage profond et le calcul scientifique, contient 7 965 photos en ligne.

La carte graphique H100 80 Go HBM3 de NVIDIA (prix du marché 40 000 $ +), spécialement conçue pour l'IA dès le début de la conception matérielle, a des performances d'entraînement 3,3 fois supérieures à celles de l'A100, des performances d'inférence 4,5 fois supérieures à celles de l'A100, et le nombre réel d'images en ligne est de 86.

Après avoir sélectionné le type de matériel du cluster, l'utilisateur doit également sélectionner la région du cluster, la vitesse de communication, le nombre et l'heure des GPU loués et d'autres paramètres.

Enfin, IO.NET vous fournira une facture basée sur des sélections complètes. Prenons l'exemple de la configuration du cluster de l'auteur :

  • Scénario de tâche générale

  • 16 puces A100-SXM4-80GB

  • Vitesse de connexion maximale (Ultra High Speed)

  • Localisation États-Unis

  • La durée de location est de 1 semaine

Le prix total de la facture est de 3311,6$ et le prix horaire de location d'une seule carte est de 1,232$

Les prix horaires de location d'une carte unique de l'A100-SXM4-80GB sur Amazon Cloud, Google Cloud et Microsoft Azure sont respectivement de 5,12 $, 5,07 $ et 3,67 $ (source de données : https://cloud-gpus.com/, le prix réel sera basé sur les détails du contrat et les modifications des conditions).

Par conséquent, en termes de prix uniquement, la puissance de calcul de la puce IO.NET est en effet beaucoup moins chère que celle des fabricants traditionnels, et la combinaison d'approvisionnement et d'approvisionnement est également très flexible, et l'opération est également facile à démarrer.

Conditions d'affaires

Situation du côté de l’offre

Au 4 avril de cette année, selon les données officielles, l'offre totale de GPU d'IO.NET était de 371 027 et celle de CPU de 42 321. De plus, Render Network est son partenaire, et 9997 GPU et 776 CPU sont connectés à l'alimentation réseau.

Source des données : https://cloud.io.net/explorer/home, la même ci-dessous

Lorsque l'auteur a rédigé cet article, 214 387 du nombre total de GPU connectés à IO.NET étaient en ligne, et le taux de connexion a atteint 57,8 %. Le taux en ligne du GPU de Render Network est de 45,1%.

Que signifient les données ci-dessus concernant l’offre ?

À titre de comparaison, nous présentons un autre projet informatique distribué établi, Akash Network, qui est en ligne depuis plus longtemps.

Akash Network a lancé son réseau principal dès 2020, se concentrant initialement sur les services distribués pour le processeur et le stockage. En juin 2023, il a lancé le réseau de test des services GPU et a lancé le réseau principal de puissance de calcul distribuée GPU en septembre de la même année.

Source des données : https://stats.akash.network/provider-graph/graphics-gpu

Selon les données officielles d’Akash, bien que l’offre ait continué de croître depuis le lancement de son réseau GPU, le nombre total de connexions GPU n’est jusqu’à présent que de 365.

À en juger par l'offre de GPU, IO.NET est de plusieurs ordres de grandeur supérieur à Akash Network et constitue déjà le plus grand réseau d'approvisionnement dans le circuit de puissance de calcul GPU distribué.

Situation du côté de la demande

Cependant, du côté de la demande, IO.NET en est encore aux premiers stades de sa croissance sur le marché. Actuellement, le nombre total d'utilisateurs réels utilisant IO.NET pour effectuer des tâches informatiques n'est pas important. La charge de tâche de la plupart des GPU en ligne est de 0 %, et seules quatre puces – A100 PCIe 80 Go K8S, RTX A6000 K8S, RTX A4000 K8S et H100 80 Go HBM3 – sont des tâches de traitement. Et à l'exception de l'A100 PCIe 80 Go K8S, la capacité de charge des trois autres puces est inférieure à 20 %.

La valeur officielle de la pression du réseau divulguée ce jour-là était de 0 %, ce qui signifie que la majeure partie de l'approvisionnement en puces est en état de veille en ligne.

En termes d'échelle de coût du réseau, IO.NET a engagé des frais de service de 586 029 $, et le coût de la dernière journée était de 3 200 $.

Source des données : https://cloud.io.net/explorer/clusters

L'ampleur des frais de règlement du réseau ci-dessus, à la fois en termes de montant total et de volume de transactions quotidien, est du même ordre de grandeur que celle d'Akash. Cependant, la plupart des revenus du réseau d'Akash proviennent de la partie CPU, et l'offre de CPU d'Akash est supérieure à celle d'Akash. 20 000.

Source des données : https://stats.akash.network/

En outre, IO.NET a également divulgué les données commerciales des tâches de raisonnement de l'IA traitées par le réseau. Jusqu'à présent, il a traité et vérifié plus de 230 000 tâches de raisonnement. Cependant, la majeure partie de ce volume d'affaires est générée par le projet parrainé par IO.NET. BC8.AI.

Source des données : https://cloud.io.net/explorer/inferences

À en juger par les données commerciales actuelles, l'offre d'IO.NET se développe en douceur. Stimulée par les attentes de parachutage et les activités communautaires nommées « Ignition », elle a rapidement rassemblé une grande quantité de puissance de calcul des puces d'IA. Son expansion du côté de la demande n’en est qu’à ses débuts et la demande biologique est actuellement insuffisante. Quant aux lacunes actuelles du côté de la demande, que ce soit parce que l'expansion du côté des consommateurs n'a pas encore commencé, ou parce que l'expérience de service actuelle n'est pas encore stable et n'est donc pas adoptée à grande échelle, elle doit encore être évaluée.

Cependant, étant donné que le déficit de puissance de calcul de l'IA est difficile à combler à court terme, un grand nombre d'ingénieurs et de projets en IA recherchent des alternatives et pourraient être intéressés par des fournisseurs de services décentralisés. De plus, IO.NET ne l'a pas fait. Pourtant, le développement économique est axé sur la demande. Avec la stimulation des activités, l'amélioration progressive de l'expérience produit et l'adéquation progressive de l'offre et de la demande qui en résulte, cela vaut toujours la peine d'attendre.

2.3 Contexte de l'équipe et situation financière

Situation de l'équipe

L'équipe principale d'IO.NET a été fondée dans le domaine du trading quantitatif. Avant juin 2022, elle se concentrait sur le développement de systèmes de trading quantitatif au niveau institutionnel pour les actions et les actifs cryptographiques. En raison de la demande de puissance de calcul dans le backend du système, l'équipe a commencé à explorer la possibilité d'un calcul décentralisé et s'est finalement concentrée sur la question spécifique de la réduction du coût des services informatiques GPU.

Fondateur et PDG : Ahmad Shadid

Ahmad Shadid a participé à des travaux liés à l'ingénierie quantitative et financière avant IO.NET et est également bénévole à la Fondation Ethereum.

CMO et directeur de la stratégie : Garrison Yang

Garrison Yang a officiellement rejoint IO.NET en mars de cette année. Il était auparavant vice-président de la stratégie et de la croissance chez Avalanche et est diplômé de l'Université de Californie à Santa Barbara.

Directeur de l'exploitation : Tory Green

Tory Green est COO de io.net. Il était auparavant COO de Hum Capital, directeur du développement d'entreprise et de la stratégie chez Fox Mobile Group et est diplômé de Stanford.

À en juger par les informations Linkedin d'IO.NET, l'équipe a son siège à New York, aux États-Unis, avec une succursale à San Francisco. La taille actuelle de l'équipe est de plus de 50 personnes.

Situation financière

IO.NET n'a divulgué qu'un seul cycle de financement jusqu'à présent, à savoir le financement de série A finalisé en mars de cette année avec une valorisation de 1 milliard de dollars américains, levant un total de 30 millions de dollars américains, dirigé par Hack VC et d'autres investisseurs participants. incluent Multicoin Capital, Delphi Digital, Foresight Ventures, Animoca Brands, Continue Capital, Solana Ventures, Aptos, LongHash Ventures, OKX Ventures, Amber Group, SevenX Ventures et ArkStream Capital, entre autres.

Il convient de mentionner que, peut-être grâce à l'investissement reçu de la Fondation Aptos, le projet BC8.AI, qui était à l'origine utilisé pour le règlement et la comptabilité sur Solana, a été converti en le même Aptos L1 hautes performances.

2.4 Calcul de la valorisation

Selon l'ancien fondateur et PDG Ahmad Shadid, IO.NET lancera le jeton fin avril.

IO.NET a deux projets cibles qui peuvent être utilisés comme référence pour l'évaluation : Render Network et Akash Network, qui sont tous deux des projets représentatifs de calcul distribué.

Nous pouvons déduire la fourchette de valeur marchande d'IO.NET de deux manières : 1. Ratio marché/ventes, c'est-à-dire : ratio valeur marchande/revenus ; 2. Ratio valeur marchande/nombre de puces réseau ;

Examinons d’abord la déduction de valorisation basée sur le ratio prix/ventes :

Du point de vue du ratio prix/ventes, Akash peut être utilisé comme limite inférieure de la fourchette de valorisation d'IO.NET, tandis que Render peut être utilisé comme référence de tarification haut de gamme pour la valorisation, avec une fourchette FDV de 1,67 milliard de dollars à 5,93 milliards de dollars américains.

Cependant, étant donné que le projet IO.NET est mis à jour, que le récit est plus chaud, associé à la valeur marchande de la première diffusion plus faible et à l'échelle actuelle plus grande du côté de l'offre, la possibilité que son FDV dépasse Render n'est pas petite.

Regardons un autre angle pour comparer les valorisations, à savoir le « price to core ratio ».

Dans un contexte de marché où la demande de puissance de calcul de l'IA dépasse l'offre, l'élément le plus important d'un réseau de puissance de calcul d'IA distribué est l'ampleur de l'offre de GPU. Nous pouvons donc faire une comparaison horizontale avec le « marché jusqu'au cœur ». ratio » et utilisez la « valeur marchande totale du projet et le nombre de puces dans le réseau « Ratio de quantité » pour en déduire la plage de valorisation possible d'IO.NET que les lecteurs pourront utiliser comme référence de valeur marchande.

Si la plage de valeur marchande d'IO.NET est calculée sur la base du ratio marché/noyau, IO.NET utilise le ratio marché/noyau de Render Network comme limite supérieure et d'Akash Network comme limite inférieure. est de 20,6 milliards de dollars à 197,5 milliards de dollars.

Je pense que peu importe à quel point les lecteurs sont optimistes à propos du projet IO.NET, ils penseront qu'il s'agit d'un calcul de valeur marchande extrêmement optimiste.

Et nous devons tenir compte du fait que le nombre actuel de puces en ligne d'IO.NET est stimulé par les attentes de parachutage et les activités d'incitation. Le nombre réel de puces en ligne du côté de l'offre doit encore être observé après le lancement officiel du projet. .

Par conséquent, en général, les calculs de valorisation du point de vue du ratio prix/ventes peuvent être plus informatifs.

En tant que projet doté de la triple aura de l'écologie AI+DePIN+Solana, IO.NET attendra de voir quelles seront ses performances en valeur marchande après son lancement.

3. Informations de référence

  • Delphi Digital:La vraie fusion

  • Galaxy:Comprendre l'intersection de la cryptographie et de l'IA

Lien original : https://research.mintventures.fund/2024/04/08/zh-a-new-solana-based-ai-depin-project-a-brief-analysis-of-upcoming-tokenlaunch-io-net /

Réimprimé par la communauté io.net Binance Square, le droit d'auteur original et la responsabilité du contenu appartiennent à l'auteur original. La réimpression par io.net et Binance Square ne signifie pas qu'elle certifie ou soutient tout ou partie des points de vue du contenu réimprimé.