introduction

Jusqu’à présent, ce cycle de marché haussier de la cryptographie est le plus ennuyeux en termes d’innovation commerciale. Il lui manque les pistes d’engouement au niveau des phénomènes telles que DeFi, NFT et Gamefi lors du marché haussier précédent, ce qui entraîne un manque de points chauds de l’industrie. le marché global, les utilisateurs, les investissements de l’industrie et la croissance des développeurs sont relativement faibles.

Cela se reflète également dans les prix actuels des actifs. Sur l’ensemble du cycle, la plupart des pièces Alt continuent de perdre du sang par rapport au taux de change du BTC, y compris de l’ETH. Après tout, la valorisation de la plateforme de contrats intelligents est déterminée par la prospérité de l'application. Lorsque le développement et l'innovation de l'application sont médiocres, il sera difficile d'augmenter la valorisation de la chaîne publique.

L'IA, en tant que nouvelle catégorie d'activité de cryptographie dans ce cycle, bénéficie d'une vitesse de développement explosive et de points chauds continus dans le monde des affaires externe, et il est toujours possible d'attirer une bonne attention sur les projets de piste d'IA dans le domaine de la cryptographie. monde.

Dans le rapport IO.NET publié par l'auteur en avril, l'auteur a souligné la nécessité de combiner l'IA et la cryptographie, c'est-à-dire les avantages des solutions cryptoéconomiques en matière de certitude, de mobilisation des ressources d'allocation et de manque de confiance, ce qui peut résoudre le caractère aléatoire et nature gourmande en ressources de l’IA. L’une des solutions aux trois défis de l’indiscernabilité entre les humains et les machines.

Dans la filière IA dans le domaine de la crypto-économie, l'auteur tente de discuter et de déduire certaines questions importantes à travers un autre article, notamment :

  • Quels autres récits naissent sur la piste de l’IA crypto et pourraient exploser à l’avenir ?

  • Les voies catalytiques et la logique de ces récits

  • Objectifs du projet liés au récit

  • Risques et incertitudes dans la déduction narrative

Cet article est la réflexion mise en scène de l'auteur au moment de sa publication. Il peut changer à l'avenir et les points de vue sont très subjectifs. Il peut également y avoir des erreurs dans les faits, les données et le raisonnement. Les commentaires et discussions des pairs sont les bienvenus.

Ce qui suit est le texte principal.

La prochaine vague de récits dans le domaine de la crypto-IA

Avant de faire officiellement le point sur la prochaine vague de récits sur la piste de l’IA crypto, jetons d’abord un coup d’œil aux principaux récits de l’IA crypto actuelle. Du point de vue de la valeur marchande, ceux qui ont plus d’un milliard de dollars américains sont :

  • Puissance de calcul : Render (RNDR, valeur marchande en circulation 3,85 milliards), Akash (valeur marchande en circulation 1,2 milliard), IO.NET (le plus récent cycle de valorisation du financement primaire 1 milliard)

  • Réseau d'algorithmes : Bittensor (TAO, valeur marchande de la diffusion 2,97 milliards)

  • Agent IA : Fetchai (FET, valeur marchande en circulation avant la fusion 2,1 milliards)

*Heure des données : 2024.5.24, les unités monétaires sont le dollar américain.

En plus des domaines ci-dessus, quelle piste d'IA sera la prochaine avec une valeur marchande d'un seul projet dépassant le milliard ?

L'auteur estime que cela peut être spéculé sous deux angles : le récit du « côté de l'offre industrielle » et le récit du « moment GPT ».

La première perspective du récit de l’IA : du côté de l’offre industrielle, examinez les opportunités en matière d’énergie et de données derrière l’IA.

Du point de vue de l’offre de l’industrie, les quatre forces motrices du développement de l’IA sont :

  • Algorithmes : des algorithmes de haute qualité peuvent effectuer des tâches de formation et d'inférence plus efficacement

  • Puissance de calcul : qu'il s'agisse de formation de modèles ou de raisonnement de modèles, le matériel GPU est nécessaire pour fournir de la puissance de calcul. C'est également le principal goulot d'étranglement de l'industrie à l'heure actuelle. La pénurie de base de l'industrie a conduit à des prix élevés pour les puces de milieu à haut de gamme. .

  • Énergie : le centre de calcul des données requis pour l'IA générera une grande consommation d'énergie en plus de la puissance requise par le GPU lui-même pour effectuer les tâches informatiques, le traitement de la dissipation thermique du GPU nécessite également beaucoup d'énergie. représente l’énergie totale Environ 40% de la consommation

  • Données : l'amélioration des performances des grands modèles nécessite d'élargir les paramètres de formation, ce qui signifie le besoin de quantités massives de données de haute qualité.

Compte tenu de la force motrice des quatre secteurs ci-dessus, les filières algorithme et puissance de calcul ont des projets de cryptage d'une valeur marchande en circulation de plus d'un milliard de dollars américains, tandis que les filières énergie et données n'ont pas encore vu de projets avec le même marché. valeur.

En fait, la pénurie d’énergie et de données pourrait bientôt survenir et devenir une nouvelle vague de points chauds industriels, entraînant ainsi une recrudescence de projets connexes dans le domaine du cryptage.

Parlons d’abord d’énergie.

Le 29 février 2024, Musk a déclaré lors de la conférence Bosch Internet World 2024 : « J'avais prédit une pénurie de puces il y a plus d'un an, et la prochaine pénurie sera l'électricité. Je pense qu'il n'y aura pas assez d'électricité l'année prochaine pour faire fonctionner tous les systèmes. puces."

À en juger par des données spécifiques, l'Institut d'intelligence artificielle de l'Université de Stanford (Intelligence artificielle centrée sur l'humain) dirigé par Li Feifei publie chaque année le « Rapport sur l'indice d'IA » dans le rapport publié par l'équipe en 2022 pour l'industrie de l'IA depuis 21 ans. équipe de recherche L'évaluation estime que la consommation d'énergie de l'IA ne représentait que 0,9 % de la demande mondiale d'électricité cette année-là et que la pression sur l'énergie et l'environnement était limitée. En 2023, l'Agence internationale de l'énergie (AIE) a conclu que les centres de données mondiaux consommaient environ 460 térawattheures (TWh) d'électricité, ce qui représente 2 % de la demande mondiale en électricité, et a prédit que d'ici 2026, la consommation d'énergie des centres de données mondiaux sera aussi aussi faible que 620 térawattheures et aussi élevé que 1 050 térawattheures.

En fait, l'estimation de l'Agence internationale de l'énergie reste prudente, car il existe déjà un grand nombre de projets autour de l'IA qui sont sur le point d'être lancés, et l'ampleur de la demande d'énergie correspondante dépasse largement son imagination en 2023.

Par exemple, le projet Stargate prévu par Microsoft et OpenAI. Ce plan devrait être lancé en 2028 et achevé vers 2030. Le projet prévoit de construire un supercalculateur doté de millions de puces d'IA dédiées pour fournir à OpenAI une puissance de calcul sans précédent et soutenir son utilisation dans l'intelligence artificielle, en particulier dans la recherche et le développement de grands modèles de langage. . Le projet devrait coûter plus de 100 milliards de dollars, soit 100 fois plus que le coût des grands centres de données actuels.

La consommation d’énergie du seul projet Stargate atteint 50 térawattheures.

C'est précisément pour cette raison que le fondateur d'OpenAI, Sam Altman, a déclaré lors du Forum de Davos en janvier de cette année : « La future intelligence artificielle nécessite des percées énergétiques, car l'intelligence artificielle consommera beaucoup plus d'énergie que ce à quoi les gens s'attendent.

Après la puissance de calcul et l’énergie, le prochain domaine de pénurie dans le secteur de l’IA en croissance rapide sera probablement celui des données.

En d’autres termes, la pénurie de données de haute qualité requises par l’IA est devenue une réalité.

À l'heure actuelle, grâce à l'évolution du GPT, les humains ont essentiellement compris les règles pour la croissance des capacités du modèle de langage à grande échelle - c'est-à-dire qu'en élargissant les paramètres du modèle et les données de formation, les capacités du modèle peuvent être améliorées de manière exponentielle - et ce processus ne peut pas être constaté à court terme.

Mais le problème est que les données ouvertes et de haute qualité pourraient devenir de plus en plus rares à l’avenir, et les produits d’IA pourraient être confrontés aux mêmes contradictions entre l’offre et la demande de données que les puces et l’énergie.

Le premier est une augmentation des litiges concernant la propriété des données.

Le 27 décembre 2023, le New York Times a officiellement poursuivi OpenAI et Microsoft devant le tribunal fédéral du district américain, les accusant d'utiliser des millions de leurs propres articles pour entraîner des modèles GPT sans autorisation, les obligeant à « copier et utiliser illégalement des milliards de dollars uniques ». de dollars en dommages légaux et réels » et la destruction de tous les modèles et données de formation contenant du matériel protégé par le droit d’auteur du New York Times.

Fin mars, le New York Times a publié une nouvelle déclaration visant non seulement OpenAI, mais également Google et Meta. La déclaration du New York Times indique qu'OpenAI a utilisé un outil de reconnaissance vocale appelé Whisper pour transcrire les parties vocales d'un grand nombre de vidéos YouTube, puis a généré du texte sous forme de texte pour entraîner GPT-4. Le New York Times a déclaré qu'il est désormais très courant que les grandes entreprises aient recours à des vols mineurs lors de la formation de modèles d'IA, et a déclaré que Google le faisait également. Ils convertissent également le contenu vidéo YouTube en texte pour la formation de leurs propres grands modèles. portant essentiellement atteinte aux droits des créateurs de contenu vidéo.

Le New York Times et OpenAI constituent la « première affaire de droit d’auteur sur l’IA ». Compte tenu de la complexité de l’affaire et de son impact considérable sur l’avenir du contenu et de l’industrie de l’IA, un résultat pourrait ne pas être disponible de sitôt. L’un des résultats finaux possibles est un règlement à l’amiable entre les deux parties, les riches Microsoft et OpenAI payant une indemnisation importante. Cependant, de nouvelles frictions liées aux droits d’auteur sur les données à l’avenir augmenteront inévitablement le coût global des données de haute qualité.

En outre, en tant que plus grand moteur de recherche au monde, Google a également révélé qu'il envisageait de facturer sa fonction de recherche, mais la cible de la facturation n'est pas le grand public, mais les entreprises d'IA.

Source : Reuters

Les serveurs des moteurs de recherche de Google stockent une grande quantité de contenu, et on peut même dire que Google stocke tout le contenu apparu sur toutes les pages Internet depuis le 21e siècle. Les produits de recherche actuels basés sur l'IA, tels que les produits étrangers tels que Perplexity, et les produits nationaux tels que Kimi et Secret Tower, traitent tous les données recherchées via l'IA, puis les transmettent aux utilisateurs. Les frais facturés par les moteurs de recherche pour l’IA augmenteront inévitablement le coût de l’acquisition des données.

En fait, outre les données publiques, les géants de l’IA s’intéressent également aux données internes non publiques.

Photobucket est un site Web d'hébergement d'images et de vidéos bien établi qui comptait 70 millions d'utilisateurs et près de la moitié du marché américain de la photo en ligne au début des années 2000. Avec l'essor des médias sociaux, le nombre d'utilisateurs de Photobucket a considérablement diminué. Actuellement, il n'y a que 2 millions d'utilisateurs actifs (ils doivent payer des frais élevés de 399 $ US par an, selon l'accord et la politique de confidentialité signés par les utilisateurs). lors de leur inscription, ils n'ont pas été utilisés depuis plus d'un an. Le compte sera recyclé et le droit de Photobucket d'utiliser les images et les données vidéo téléchargées par l'utilisateur est également pris en charge. Le PDG de Photobucket, Ted Leonard, a révélé que ses 1,3 milliard de données photo et vidéo sont extrêmement précieuses pour la formation de modèles d'IA génératifs. Il est en pourparlers avec plusieurs sociétés technologiques pour vendre les données, avec des offres allant de 5 cents à 1 $ par photo et plus de 1 $ par vidéo, estimant que les données que Photobucket peut fournir valent plus d'un milliard de dollars.

EPOCH, une équipe de recherche axée sur la tendance de développement de l'intelligence artificielle, a publié un jour un rapport sur les données nécessaires à l'apprentissage automatique basé sur l'utilisation de données et la génération de nouvelles données par apprentissage automatique en 2022, et compte tenu de la croissance des ressources informatiques. « Allons-nous manquer de données ? Une analyse des limites de la mise à l'échelle des ensembles de données dans l'apprentissage automatique », le rapport conclut que les données textuelles de haute qualité seront épuisées entre février 2023 et 2026, et les données d'images seront épuisées en 2030. et 2060. Si l’efficacité de l’utilisation des données ne peut pas être améliorée de manière significative ou si de nouvelles sources de données émergent, la tendance actuelle aux grands modèles d’apprentissage automatique qui s’appuient sur des ensembles de données massifs pourrait ralentir.

À en juger par la situation actuelle dans laquelle les géants de l’IA achètent des données à des prix élevés, les données textuelles gratuites de haute qualité sont pratiquement épuisées. La prédiction d’EPOCH il y a 2 ans était relativement précise.

Dans le même temps, des solutions à la demande de « pénurie de données d’IA » émergent également, à savoir : des services de fourniture de données d’IA.

Defined.ai est une entreprise qui fournit des données personnalisées, réelles et de haute qualité aux entreprises d'IA.

Exemples de types de données que Defined.ai peut fournir : https://www.defined.ai/datasets

Son modèle commercial est le suivant : les sociétés d'IA fournissent à Defined.ai leurs propres besoins en données. Par exemple, en termes de qualité, quelle est la résolution requise pour éviter le flou, la surexposition et le contenu authentique. En termes de contenu, les sociétés d'IA peuvent personnaliser des thèmes spécifiques en fonction de leurs propres tâches de formation, tels que des photos de nuit, des cônes de nuit, des parkings et des panneaux, pour améliorer le taux de reconnaissance de l'IA dans les scènes nocturnes. Le public peut assumer la tâche, et l'entreprise examinera les photos et les téléchargera, puis les pièces qui répondent aux exigences seront réglées en fonction du nombre de photos. Le prix est d'environ 1 à 2 USD pour une image de haute qualité. , 5 à 7 dollars US pour un court métrage de plus de dix secondes, et le prix est d'environ 1 à 2 dollars US pour mille mots. Une vidéo de haute qualité de plus de 10 minutes coûte 100 à 300 dollars US. La personne qui reçoit la tâche de sous-traitance peut recevoir environ 20 % des honoraires. La fourniture de données pourrait devenir une autre activité de crowdsourcing après « l’étiquetage des données ».

Le crowdsourcing mondial des tâches, les incitations économiques, la tarification des actifs de données, la circulation et la protection de la vie privée, tout le monde peut participer, cela ressemble à une catégorie d'entreprise particulièrement adaptée au paradigme Web3.

Objectifs narratifs de l’IA du point de vue de l’offre de l’industrie

L'inquiétude provoquée par la pénurie de puces a pénétré l'industrie du cryptage, faisant de la puissance de calcul distribuée la catégorie de piste d'IA la plus populaire avec la valeur marchande la plus élevée jusqu'à présent.

Donc, si la contradiction entre l'offre et la demande dans l'industrie de l'IA en matière d'énergie et de données éclate au cours des 1 à 2 prochaines années, quels projets liés au récit existe-t-il actuellement dans l'industrie du cryptage ?

Examinons d’abord les objectifs énergétiques.

Il existe très peu de projets énergétiques qui ont lancé le principal CEX, et il n’existe qu’un seul Power Ledger (Token Powr).

Créée en 2017, Power Ledger est une plateforme énergétique complète basée sur la technologie blockchain. Elle vise à décentraliser les transactions énergétiques, à promouvoir le commerce direct de l'électricité par les individus et les communautés, à soutenir l'application généralisée des énergies renouvelables et à garantir la sûreté et la sécurité de l'énergie. contrats intelligents. Transparence et efficacité des transactions. Initialement, Power Ledger fonctionnait sur la base de la chaîne de consortium modifiée à partir d'Ethereum. Au second semestre 2023, Power Ledger a mis à jour son livre blanc et lancé sa propre chaîne publique complète, qui a été modifiée sur la base du cadre technique de Solana pour faciliter le traitement des microtransactions à haute fréquence sur le marché de l'énergie distribuée. Actuellement, les principales activités de Power Ledger comprennent :

  • Commerce d'énergie : permet aux utilisateurs d'acheter et de vendre directement de l'électricité, notamment issue de sources d'énergie renouvelables, en peer-to-peer.

  • Commerce de produits environnementaux : comme le commerce de crédits carbone et de certificats d'énergie renouvelable, ainsi que le financement basé sur des produits environnementaux.

  • Fonctionnement de la chaîne publique : incitez les développeurs d'applications à créer des applications sur la blockchain Powerledger, et les frais de transaction de la chaîne publique sont payés en jetons Powr.

La valeur marchande actuelle de la diffusion du projet Power Ledger est de 170 millions de dollars et la valeur marchande de la diffusion totale est de 320 millions de dollars.

Par rapport aux cibles de chiffrement énergétiques, le nombre de cibles de chiffrement dans la piste de données est plus abondant.

L'auteur ne répertorie que les projets de suivi de données auxquels je prête actuellement attention et qui ont lancé au moins un des CEX de Binance, OKX et Coinbase, et ils sont classés de bas en haut selon FDV :

1.Streamr – DONNÉES

La proposition de valeur de Streamr est de créer un réseau de données décentralisé en temps réel qui permet aux utilisateurs d'échanger et de partager librement des données tout en conservant un contrôle total sur leurs données. Grâce à son marché de données, Streamr espère permettre aux producteurs de données de vendre des flux de données directement aux consommateurs intéressés sans avoir recours à des intermédiaires, réduisant ainsi les coûts et augmentant l'efficacité.

Source : https://streamr.network/hub/projects

Dans un cas de coopération réel, Streamr coopère avec un autre projet matériel de véhicule Web3, DIMO, pour collecter la température, la pression atmosphérique et d'autres données via des capteurs matériels DIMO montés sur le véhicule afin de former un flux de données météorologiques et de le transmettre aux institutions qui en ont besoin.

Par rapport à d'autres projets de données, Streamr se concentre davantage sur les données de l'Internet des objets et des capteurs matériels. Outre les données des véhicules DIMO mentionnées ci-dessus, d'autres projets incluent le flux de données de trafic en temps réel d'Helsinki. Par conséquent, le jeton du projet DATA de Streamr a doublé sa croissance en une seule journée en décembre de l’année dernière, lorsque le concept Depin était à son apogée.

La valeur marchande en circulation actuelle du projet Streamr est de 44 millions de dollars et la valeur marchande totale en circulation est de 58 millions de dollars.

2. Covalent – ​​CQT

Contrairement à d'autres projets de données, Covalent fournit des données blockchain. Le réseau Covalent lit les données des nœuds blockchain via RPC, puis traite et organise les données pour créer une base de données de requêtes efficace. De cette manière, les utilisateurs de Covalent peuvent récupérer rapidement les informations dont ils ont besoin sans avoir à effectuer des requêtes complexes directement à partir du nœud blockchain. Ce type de service est également appelé « indexation des données blockchain ».

Les clients de Covalent sont principalement du côté commercial, notamment des projets Dapp, tels que divers Defi, et de nombreuses sociétés de chiffrement centralisées, telles que Consensys (la société mère de Metamask), CoinGecko (une station bien connue du marché des actifs cryptographiques), Rotki (un outil fiscal ) ), Rainbow (portefeuille crypté), etc. Par ailleurs, Fidelity, un géant du secteur financier traditionnel, et Ernst & Young, les quatre grands cabinets comptables, sont également clients de Covalent. Selon les données officiellement divulguées par Covalent, les revenus du projet provenant des services de données ont dépassé ceux de The Graph, le projet leader dans le même domaine.

En raison de l'intégrité, de l'ouverture, de l'authenticité et de la nature en temps réel des données sur la chaîne, l'industrie du Web3 devrait devenir une source de données de haute qualité pour les scénarios d'IA segmentés et les « petits modèles d'IA » spécifiques. En tant que fournisseur de données, Covalent a commencé à fournir des données pour divers scénarios d'IA et a lancé des données structurées vérifiables spécifiquement pour l'IA.

Source : https://www.covalenthq.com/solutions/decentralized-ai/

Par exemple, il fournit des données à la plateforme de trading intelligente en chaîne SmartWhales et utilise l'IA pour identifier les modèles et les adresses de transactions rentables ; Entender Finance utilise les données structurées et le traitement de l'IA de Covalent pour des informations en temps réel, la détection des anomalies et l'analyse prédictive.

À l'heure actuelle, les principaux scénarios pour les services de données en chaîne fournis par Covalent sont toujours financiers. Cependant, avec la généralisation des produits et des types de données Web3, les scénarios d'utilisation des données en chaîne seront également élargis.

La valeur marchande actuelle de la diffusion du projet Covalent est de 150 millions de dollars et la valeur marchande de la diffusion totale est de 235 millions de dollars. Par rapport au projet d'index de données blockchain The Graph dans la même piste, il présente un net avantage en matière de valorisation.

3.Hivemapper – Miel

Parmi tous les supports de données, les données vidéo ont souvent le prix unitaire le plus élevé. Hivemapper peut fournir des données, notamment des informations vidéo et cartographiques, aux entreprises d'IA. Hivemapper lui-même est un projet de cartographie mondial décentralisé qui vise à créer un système de cartographie détaillé, dynamique et accessible grâce à la technologie blockchain et aux contributions de la communauté. Les participants peuvent capturer des données cartographiques via une dashcam et les ajouter au réseau de données open source Hivemapper, et recevoir des récompenses en fonction de leurs contributions au jeton du projet HONEY. Afin d'améliorer les effets de réseau et de réduire les coûts d'interaction, Hivemapper est construit sur Solana.

Hivemapper a été fondée en 2015. La vision initiale était d'utiliser des drones pour créer des cartes, mais elle s'est avérée plus tard que ce modèle était difficile à mettre à l'échelle. Elle s'est donc tournée vers l'utilisation d'enregistreurs de conduite et de smartphones pour capturer des données géographiques, réduisant ainsi le coût de production de cartes mondiales. .

Comparé aux logiciels de visualisation de rue et de cartographie tels que Google Maps, Hivemapper peut étendre plus efficacement la couverture cartographique, maintenir la fraîcheur des scènes cartographiques réelles et améliorer la qualité vidéo en stimulant le réseau et les modèles de crowdsourcing.

Avant que la demande de données de l'IA n'explose, les principaux clients de Hivemapper étaient le secteur de la conduite autonome de l'industrie automobile, les sociétés de services de navigation, les gouvernements, les sociétés d'assurance et immobilières, etc. Désormais, Hivemapper peut fournir à l'IA et aux grands modèles une large gamme de données routières et environnementales via des API grâce à la saisie de flux de données d'images et de caractéristiques routières constamment mis à jour, les modèles d'IA et de ML seront en mesure de mieux transformer les données en capacités et tâches d'exécution améliorées. liés à la situation géographique et au jugement visuel.

Source des données : https://hivemapper.com/blog/diversify-ai-computer-vision-models-with-global-road-imagery-map-data/

La valeur marchande en circulation actuelle du projet Hivemapper-Honey est de 120 millions de dollars, et la valeur marchande totale en circulation est de 496 millions de dollars.

En plus des trois projets ci-dessus, les projets sur la piste des données incluent The Graph – GRT (valeur marchande de 3,2 milliards de dollars, FDV 3,7 milliards de dollars), dont les activités sont similaires à celles de Covalent et fournissent également des services d'indexation de données blockchain et Ocean Protocol – OCEAN ; (valeur marchande de circulation 670 millions $, FDV 1,45 milliard $, ce projet sera bientôt fusionné avec Fetch.ai et SingularityNET, le token sera converti en ASI), un protocole open source conçu pour favoriser l'échange et la monétisation des données et des données. -services liés, connectant les consommateurs de données aux fournisseurs de données pour partager des données tout en garantissant la confiance, la transparence et la traçabilité.

La deuxième perspective du récit de l'IA : GPT réapparaît en quelques instants et l'intelligence artificielle générale arrive

De l'avis de l'auteur, la première année de la « piste de l'IA » dans l'industrie du chiffrement est 2023, lorsque GPT a choqué le monde. L'essor des projets d'IA de chiffrement est davantage une « conséquence brûlante » provoquée par le développement explosif de l'IA. industrie.

Bien que les capacités de GPT 4, turbo, etc. aient été continuellement mises à niveau après GPT 3.5, ainsi que l'étonnante démonstration de capacités de création vidéo de Sora, y compris le développement rapide de grands modèles de langage autres qu'OpenAI, il est indéniable que les progrès technologiques de L'IA a apporté au public L'impact cognitif s'affaiblit, les gens utilisent progressivement les outils d'IA et le remplacement d'emplois à grande échelle ne semble pas encore avoir eu lieu.

Alors, le « moment GPT » réapparaîtra-t-il dans le domaine de l’IA à l’avenir, avec un développement fulgurant de l’IA qui choquera le public, faisant comprendre aux gens que leur vie et leur travail en seront modifiés ?

Ce moment pourrait être l’arrivée de l’intelligence artificielle générale (AGI).

L’AGI fait référence au fait que les machines possèdent des capacités cognitives complètes similaires à celles des humains et peuvent résoudre une variété de problèmes complexes, et pas seulement des tâches spécifiques. Le système AGI possède un degré élevé de pensée abstraite, des connaissances de base approfondies, un raisonnement de bon sens et une compréhension causale dans tous les domaines, ainsi qu'un apprentissage par transfert interprofessionnel. Les performances d'AGI ne sont pas différentes de celles des meilleurs humains dans divers domaines, et en termes de capacités globales, elles surpassent complètement les meilleurs groupes humains.

En fait, quelle que soit la présentation dans les romans de science-fiction, les jeux, les œuvres cinématographiques et télévisuelles, ou les attentes du public après la popularité rapide du GPT, le public s'attend depuis longtemps à l'émergence d'AGI qui dépasse le niveau de cognition humaine. En d’autres termes, GPT lui-même est le produit phare de l’AGI et la version prophétique de l’intelligence artificielle générale.

La raison pour laquelle GPT a une telle énergie industrielle et un tel impact psychologique est que la rapidité et les performances de sa mise en œuvre ont dépassé les attentes du public : les gens ne s'attendaient pas à ce qu'un système d'intelligence artificielle capable de compléter le test de Turing soit vraiment arrivé, et il est si rapide .

En fait, l'intelligence artificielle (AGI) pourrait à nouveau connaître la soudaineté du « moment GPT » dans 1 à 2 ans : les gens viennent de s'adapter à l'assistance du GPT, et ils découvrent que l'IA n'est plus seulement un assistant, elle peut Vous pouvez même accomplir des tâches extrêmes de manière indépendante. Le travail le plus créatif et le plus stimulant, y compris les problèmes qui ont piégé les plus grands scientifiques de l'humanité pendant des décennies.

Le 8 avril de cette année, Musk a accepté un entretien avec Nicolai Tangen, directeur des investissements du Fonds souverain norvégien, et a parlé de l'époque où AGI est apparu.

Il a déclaré : « Si l’AGI est définie comme étant plus intelligente que la partie la plus intelligente de la race humaine, je pense qu’elle apparaîtra probablement en 2025. »

C'est-à-dire que, selon sa déduction, il faudra au plus un an et demi avant l'arrivée d'AGI. Bien entendu, il a ajouté une condition préalable, à savoir « si la puissance et le matériel peuvent suivre le rythme ».

Les avantages de l'avènement d'AGI sont évidents.

Cela signifie que la productivité humaine fera un grand pas en avant et qu’un grand nombre de problèmes de recherche scientifique qui nous piègent depuis des décennies seront résolus. Si nous définissons la « partie la plus intelligente de l'humanité » comme le niveau des lauréats du prix Nobel, cela signifie que tant qu'il y aura suffisamment d'énergie, de puissance de calcul et de données, nous pouvons avoir d'innombrables « lauréats du prix Nobel » infatigables travaillant 24 heures sur 24 sur les problèmes scientifiques les plus difficiles.

En fait, les lauréats du prix Nobel ne sont pas aussi précieux qu'un sur quelques centaines de millions. La plupart d'entre eux se situent au niveau des meilleurs professeurs d'université en termes de capacités et d'intelligence, mais en raison de la probabilité et de la chance, ils ont choisi la bonne direction, a poursuivi la professeure. pour le faire et j'ai obtenu des résultats. Des personnes de son niveau, ses collègues tout aussi remarquables, ont peut-être aussi remporté le prix Nobel dans l'univers parallèle de la recherche scientifique. Mais malheureusement, il n'y a toujours pas assez de professeurs d'université de haut niveau et de personnes impliquées dans les percées de la recherche scientifique, de sorte que la vitesse à laquelle « parcourir toutes les bonnes directions de la recherche scientifique » est encore très lente.

Avec AGI, lorsque l'énergie et la puissance de calcul sont entièrement fournies, nous pouvons disposer d'un nombre illimité d'AGI « lauréats du prix Nobel » pour mener une exploration en profondeur dans toutes les directions possibles de percée de la recherche scientifique, et la vitesse d'amélioration technologique sera des dizaines de fois plus rapide. L'amélioration de la technologie fera que les ressources que nous considérons aujourd'hui comme très coûteuses et rares seront multipliées par des centaines d'ici 10 à 20 ans, comme la production alimentaire, les nouveaux matériaux, les nouveaux médicaments, l'éducation de haut niveau, etc. le coût de leur obtention diminuera également de façon exponentielle. Nous avons pu nourrir une population plus nombreuse avec moins de ressources, et la richesse par habitant a augmenté rapidement.

Graphique de tendance du PIB mondial, source de données : Banque mondiale

Cela peut paraître un peu sensationnel. Regardons deux exemples. Ces deux exemples ont été utilisés par l'auteur dans des rapports de recherche précédents sur IO.NET :

  • En 2018, le prix Nobel de chimie Francis Arnold a déclaré lors de la cérémonie de remise des prix : « Aujourd'hui, nous pouvons lire, écrire et éditer n'importe quelle séquence d'ADN dans des applications pratiques, mais nous ne pouvons pas encore la composer, cinq ans après son discours, en 2023. » de l'Université de Stanford et de la startup Salesforce AI de la Silicon Valley ont publié un article dans "Nature-Biotechnology". Ils ont utilisé un grand modèle de langage affiné basé sur GPT 3 à 0, ont créé 1 million de nouvelles protéines et ont trouvé 2 protéines avec des structures complètement différentes. , mais tous deux ont des capacités bactéricides et devraient devenir une solution pour lutter contre les bactéries en plus des antibiotiques. En d’autres termes : grâce à l’IA, le goulot d’étranglement de la « création » de protéines a été surmonté.

  • Auparavant, l'algorithme d'intelligence artificielle AlphaFold prédisait la structure de la quasi-totalité des 214 millions de protéines présentes sur Terre en 18 mois. Ce résultat était des centaines de fois supérieur au travail de tous les biologistes structurels humains du passé.

Des changements sont déjà en cours et l’arrivée d’AGI va encore accélérer ce processus.

D’un autre côté, les défis posés par l’avènement de l’AGI sont également énormes.

AGI remplacera non seulement un grand nombre de travailleurs mentaux, mais les prestataires de services manuels, désormais considérés comme « moins touchés par l'IA », seront également impactés par la réduction des coûts de production induite par la maturité de la technologie robotique et le développement de nouveaux matériaux. , et sera affecté par les machines. La proportion de postes de travail remplacés par des logiciels augmentera rapidement.

À cette époque, deux problèmes qui semblaient autrefois très lointains vont bientôt faire surface :

  • Problèmes d’emploi et de revenus pour un grand nombre de chômeurs

  • Dans un monde où l’IA est partout, comment distinguer l’IA de l’humain ?

Worldcoin\Worldchain tente de fournir une solution, c'est-à-dire en utilisant le système UBI (Universal Basic Income) pour fournir un revenu de base au public et en utilisant la biométrie basée sur l'iris pour distinguer les gens de l'IA.

En fait, l’UBI qui distribue de l’argent à tous n’est pas un château en l’air sans des pratiques pratiques. Des pays comme la Finlande et l’Angleterre ont mis en place un revenu de base universel, et les partis politiques au Canada, en Espagne, en Inde et dans d’autres pays proposent activement de le promouvoir. expériences connexes.

L'avantage de la distribution UBI basée sur le modèle d'identification biométrique + blockchain est que le système est mondial et couvre plus largement la population. De plus, d'autres modèles commerciaux peuvent être construits sur la base du réseau d'utilisateurs élargi grâce à la distribution des revenus, par exemple financier. les services (Defi), les réseaux sociaux, le crowdsourcing de tâches, etc. forment une collaboration commerciale au sein du réseau.

L'une des cibles correspondantes de l'impact provoqué par l'avènement de l'AGI est Worldcoin-WLD, avec une valeur marchande en circulation de 1,03 milliard de dollars et une valeur marchande totale en circulation de 47,2 milliards de dollars.

Risques et incertitudes dans la déduction narrative

Cet article est différent des nombreux rapports de recherche sur les projets et les pistes publiés précédemment par Mint Ventures. La déduction et la prédiction du récit sont hautement subjectives. Les lecteurs sont priés de traiter le contenu de cet article uniquement comme une discussion divergente plutôt que comme une prédiction du récit. avenir. La déduction narrative de l'auteur mentionnée ci-dessus est confrontée à de nombreuses incertitudes, conduisant à des conjectures erronées. Ces risques ou facteurs d'influence comprennent, sans s'y limiter :

  • Énergie : baisse rapide de la consommation d'énergie causée par le remplacement du GPU

Bien que la demande d'énergie autour de l'IA ait grimpé en flèche, les fabricants de puces représentés par NVIDIA fournissent une puissance de calcul plus élevée avec une consommation d'énergie inférieure grâce à des mises à niveau matérielles continues. Par exemple, en mars de cette année, NVIDIA a publié une puce intégrant deux cartes informatiques IA de nouvelle génération. Le GB 200 dispose de 200 GPU et d'un processeur Grace. Ses performances d'entraînement sont 4 fois supérieures à celles du GPU AI principal H 100 de la génération précédente, ses performances d'inférence sont 7 fois supérieures à celles du H 100 et la consommation d'énergie requise n'est que de H 100 1/4. . Bien entendu, malgré cela, le désir des gens de bénéficier de l’énergie de l’IA est loin d’être terminé. Avec la baisse de la consommation d’énergie unitaire et l’expansion des scénarios et des besoins d’application de l’IA, la consommation totale d’énergie pourrait en réalité augmenter.

  • En termes de données : Q* envisage d’aboutir à des « données autoproduites »

Il y a toujours eu une rumeur sur le projet "Q*" au sein d'OpenAI, qui a été mentionnée dans un message interne envoyé aux employés par OpenAI. Selon Reuters citant des initiés d’OpenAI, cela pourrait constituer une avancée décisive pour OpenAI dans sa quête de superintelligence/intelligence artificielle générale (AGI). Q* peut non seulement utiliser ses capacités d’abstraction pour résoudre des problèmes mathématiques inédits, mais il peut également créer lui-même les données utilisées pour entraîner de grands modèles sans avoir besoin de données du monde réel. Si cette rumeur est vraie, le goulot d'étranglement dû à l'insuffisance de données de haute qualité dans la formation de grands modèles d'IA sera levé.

  • AGI arrive : les soucis cachés d’OpenAI

On ne sait toujours pas si l’AGI arrivera en 2025 comme l’a dit Musk, mais ce n’est qu’une question de temps. Cependant, en tant que bénéficiaire direct de l’avènement du récit AGI, la plus grande préoccupation de Worldcoin pourrait venir d’OpenAI. Après tout, il est reconnu comme un « jeton fantôme OpenAI ».

Tôt le matin du 14 mai, OpenAI a montré les performances du dernier GPT-4 o et de 19 autres versions différentes de grands modèles de langage dans des scores de tâches complets lors de la conférence de lancement du nouveau produit du printemps. À partir du seul tableau, GPT-4 o a obtenu un score. 1310 , visuellement, il semble être beaucoup plus élevé que les suivants, mais d'après le score total, il n'est que de 4,5% supérieur à celui du GPT 4 turbo de la deuxième place et de 4,9% supérieur à celui du Gemini 1.5 Pro de Google, quatrième place. 5,1% de plus que la cinquième place de Claude 3 Opus d'Anthropic.

Un peu plus d'un an s'est écoulé depuis que GPT 3.5 a choqué le monde lors de ses débuts. Les concurrents d'OpenAI ont déjà rattrapé leur retard (même si GPT 5 n'est pas encore sorti et devrait le faire cette année). performance à l'avenir ? Sa propre position de leader dans l'industrie, la réponse semble devenir floue. Si l’avant-garde et la domination d’OpenAI sont diluées, voire dépassées, alors la valeur narrative de Worldcoin en tant que jeton fantôme d’OpenAI diminuera également.

De plus, outre la solution d'authentification de l'iris de Worldcoin, de plus en plus de concurrents commencent à entrer sur ce marché. Par exemple, le projet d'identification par numérisation palmaire Humanity Protocol vient d'annoncer la finalisation d'un nouveau tour de financement de 30 millions de dollars américains pour une valorisation. d'un milliard de dollars américains, et LayerZero Labs Il a également été annoncé qu'il fonctionnerait sur Humanity et rejoindrait son réseau de nœuds de validation, en utilisant des preuves ZK pour authentifier les informations d'identification.

Conclusion

Enfin, bien que l'auteur ait déduit le récit ultérieur de la piste IA, la piste IA est différente des pistes crypto-natives telles que DeFi. Il s'agit plutôt d'un produit de l'engouement pour l'IA. au cercle monétaire. De nombreux projets ont actuellement des modèles commerciaux. De nombreux projets ressemblent davantage à des mèmes sur le thème de l'IA (par exemple, Rndr est similaire au mème de NVIDIA et Worldcoin est similaire au mème d'OpenAI). devrait le traiter avec prudence.