Lors de la conférence NVIDIA, pourquoi NEAR est-il devenu inexplicablement la principale chaîne publique d'IA ? Récemment, la nouvelle selon laquelle le fondateur de NEAR @ilblackdragon apparaîtra à la conférence NVIDIA AI a attiré beaucoup d'attention sur la chaîne publique NEAR, et la tendance des prix du marché est également gratifiante. De nombreux amis se demandent si NEAR Chain All ne fait pas d'abstraction de chaîne. Pourquoi est-elle devenue inexplicablement une chaîne publique de tête d'IA ? Ensuite, je partagerai mes observations et vulgariserai certaines connaissances en matière de formation de modèles d'IA : 1) Le fondateur de NEAR, Illia Polosukhin, a une longue expérience en IA et est un co-constructeur de l'architecture Transformer. L'architecture Transformer est aujourd'hui l'architecture de base de ChatGPT pour la formation de grands modèles de langage LLM, ce qui suffit à prouver que le patron de NEAR avait de l'expérience dans la création et la direction de systèmes de grands modèles d'IA avant de créer NEAR. 2) NRAR a lancé NEAR Tasks lors de NEARCON 2023. L'objectif est de former et d'améliorer les modèles d'intelligence artificielle. En termes simples, le demandeur de formation de modèles (fournisseur) peut émettre des demandes de tâches sur la plate-forme et télécharger des données de base. participer à la réponse à des tâches et effectuer des opérations manuelles telles que l'annotation de texte et la reconnaissance d'images pour les données. Une fois la tâche terminée, la plateforme récompensera l'utilisateur avec des jetons NEAR, et ces données étiquetées manuellement seront utilisées pour entraîner le modèle d'IA correspondant. Par exemple, le modèle d'IA doit améliorer sa capacité à identifier les objets dans les images. Le fournisseur peut télécharger un grand nombre d'images originales avec différents objets dans les images sur la plate-forme Tasks, puis les utilisateurs marquent manuellement les positions des objets sur la plate-forme. images pour générer un grand nombre de « positions image-objet » « Données, l'IA peut utiliser ces données pour apprendre de manière indépendante afin d'améliorer les capacités de reconnaissance d'images. À première vue, NEAR Tasks veut simplement socialiser l’ingénierie artificielle pour fournir des services de base aux modèles d’IA. Est-ce vraiment si important ? Ajoutez ici quelques connaissances scientifiques populaires sur les modèles d’IA. Normalement, une formation complète d'un modèle d'IA comprend la collecte de données, le prétraitement et l'annotation des données, la conception et la formation du modèle, le réglage du modèle, le réglage fin, les tests de vérification du modèle, le déploiement du modèle, la surveillance et la mise à jour du modèle, etc., parmi lesquels l'annotation et le prétraitement des données sont la partie manuelle, tandis que la formation et l'optimisation du modèle sont la partie machine. Évidemment, la plupart des gens comprennent que la partie machine est nettement plus grande que la partie manuelle. Après tout, elle semble être plus high-tech, mais dans les circonstances réelles, l'annotation manuelle est cruciale dans l'ensemble de la formation du modèle.L'annotation manuelle peut ajouter des étiquettes aux objets (personnes, lieux, objets) dans les images pour les ordinateurs afin d'améliorer l'apprentissage du modèle visuel ; l'annotation manuelle peut également convertir le contenu vocal en texte et marquer des syllabes spécifiques, des phrases de mots, etc. pour aider les ordinateurs à former un modèle de reconnaissance vocale. ; l'annotation manuelle peut également ajouter des balises émotionnelles telles que le bonheur, la tristesse, la colère, etc. au texte, permettant à l'intelligence artificielle d'améliorer les compétences d'analyse émotionnelle, etc. Il n'est pas difficile de voir que l'annotation manuelle est la base du développement de modèles d'apprentissage profond par les machines. Sans données annotées de haute qualité, le modèle ne peut pas apprendre efficacement. Si la quantité de données annotées n'est pas suffisamment importante, les performances du modèle le seront également. Il existe actuellement de nombreuses méthodes mini-invasives basées sur l'IA. La direction verticale du réglage fin secondaire ou la formation spéciale du grand modèle ChatGPT est essentiellement basée sur les données d'OpenAI et de nouvelles sources de données supplémentaires, en particulier les données étiquetées manuellement. , sont ajoutés pour effectuer la formation du modèle. Par exemple, si une entreprise médicale souhaite effectuer une formation modèle basée sur l'IA d'imagerie médicale et fournir un ensemble de services de consultation en ligne en IA pour les hôpitaux, il lui suffit de télécharger une grande quantité de données d'imagerie médicale originales sur la plate-forme Task, puis de laisser les utilisateurs marquent et terminent la tâche. Annoter manuellement les données, puis affiner et optimiser le grand modèle ChatGPT avec ces données transformera cet outil d'IA général en un expert dans un domaine vertical. Cependant, il ne suffit évidemment pas que NEAR devienne le leader de la chaîne publique de l'IA simplement en s'appuyant sur la plateforme Tasks. NEAR fournit également des services d'agent IA dans l'écosystème pour exécuter automatiquement tous les comportements et opérations des utilisateurs sur la chaîne. Les utilisateurs doivent simplement les autoriser pour acheter et vendre librement des actifs sur le marché. Ceci est quelque peu similaire à Intent-centric, qui utilise l'exécution automatisée de l'IA pour améliorer l'expérience d'interaction des utilisateurs en chaîne. De plus, les puissantes capacités DA de NEAR lui permettent de jouer un rôle dans la traçabilité des sources de données d'IA et de suivre la validité et l'authenticité des données de formation des modèles d'IA. En bref, soutenus par des fonctions de chaîne hautes performances, l'extension technique et les conseils narratifs de NEAR en direction de l'IA semblent être bien plus puissants que la pure abstraction de chaîne. $NEAR