Selon Cointelegraph, une équipe de scientifiques belges a résolu un défi majeur en matière d’intelligence artificielle (IA) en utilisant une méthode d’entraînement décentralisée basée sur la blockchain. Bien que la recherche en soit à ses débuts, elle pourrait avoir des implications de grande portée, allant de la révolution de l’exploration spatiale aux risques existentiels pour l’humanité.

Dans un environnement simulé, les chercheurs ont créé une méthode pour coordonner l'apprentissage entre des agents d'IA individuels et autonomes. Ils ont utilisé la technologie blockchain pour faciliter et sécuriser les communications entre ces agents, formant ainsi un « essaim » décentralisé de modèles d'apprentissage. Les résultats de la formation de chaque agent ont ensuite été utilisés pour développer un modèle d'IA plus vaste. En traitant les données via la blockchain, le système a bénéficié de l'intelligence collective de l'essaim sans accéder aux données des agents individuels.

L’apprentissage automatique, étroitement lié à l’IA, se présente sous différentes formes. Les chatbots classiques comme ChatGPT d’OpenAI ou Claude d’Anthropic sont développés à l’aide de plusieurs techniques, notamment l’apprentissage non supervisé et l’apprentissage par renforcement à partir de commentaires humains. L’un des principaux défis de cette approche est la nécessité de bases de données centralisées pour les données d’entraînement, ce qui est peu pratique pour les applications nécessitant un apprentissage autonome continu ou lorsque la confidentialité est cruciale.

L'équipe de recherche a utilisé un paradigme d'apprentissage appelé « apprentissage fédéré décentralisé » pour ses recherches sur la blockchain. Ils ont découvert qu'ils pouvaient coordonner avec succès les modèles tout en maintenant la décentralisation des données. La plupart de leurs recherches se sont concentrées sur l'étude de la résilience de l'essaim face à diverses méthodes d'attaque. En raison de la nature décentralisée de la technologie blockchain et du réseau de formation, l'équipe a démontré sa robustesse face aux attaques de piratage traditionnelles.

Les chercheurs ont toutefois identifié un seuil pour le nombre de robots malveillants que l'essaim pouvait gérer. Ils ont développé des scénarios mettant en scène des robots conçus pour nuire au réseau, notamment des agents aux intentions malveillantes, des informations obsolètes et des instructions de perturbation simples. Alors que les agents simples et obsolètes étaient relativement faciles à combattre, des agents intelligents aux intentions malveillantes pourraient éventuellement perturber l'intelligence de l'essaim s'ils étaient suffisamment infiltrés.

Ces recherches restent expérimentales et n’ont été menées qu’au moyen de simulations. Cependant, il se pourrait qu’un jour des essaims de robots puissent être coordonnés de manière décentralisée, ce qui permettrait potentiellement à des agents d’IA de différentes entreprises ou de différents pays de collaborer à la formation d’un agent plus important sans compromettre la confidentialité des données.