ChainCatcher message, concernant les récents développements des produits AGI dans le domaine d'OpenAI et de l'IA, le fondateur d'Ethereum, Vitalik Buterin, a déclaré sur la plateforme X : « Ma définition de l'AGI (intelligence artificielle générale) est : l'AGI est une intelligence artificielle suffisamment puissante, si un jour tous les humains disparaissaient soudainement, et que cette IA était téléchargée dans un corps de robot, elle serait capable de prolonger la civilisation de manière autonome. »

De toute évidence, c'est une définition très difficile à mesurer, mais je pense que c'est justement le cœur de la distinction intuitive entre 'l'IA que nous connaissons' et 'l'AGI' dans l'esprit de beaucoup de gens. Cela marque une transition d'un outil qui dépend constamment de l'entrée humaine à une forme de vie autonome. L'ASI (superintelligence artificielle) est une toute autre affaire - ma définition est que lorsque l'humanité ne génère plus de valeur pour la productivité dans le cycle (comme dans les jeux de société, nous n'avons atteint ce point que dans la dernière décennie).

Oui, l'ASI (intelligence artificielle superintelligente) me fait peur - même l'AGI tel que je le définis me fait peur, car cela représente un risque évident de perte de contrôle. Je soutiens que notre travail devrait se concentrer sur la création d'outils d'amélioration de l'intelligence pour l'humanité, plutôt que de construire des formes de vie superintelligentes. »