PANews 21 décembre 12 : nouvelles, le fondateur d'Ethereum, Vitalik Buterin, a déclaré sur la plateforme X : « Ma définition de l'AGI (intelligence artificielle générale) est la suivante : l'AGI est une intelligence artificielle suffisamment puissante pour que, si un jour tous les êtres humains disparaissaient soudainement et que cette IA était téléchargée dans un corps robotique, elle serait capable de poursuivre la civilisation de manière autonome. Évidemment, c'est une définition très difficile à quantifier, mais je pense que c'est justement le cœur de la distinction intuitive entre « l'IA que nous connaissons » et « l'AGI » pour de nombreuses personnes. Cela marque la transition d'un outil qui dépend constamment de l'input humain à une forme de vie autonome. L'ASI (super intelligence artificielle) est complètement autre chose - ma définition est que lorsque l'humanité ne génère plus de valeur pour la productivité dans le cycle (comme dans les jeux de société, nous n'avons atteint ce point que dans la dernière décennie). Oui, l'ASI me fait peur - même l'AGI que je définis me fait peur, car elle comporte des risques manifestes de perte de contrôle. Je soutiens de concentrer notre travail sur la construction d'outils d'intelligence augmentée pour l'humanité, plutôt que de créer des formes de vie super intelligentes. »