Le 21 décembre, des nouvelles indiquent qu'en ce qui concerne OpenAI et les récents développements de produits liés à l'AGI dans le domaine de l'IA, le fondateur d'Ethereum, Vitalik Buterin, a déclaré sur la plateforme X : « Ma définition de l'AGI (intelligence artificielle générale) est : l'AGI est une intelligence artificielle suffisamment puissante, si un jour tous les humains disparaissaient soudainement et que cette IA était téléchargée dans un corps robotique, elle serait capable de maintenir indépendamment la civilisation. Évidemment, c'est une définition très difficile à quantifier, mais je pense que c'est exactement le cœur de la distinction intuitive entre 'l'IA que nous connaissons' et 'l'AGI' dans l'esprit de beaucoup de gens. Cela marque une transition d'un outil qui dépend constamment des contributions humaines à une forme de vie autonome. L'ASI (super intelligence artificielle) est complètement autre chose - ma définition est que lorsque les humains ne génèrent plus de valeur dans le cycle de production (comme dans les jeux de société, nous n'avons en fait atteint ce point que dans la dernière décennie). Oui, l'ASI me fait peur - même l'AGI que je définis me fait peur, car elle présente des risques évidents de perte de contrôle. Je soutiens que notre travail devrait se concentrer sur la construction d'outils d'augmentation intelligente pour l'humanité, plutôt que de construire des formes de vie super intelligentes. »