BlockBeats rapporte, le 21 décembre, que le fondateur d'Ethereum, Vitalik Buterin, a déclaré sur les réseaux sociaux : « Ma définition de l'AGI (intelligence artificielle générale) est :

AGI est une intelligence artificielle suffisamment puissante ; si un jour tous les humains disparaissaient soudainement et que cette IA était téléchargée dans un corps robotique, elle serait capable de perpétuer la civilisation de manière autonome.

Évidemment, c'est une définition très difficile à mesurer, mais je pense que c'est justement le cœur de la distinction intuitive entre « l'IA que nous connaissons » et « l'AGI » dans l'esprit de beaucoup de gens. Cela marque la transition d'un outil qui dépend constamment de l'entrée humaine à une forme de vie autonome.

ASI (super intelligence artificielle) est complètement autre chose - ma définition est que lorsque les humains n'apportent plus de valeur à la productivité dans le cycle (comme dans les jeux de société, nous n'avons en fait atteint ce point que ces dix dernières années).

Oui, l'ASI me fait peur - même ce que je définis comme AGI me fait peur, car cela entraîne un risque évident de perte de contrôle. Je soutiens que nous devrions concentrer notre travail sur la construction d'outils d'amélioration de l'intelligence pour les humains, plutôt que de créer des formes de vie super intelligentes.