CoinVoice a récemment appris que, concernant OpenAI et les récents développements des produits AGI dans le domaine de l'IA, le fondateur d'Ethereum, Vitalik Buterin, a déclaré sur la plateforme X : 'Ma définition de l'AGI (intelligence artificielle générale) est : l'AGI est une intelligence artificielle suffisamment puissante que, si un jour tous les humains disparaissent soudainement et que cette IA est téléchargée dans un corps robotique, elle sera capable de maintenir la civilisation de manière autonome.'

Il est clair que c'est une définition très difficile à mesurer, mais je pense que c'est précisément le cœur de la distinction intuitive entre l'IA 'à laquelle nous sommes habitués' et 'l'AGI' dans l'esprit de beaucoup de gens. Cela marque la transition d'un outil qui dépend constamment de l'entrée humaine à une forme de vie autonome. L'ASI (super intelligence artificielle) est quelque chose de complètement différent - ma définition est que lorsque l'humanité ne génère plus de valeur pour la productivité dans le cycle (comme dans les jeux de société, nous n'avons en fait atteint ce point que ces dix dernières années).

Oui, l'ASI me fait peur - même l'AGI telle que je la définis me fait peur, car elle entraîne un risque évident de perte de contrôle. Je soutiens que notre travail devrait se concentrer sur la construction d'outils d'intelligence augmentée pour l'humanité, et non sur la création de formes de vie super intelligentes.