【Vitalik : J'ai peur de l'AGI et de l'ASI, et je soutiens la construction d'outils d'amélioration intelligents pour l'humanité plutôt que des formes de vie superintelligentes】21 décembre, nouvelles. Concernant OpenAI et les récents développements des produits liés à l'AGI dans le domaine de l'IA, le fondateur d'Ethereum, Vitalik Buterin, a déclaré sur la plateforme X : « Ma définition de l'AGI (intelligence artificielle générale) est la suivante : l'AGI est une intelligence artificielle suffisamment puissante, si un jour tous les humains disparaissent soudainement, et que cette IA est téléchargée dans un corps robotique, elle sera capable de maintenir la civilisation de manière autonome. Évidemment, c'est une définition très difficile à mesurer, mais je pense que c'est précisément le cœur de la distinction intuitive entre 'l'IA que nous connaissons' et 'l'AGI' dans l'esprit de beaucoup de gens. Cela marque la transition d'un outil qui dépend constamment des entrées humaines à une forme de vie autonome. L'ASI (superintelligence artificielle) est une toute autre affaire - ma définition est que lorsque l'humanité ne génère plus de valeur dans le cycle de productivité (comme dans les jeux de société, nous n'avons en fait atteint ce point que ces dix dernières années). Oui, l'ASI me fait peur - même l'AGI tel que je le définis me fait peur, car elle entraîne des risques de perte de contrôle évidents. Je soutiens que notre travail se concentre sur la construction d'outils d'amélioration intelligents pour l'humanité, plutôt que sur la création de formes de vie superintelligentes.”