Le cofondateur d'Ethereum, Vitalik Buterin, a partagé sur Twitter ses perspectives uniques sur l'AGI (intelligence artificielle générale) et l'ASI (intelligence artificielle super intelligente), en soulignant qu'il faut se concentrer sur les outils d'IA plutôt que de poursuivre le développement d'entités de super intelligence qui remplaceraient les humains. Il est assez inquiet de l'évolution excessive de l'AGI et de l'ASI.

L'AGI est une intelligence artificielle capable de maintenir indépendamment une civilisation.

Vitalik définit l'AGI comme une IA assez puissante. Il indique que si tous les humains disparaissaient soudainement et que cette IA était installée dans un robot, elle pourrait fonctionner de manière autonome et maintenir le développement de toute une civilisation. Il ajoute que ce concept évoluera de la « fonctionnalité » de l'IA traditionnelle à une forme de « vie auto-entretenue ».

Vitalik souligne que la technologie actuelle ne peut pas simuler une telle situation, nous ne pouvons pas vraiment tester si l'IA peut maintenir une civilisation sans l'intervention humaine, et il est encore plus difficile de définir les critères de « développement de la civilisation », quelles conditions représentent une civilisation en fonctionnement, et ces questions sont déjà très complexes, mais cela pourrait être la principale source de distinction entre l'AGI et l'IA ordinaire.

(Note : Les formes de vie auto-entretenues, c'est-à-dire capables d'acquérir et d'utiliser des ressources pour maintenir des activités vitales, de s'adapter aux changements environnementaux, et de survivre dans certaines conditions.)

Mettre en avant l'importance des outils d'assistance intellectuelle, et non permettre à l'IA de remplacer l'humain.

Vitalik définit l'intelligence artificielle super intelligente (ASI) comme étant lorsque les progrès de l'IA surpassent la valeur que l'intervention humaine peut apporter et atteignent un stade totalement autonome et plus efficace. Il cite l'exemple des échecs qui n'ont vraiment atteint ce stade que ces dix dernières années, le niveau de l'IA ayant déjà surpassé la meilleure performance réalisée en coopération avec les humains, et il admet que l'ASI lui fait peur, car cela signifie que l'humanité pourrait vraiment perdre le contrôle sur l'IA.

Vitalik déclare que plutôt que de développer des entités de super intelligence, il vaut mieux se concentrer sur le développement d'outils capables d'améliorer l'intelligence et les capacités humaines. Il estime que l'IA devrait assister les humains, et non les remplacer. Il pense que cette trajectoire de développement peut réduire le risque que l'IA échappe à tout contrôle, tout en améliorant l'efficacité et la stabilité de l'ensemble de la société.

(La menace de chômage due à l'IA générative : les travailleurs d'Amazon seront-ils complètement remplacés par une flotte de machines ?)

Cet article où Vitalik exprime sa peur face à l'AGI et à l'ASI : l'humanité doit prioriser le développement d'outils d'amélioration intellectuelle, plutôt que de laisser l'IA remplacer les humains est apparu pour la première fois dans Chain News ABMedia.