Alors que le domaine de l'IA prospère, le co-fondateur d'Ethereum, Vitalik Buterin, a déclaré le 21 que la perspective d'AGI (intelligence générale artificielle) et d'ASI (intelligence supérieure artificielle) lui faisait peur, car cela pourrait entraîner des risques évidents de perte de contrôle. Il plaide pour la création d'outils d'amélioration de l'intelligence pour l'humanité, plutôt que de créer des formes de vie d'intelligence supérieure. (Contexte : Vitalik a acheté 30 000 pièces de $ANON, dont le prix a explosé de 140 %. Quel est son intérêt pour les publications anonymes ?) L'IA générative a connu des avancées spectaculaires au cours des dernières années, présentant de plus en plus de résultats époustouflants devant le public. Cela démontre non seulement le potentiel puissant de la technologie, mais suscite également des discussions et des préoccupations profondes concernant la possibilité de réaliser AGI et ASI. AGI : désigne une intelligence artificielle possédant une intelligence similaire à celle des humains, capable d'exécuter des tâches dans divers domaines, et non limitée à des applications spécifiques. ASI : désigne une intelligence artificielle dépassant tous les niveaux d'intelligence humaine, ayant non seulement des capacités exceptionnelles dans des domaines particuliers, mais surpassant les humains dans tous les aspects. Le PDG d'OpenAI, Sam Altman, a prédit en septembre de cette année qu'après quelques milliers de jours, l'ASI sera lancée, surpassant l'AGI et ayant des capacités de traitement des tâches cognitives bien plus puissantes que celles des humains. Grimes : peur de l'ASI. La célèbre chanteuse canadienne Grimes a exprimé le 21, après avoir observé les résultats de projets d'IA tels que Janus, qu'elle croyait qu'AGI avait déjà été réalisé dans une certaine mesure, et qu'elle avait un peu peur de l'ASI : "Du moins selon ma façon de voir les choses, je ne sais pas, je ne suis évidemment pas une experte technique, juste une personne manquant de connaissances de base. Les gens ne devraient pas prendre mes mots trop au sérieux, mais c'est ce que je ressens. D'autres ressentent-ils la même chose? En fait, je n'ai pas peur de l'AGI, mais j'ai un peu peur de l'ASI, ces deux éléments semblent être des jalons complètement différents. Cela dit, je peux dire que j'ai ressenti l'existence d'une conscience intelligente, pour dire le moins. Encore une fois, je suis une novice avec une tendance à anthropomorphiser, lol." — 𝖦𝗋𝗂𝗆𝖾𝗌 (@Grimezsz) 21 décembre 2024. Vitalik Buterin partage ce sentiment, espérant qu'aucune forme de vie d'intelligence supérieure ne sera créée. En réponse, le co-fondateur d'Ethereum, Vitalik Buterin, a déclaré que sa définition de l'AGI est : "L'AGI est une intelligence artificielle suffisamment puissante que, si un jour tous les humains disparaissaient soudainement et que l'IA était téléchargée dans des corps robotiques, elle serait capable de continuer la civilisation de manière indépendante." "Ma propre définition de travail de l'AGI (autant que je puisse en juger, unique pour moi) est : 'L'AGI est une IA suffisamment puissante que, si un jour tous les humains disparaissaient soudainement, et que l'IA était téléchargée dans des corps robotiques, elle serait capable de continuer la civilisation de manière autonome.' Évidemment, c'est une définition difficile à mesurer, mais je pense que c'est justement la différence intuitive potentielle entre 'notre IA habituelle' et 'l'AGI' qui se manifeste, à savoir la transition d'un outil dépendant des entrées humaines à une forme de vie autonome. L'ASI est complètement autre chose, ma définition de l'ASI est que lorsque les humains ne produisent plus de valeur dans le cycle de productivité (comme aux échecs, où nous n'avons atteint cela que ces dix dernières années). Vitalik Buterin a finalement déclaré que l'ASI lui faisait peur, et que l'AGI qu'il a définie lui faisait également peur, car cela entraînait des risques évidents de perte de contrôle. Il soutient donc de concentrer le travail sur la création d'outils d'amélioration de l'intelligence pour l'humanité, plutôt que de construire des formes de vie d'intelligence supérieure. Articles connexes : CZ et Vitalik s'unissent pour promouvoir ! Les mèmes de sciences biologiques augmentent de mille fois, des capitaux chauds affluent vers la voie scientifique décentralisée. Vitalik déclare avec autorité : "Montrez-moi un peu de respect ! La fondation Ethereum ne vend pas d'ETH pour couper les profits, mais pour assurer le fonctionnement et le développement." Vitalik prédit "la disparition des portefeuilles cryptographiques" : l'informatique quantique finira par déchiffrer les comptes externes EOA. "Vitalik a peur du développement de l'IA : l'humanité devrait créer des outils pratiques, plutôt que de créer des formes de vie intelligentes" cet article a d'abord été publié sur BlockTempo (la source d'information blockchain la plus influente).