Le cofondateur d'Ethereum #VitalikButerin a exprimé de vives inquiétudes concernant les avancées rapides de l'intelligence artificielle, soulignant les risques potentiels posés par les systèmes d'IA superintelligents. À mesure que le développement de l'IA s'accélère, Buterin souligne l'importance de mettre en œuvre des garde-fous robustes pour atténuer la possibilité de résultats catastrophiques. Ses récentes réflexions, partagées dans un post de blog du 5 janvier, soulignent la nécessité de mesures proactives pour contrer les dommages potentiels causés par la technologie IA.
Dans son post, Buterin introduit le concept de « 𝐝𝐞𝐟𝐞𝐧𝐬𝐢𝐯𝐞 𝐚𝐜𝐜𝐞𝐥𝐞𝐫𝐚𝐭𝐢𝐨𝐧 » (d/acc), plaidant pour un développement technologique axé sur la protection plutôt que sur la destruction. Il avertit que la superintelligence—une IA surpassant l'intelligence humaine—pourrait émerger dans les prochaines années, menaçant potentiellement la survie humaine. « Il est de plus en plus probable que nous avons une fenêtre de trois ans avant que l'Intelligence Artificielle Générale (AGI) n'arrive et trois autres années avant que la superintelligence ne suive. Pour éviter des catastrophes irréversibles, nous devons non seulement accélérer les avancées positives, mais aussi freiner le négatif », a écrit Buterin. Sa vision inclut la création de systèmes d'IA décentralisés qui priorisent le contrôle humain, garantissant que l'IA serve l'humanité plutôt que de la mettre en danger.
Buterin souligne également les risques associés aux applications militaires de l'IA, citant des conflits mondiaux récents comme ceux en Ukraine et à Gaza comme des exemples de son utilisation croissante dans la guerre. Il avertit que les exemptions militaires des réglementations sur l'IA pourraient amplifier ces dangers, faisant des militaires des contributeurs clés aux catastrophes potentielles provoquées par l'IA. Pour faire face à de tels risques, Buterin propose une stratégie à plusieurs volets pour réguler l'utilisation de l'IA. Cela inclut de rendre les utilisateurs responsables de la manière dont les systèmes d'IA sont employés, d'implémenter des mécanismes de « 𝐬𝐨𝐟𝐭 𝐩𝐚𝐮𝐬𝐞 » pour ralentir temporairement les avancées, et de contrôler le matériel d'IA par le biais de puces spécialisées. Ces puces nécessiteraient une approbation hebdomadaire de plusieurs organisations internationales, dont au moins une ne serait pas militaire, pour garantir un fonctionnement responsable.
Bien que Buterin reconnaisse que ses mesures proposées ne sont pas sans défauts, il les considère comme des solutions intermédiaires essentielles. En s'attaquant aux deux défis d'accélérer les applications bénéfiques de l'IA tout en restrignant celles nuisibles, Buterin souligne l'urgence d'une collaboration mondiale pour protéger l'avenir de l'humanité à l'ère de l'IA superintelligente.