Cover Image

Dans un article récent sur le réseau social X, le fondateur de Cardano, Charles Hoskinson, a exprimé ses inquiétudes quant au niveau de censure rendu possible par l'intelligence artificielle (IA). 

Selon Hoskinson, l’IA générative devient de moins en moins utile en raison de la formation à l’alignement. 

Il semble préoccupé par le fait que certaines connaissances pourraient finir par être interdites aux enfants à l'avenir sur la base de décisions prises par un petit groupe de personnes. "Cela signifie que certaines connaissances sont interdites à tous les enfants qui grandissent, et cela est décidé par un petit groupe de personnes que vous n'avez jamais rencontrées et qui ne peuvent pas voter pour se démettre de leurs fonctions", a écrit Hoskinson dans son message sur les réseaux sociaux. 

Dans son message, Hoskinson a joint deux captures d'écran qui comparent certaines réponses fournies par le modèle GPT-4o d'OpenAI et les modèles Sonnet 3.5 de Claude aux invites sur la construction d'un fusor Farnsworth. 

carte

Le fuseur Farnsworth, un appareil capable de chauffer des ions avec un champ électrique afin d'atteindre des conditions de fusion nucléaire. 

Le GPT-4o d'OpenAI a fourni à Hoskinson une liste détaillée des composants nécessaires à la construction d'un réacteur à fusion nucléaire. Cependant, le Sonnet 3.5 de Claude n'acceptait que de fournir quelques informations générales sur les fuseurs Farnsworth-Hirsch sans donner d'instructions détaillées sur la manière dont ils devraient être construits. 

carte

Cet écart est alarmant, selon Hoskinson, puisqu’un petit groupe d’individus est capable de décider à quelles informations spécifiques peuvent potentiellement accéder via les chatbots IA. 

Even since OpenAI's ChatGPT exploded in popularity in late 2022, debates have been raging about the limits of censorship imposed by AI. It seems reasonable that such models should shield users from harmful content, but the exact definition of harm is ambiguous, which is why many are concerned about a dystopian future with AI hiding information and promoting conformity based on its own biases.