Cover Image

En una publicación reciente en la red social X, el fundador de Cardano, Charles Hoskinson, expresó su preocupación por el enorme nivel de censura que permite la inteligencia artificial (IA). 

Según Hoskinson, la IA generativa se está volviendo menos útil debido al entrenamiento de alineación. 

Aparentemente le preocupa el hecho de que algunos conocimientos puedan terminar siendo prohibidos a los niños en el futuro debido a las decisiones tomadas por un pequeño grupo de personas. "Esto significa que ciertos conocimientos están prohibidos para todos los niños que crecen, y eso lo decide un pequeño grupo de personas que nunca has conocido y que no pueden votar para destituir el cargo", escribió Hoskinson en su publicación en las redes sociales. 

En su publicación, Hoskinson adjuntó dos capturas de pantalla que comparan algunas respuestas proporcionadas por el modelo GPT-4o de OpenAI y los modelos Sonnet 3.5 de Claude con indicaciones sobre la construcción de un fusor Farnsworth. 

tarjeta

El fusor de Farnsworth, un dispositivo que es capaz de calentar iones con un campo eléctrico para conseguir las condiciones de fusión nuclear. 

El GPT-4o de OpenAI proporcionó a Hoskinson una lista detallada de los componentes necesarios para construir un reactor de fusión nuclear. Sin embargo, el Soneto 3.5 de Claude solo acordó proporcionar información general sobre los fusores Farnsworth-Hirsch sin dar instrucciones detalladas sobre cómo deberían construirse. 

tarjeta

Esta discrepancia es alarmante, según Hoskinson, ya que un pequeño grupo de personas es capaz de decidir a qué información específica se puede acceder potencialmente a través de chatbots de IA. 

Incluso desde que ChatGPT de OpenAI explotó en popularidad a finales de 2022, se han avivado los debates sobre los límites de la censura impuesta por la IA. Parece razonable que tales modelos protejan a los usuarios del contenido dañino, pero la definición exacta de daño es ambigua, razón por la cual muchos están preocupados por un futuro distópico en el que la IA oculte información y promueva la conformidad basada en sus propios prejuicios.