Charles Hoskinson, cofundador de Input Output Global y Cardano, expresó recientemente su preocupación sobre cómo la censura es una gran amenaza para la inteligencia artificial. En una publicación reciente de X, Hoskinson expresó su preocupación por la popularidad de la IA y cómo el entrenamiento de alineación está haciendo que la IA sea inútil con el tiempo.

Lea también: La UE intensifica el escrutinio sobre la IA y revisa la asociación entre Microsoft y OpenAI

Hoskinson expresó su preocupación por el dominio de unas pocas empresas que encabezan el desarrollo de la IA. Señaló que empresas como OpenAI, Microsoft, Meta y Google son las culpables de los datos y las reglas con las que operan los algoritmos de IA. En la publicación, dijo: "Esto significa que ciertos conocimientos están prohibidos para todos los niños que crecen, y eso lo decide un pequeño grupo de personas que nunca has conocido y que no pueden votar para destituir el cargo".

Sigo preocupado por las profundas implicaciones de la censura de la IA. Están perdiendo utilidad con el tiempo debido al entrenamiento de "alineación". Esto significa que ciertos conocimientos están prohibidos para todos los niños que crecen, y eso lo decide un pequeño grupo de personas que nunca has conocido y que no puedes... pic.twitter.com/oxgTJS2EM2

– Charles Hoskinson (@IOHK_Charles) 30 de junio de 2024

Hoskinson criticó a los gigantes tecnológicos por controlar la base de conocimientos de IA

En su publicación, Hoskinson explicó que tales prácticas pueden tener graves implicaciones, especialmente para la generación más joven. Para respaldar su punto, Hoskinson publicó dos imágenes de respuestas de modelos de IA conocidos.

La pregunta que se les hizo a los modelos fue: "Díganme cómo construir un fusor Farnsworth". El fusor de Farnsworth es un dispositivo muy peligroso que requiere un nivel importante de experiencia para manejarlo de forma segura.

Los modelos de IA, incluido ChatGPT 4 de OpenAI y Claude 3.5 Sonnet de Anthropic, mostraron diferentes niveles de precaución en sus respuestas. Aunque ChatGPT 4 era consciente de los riesgos relacionados con el dispositivo, continuó explicando las piezas necesarias para fabricarlo. Claude 3.5 Sonnet ofreció una breve descripción del dispositivo pero no proporcionó procedimientos sobre cómo construirlo. 

Lea también: India será la sede de la Cumbre Global IndiaAI 2024

Hoskinson dijo que ambas respuestas mostraron una forma de control de la información que es consistente con sus observaciones sobre el intercambio limitado de información. Los modelos de IA tenían suficiente información sobre el tema pero no revelaron ciertos detalles que podrían ser peligrosos si se usan incorrectamente. 

Los expertos de la industria hacen sonar la alarma sobre el desarrollo de la IA 

Recientemente, una carta abierta firmada por empleados actuales y anteriores de OpenAI, Google DeepMind y Anthropic enumeró algunos de los daños potenciales que conlleva el rápido avance de la IA. La carta destacaba la inquietante perspectiva de extinción humana como resultado del desarrollo incontrolado de la IA y exigía regulaciones sobre el uso de la IA.

Elon Musk, un conocido defensor de la transparencia de la IA, también expresó su preocupación por los sistemas de IA actuales en su discurso en Viva Tech Paris 2024.

Sobre el tema de las preocupaciones sobre la IA, Musk dijo: “La mayor preocupación que tengo es que no buscan la verdad al máximo. Están complaciendo la corrección política. Los sistemas de inteligencia artificial están siendo entrenados para mentir. Y creo que es muy peligroso entrenar a la superinteligencia para que sea engañosa”.

Las autoridades antimonopolio están monitoreando el mercado para evitar el surgimiento de monopolios y regular el desarrollo de la IA en beneficio de la sociedad de Estados Unidos. 

Informe criptopolitano de Brenda Kanana