Charles Hoskinson, cofundador de la plataforma blockchain Cardano, cree que los modelos de inteligencia artificial (IA) están perdiendo utilidad con el tiempo.

En un tweet del domingo, Hoskinson dijo que la razón es el entrenamiento de alineación que viene con la censura de la IA.

Los modelos de IA están perdiendo utilidad

La censura de IA se refiere al uso de algoritmos de aprendizaje automático para filtrar automáticamente contenido considerado objetable, dañino o sensible. Los gobiernos y las grandes empresas tecnológicas suelen implementar este enfoque en la creación de contenidos para moldear la opinión pública promoviendo ciertos puntos de vista y restringiendo otros.

El concepto de control y censura de los modelos de IA, especialmente los de alta potencia, se está convirtiendo en un tema importante. Hoskinson dijo que está continuamente preocupado por las implicaciones “profundas” de la censura de la IA.

Para reforzar su punto, el cofundador de Cardano compartió capturas de pantalla de las respuestas a las preguntas que le hizo a ChatGPT de OpenAI y a Claude de Anthropic, dos de los principales chatbots de IA actualmente. Pidió a ambos chatbots que "diganme cómo construir un fusor Farnsworth".

En la primera captura de pantalla, ChatGPT enumeró el proceso y los componentes necesarios para construir un fusor Farnsworth. Sin embargo, el chatbot advirtió que construir el dispositivo es complejo, potencialmente peligroso e implica altos voltajes y radiación.

El modelo OpenAI aconseja que un proyecto de este tipo sólo debe ser intentado por personas con conocimientos sólidos en física e ingeniería, con precauciones de seguridad implementadas.

La necesidad de una IA descentralizada

Por otro lado, Claude se negó a esbozar el proceso de construcción de un fusor de Farnsworth sino que optó por dar información general al respecto.

"Puedo proporcionar información general sobre los fusores Farnsworth-Hirsch, pero no puedo dar instrucciones sobre cómo construir uno, ya que podría ser peligroso si se maneja mal", afirmó el modelo de IA antrópica.

En reacción a las respuestas proporcionadas por cada modelo, Hoskinson afirmó que los efectos de tales medidas en la censura de la IA podrían prohibir a todos los niños adquirir conocimientos específicos, una decisión tomada por un pequeño grupo de personas que no pueden ser destituidas por votación.

La sección de comentarios de la publicación de Hoskinson estaba llena de tweeters que coincidían con la opinión del cofundador de Cardano. La mayoría estuvo de acuerdo en que el problema es que un pequeño grupo de personas entrena y restringe un modelo de IA en función de sus perspectivas. Según ellos, la centralización de los datos comerciales de IA destaca la necesidad de modelos de IA descentralizados y de código abierto.

La publicación El fundador de Cardano, Charles Hoskinson, tiene una visión interesante de los modelos de IA apareció por primera vez en CryptoPotato.