El jefe de IA de Meta, Yann LeCun, ha dicho que es pronto para empezar a preocuparse por los sistemas de IA inteligentes a nivel humano, comúnmente conocidos como AGI. 

Lea también: Una mirada más cercana a la especulación sobre AGI

"En este momento, ni siquiera tenemos una pista del diseño de un sistema inteligente a nivel humano", publicó LeCun en X Monday. “Así que es demasiado pronto para preocuparse por eso. Y es demasiado pronto para regularlo para prevenir el 'riesgo existencial'”.

La IA no puede simplemente volverse peligrosa, dice LeCun

Muchos expertos creen que faltan décadas o incluso siglos para que la AGI se convierta en una realidad. Sin embargo, ha sido motivo de preocupación entre los gobiernos, ya que los expertos advierten que tales modelos podrían amenazar la existencia de la humanidad. 

Lea también: Google, OpenAI y otros 13 se comprometen a no implementar modelos de IA riesgosos

LeCun cree que los sistemas de IA no son "una especie de fenómeno natural que simplemente surgirá y se volverá peligroso". Dijo que los humanos tenemos el poder de hacer que la IA sea segura porque somos nosotros quienes la creamos. 

La IA no es una especie de fenómeno natural que simplemente emergerá y se volverá peligroso. *NOSOTROS* la diseñamos y *NOSOTROS* la construimos. Puedo imaginar miles de escenarios en los que un turborreactor sale terriblemente mal. Sin embargo, antes logramos hacer turborreactores increíblemente confiables. implementándolos ampliamente...

– Yann LeCun (@ylectun) 27 de mayo de 2024

“Puedo imaginar miles de escenarios en los que un turborreactor falla terriblemente. Sin embargo, logramos hacer que los turborreactores fueran increíblemente confiables antes de implementarlos ampliamente”, agregó LeCun. "La pregunta es similar para la IA".

El jefe de IA de Meta dice que los LLM no pueden lograr la inteligencia humana

La semana pasada, LeCun también opinó que los grandes modelos de lenguaje, que impulsan los populares chatbots de IA como ChatGPT, Gemini, etc., no pueden alcanzar la inteligencia humana. 

Lea también: ChatGPT-4o de OpenAI puede mostrar sentimientos y emociones

En una entrevista con Forbes, LeCun dijo que los LLM tienen una “comprensión limitada de la lógica”, dado que deben ser capacitados y solo pueden desempeñarse tan bien como los datos que reciben. Señaló además que los LLM son “intrínsecamente inseguros” y que los investigadores que busquen construir sistemas de inteligencia artificial a nivel humano deberían considerar otros tipos de modelos.

OpenAI y Meta confirman su interés en crear AGI

OpenAI, el fabricante de ChatGPT, planea crear modelos tan potentes. En mayo, el cofundador Sam Altman dijo que fabricarían AGI sin importar lo que cueste.

“Ya sea que quememos 500 millones de dólares al año o 5 mil millones de dólares –o 50 mil millones de dólares al año– no me importa, realmente no me importa. Mientras podamos encontrar una manera de pagar las cuentas, estaremos ganando AGI. Va a ser caro”.

Sam Altman

Meta también ha comenzado a esforzarse por lograr una inteligencia a nivel humano. En enero, Mark Zuckerberg admitió que la “visión a largo plazo de Meta es construir inteligencia general, abrirla de manera responsable y hacerla ampliamente disponible para que todos puedan beneficiarse”.

 Informe criptopolitano de Ibiam Wayas