En el contexto del rápido desarrollo de la inteligencia artificial (IA), la investigación de Google DeepMind sugiere factores importantes para lograr la superinteligencia artificial (ASI).

En los últimos años, los modelos de plataforma han logrado grandes avances y se utilizan ampliamente en muchas aplicaciones. Sin embargo, la creación de sistemas pioneros de inteligencia artificial (IA), capaces de mejorarse y generar continuamente nueva información, sigue siendo un gran desafío. El informe de Edward Hughes y sus coautores muestra cómo la naturaleza abierta afecta el desarrollo de ASI y cómo lograr esa naturaleza en los sistemas de IA actuales.

La definición formal de apertura se da en base a dos aspectos principales: la novedad y la capacidad de aprender. Un sistema se considera abierto si genera continuamente nuevos datos que tienen valor de aprendizaje para mejorar la comprensión y las habilidades del observador.

El artículo proporciona muchos ejemplos específicos de sistemas de IA actuales para ilustrar este concepto. AlphaGo es un ejemplo típico de un sistema estrechamente abierto. AlphaGo ha superado el nivel de los mejores jugadores de Go del mundo al desarrollar estrategias nuevas e impredecibles. Sin embargo, la naturaleza abierta de AlphaGo se limita al juego Go.

Otro ejemplo es el sistema AdA, un agente de aprendizaje en el entorno 3D XLand2 con 25 mil millones de variaciones de tareas. AdA es capaz de acumular habilidades complejas y diversas, pero su novedad tiende a desvanecerse después de un período de formación. Esto sugiere que para mantener la apertura se necesita un entorno más rico y actores más fuertes.

El artículo también analiza sistemas evolutivos como POET (Pionero abierto emparejado), donde los agentes y el entorno coevolucionan. POET ilustra el fenómeno del “trampolín”, donde los agentes pueden abordar entornos muy desafiantes a través de una evolución gradual. Sin embargo, estos sistemas también enfrentan limitaciones cuando el entorno no es lo suficientemente complejo como para mantener la apertura.

Además, el artículo también afirma que los modelos de plataforma actuales no cumplen con los criterios de apertura cuando solo se entrenan en conjuntos de datos fijos. Estos modelos pueden parecer abiertos en ámbitos amplios, pero cuando su alcance se reduce, revelan limitaciones en su capacidad para generar soluciones nuevas y precisas.

Los autores proponen cuatro direcciones principales de investigación para combinar la apertura con los modelos de plataforma: aprendizaje por refuerzo (RL), superación personal, generación de tareas y algoritmos evolutivos. El aprendizaje por refuerzo ha logrado mucho éxito en dominios limitados, y modelos como Voyager han demostrado el potencial de superación personal mediante la creación de una biblioteca de habilidades a partir de tareas en mejora continua. Los algoritmos evolutivos también proporcionan un camino prometedor para la creación de sistemas abiertos, con la capacidad de implementar mutaciones significativas a través del texto.

Una parte importante del artículo es una discusión sobre cuestiones de seguridad y responsabilidad al desarrollar sistemas abiertos. La apertura conlleva muchos riesgos de seguridad, incluida la mala interpretación de los objetivos y el abuso de las especificaciones. Es importante garantizar que los sistemas abiertos puedan interpretarse y controlarse en manos humanas. Esto requiere que los sistemas sean capaces de explicar e interactuar con los humanos de una manera clara y comprensible.

En el informe, los autores afirman que los modelos de plataformas actuales han logrado avances significativos, pero para avanzar hacia ASI es necesario desarrollar sistemas abiertos. Estos sistemas pueden aportar enormes beneficios a la sociedad, incluida la aceleración de los avances científicos y tecnológicos, la mejora de la creatividad humana y la ampliación del conocimiento general en muchos campos.

El artículo de Google DeepMind abrió una nueva dirección en la investigación de la IA, enfatizando la importancia de la apertura para lograr la superinteligencia artificial. Desarrollar estos sistemas de manera responsable ayudará a garantizar que brinden los máximos beneficios a la sociedad y al mismo tiempo minimicen los riesgos potenciales.