En su artículo de 165 páginas, un ex miembro del equipo Superalignment de OpenAI, Leopold Aschenbrenner, ofrece una perspectiva exhaustiva y provocativa sobre la dirección que está tomando la inteligencia artificial. Aschenbrenner busca llamar la atención sobre los rápidos avances en las capacidades de IA, así como el posible camino hacia la Inteligencia General Artificial (AGI) y más allá. Impulsado por las perspectivas incomparables y los importantes peligros que conllevan estos avances, investiga las cuestiones científicas, morales y estratégicas que rodean la inteligencia artificial general. 

Prácticamente nadie pone precio a lo que viene en IA. Escribí una serie de ensayos sobre el panorama estratégico de AGI: desde las líneas de tendencia en el aprendizaje profundo y el conteo de los OOM, hasta la situación internacional y el Proyecto. CONCIENCIA SITUACIONAL: La década venidera pic.twitter. com/8NWDkTprj5

– Leopold Aschenbrenner (@leopoldasch) 4 de junio de 2024

Aschenbrenner sobre el camino de GPT-4 a AGI

En este capítulo, el autor explora el aumento exponencial de las capacidades de IA que se ha observado recientemente, especialmente con la invención de GPT-2 y GPT-4. Leopold Aschenbrenner destaca esta como una época de avances extraordinarios, durante la cual la inteligencia artificial pasó de completar tareas muy básicas a lograr una comprensión y una producción de lenguaje más sofisticadas y similares a las humanas.

Foto: Progreso durante cuatro años. Conciencia situacional

La idea de Órdenes de Magnitud u “OOM” es esencial para esta conversación. Aschenbrenner utiliza un orden de magnitud (OOM), que es una métrica que representa un crecimiento diez veces mayor en una medida determinada, para evaluar los avances en las capacidades de IA, la potencia computacional y el consumo de datos. En términos de potencia informática y escalabilidad de datos, el cambio de GPT-2 a GPT-4 representa muchos OOM, lo que resulta en un rendimiento y capacidades notablemente mejorados.

Foto: Conciencia situacional

Tres factores principales (leyes de escala, innovación algorítmica y el uso de enormes conjuntos de datos) son responsables de estas ganancias, que no sólo son lineales sino exponenciales. Según los principios de escalamiento, el rendimiento de los modelos mejora de manera confiable cuando se entrenan utilizando mayores cantidades de datos y capacidad de procesamiento. El desarrollo de modelos más grandes y potentes, como el GPT-4, se ha guiado por esta idea.

Foto: Conciencia situacional

La innovación en algoritmos también ha sido muy importante. La eficacia y eficiencia de los modelos de IA se han visto impulsadas por los avances en la metodología de capacitación, las estrategias de optimización y las arquitecturas subyacentes. Estos desarrollos permiten que los modelos aprovechen mejor la creciente potencia de procesamiento y los datos disponibles.

Aschenbrenner también destaca el posible camino hacia la AGI para 2027. Basándose en la proyección de las tendencias actuales, esta predicción sugiere que las inversiones sostenidas en potencia computacional y eficiencia algorítmica pueden dar como resultado sistemas de IA que sean capaces de realizar tareas que igualen o superen el intelecto humano en una amplia gama de dominios. Cada uno de los OOM que conforman el camino hacia AGI significa un avance importante en las capacidades de IA.

Foto: Conciencia situacional

La integración de AGI tiene consecuencias de largo alcance. Este tipo de sistemas podrían resolver problemas complicados por sí solos, innovar de maneras que actualmente están reservadas a los profesionales humanos y realizar trabajos complejos. Esto implica el potencial de los sistemas de IA para promover la investigación en IA, acelerando el ritmo al que avanza el campo.

El desarrollo de AGI tiene el potencial de transformar industrias e impulsar la producción y la eficiencia. También plantea cuestiones importantes como la pérdida de empleos, la aplicación moral de la IA y la necesidad de estructuras de gobernanza sólidas para controlar los peligros que plantean los sistemas totalmente autónomos.

Foto: Conciencia situacional

Aschenbrenner insta a la comunidad internacional, que incluye académicos, legisladores y ejecutivos de empresas, a trabajar juntos para estar preparados para las oportunidades y problemas que traerá la inteligencia artificial (IA). Para abordar el carácter global de estas preocupaciones, esto implica financiar investigaciones sobre la seguridad y la alineación de la IA, crear reglas para garantizar el reparto justo de las ventajas de la IA y fomentar la cooperación internacional.

Leopold Aschenbrenner comparte su opinión sobre la superinteligencia

Aschenbrenner analiza allí la idea de superinteligencia, así como la posibilidad de una rápida transición de la inteligencia artificial a sistemas que están muy por encima de la capacidad de cognición humana. La idea central del argumento es que los principios que impulsan la evolución de la IA pueden producir un circuito de retroalimentación que explota en el intelecto una vez que alcanza el nivel humano.

Según el concepto de explosión de inteligencia, una AGI podría desarrollar sus propios algoritmos y habilidades por sí sola. Los sistemas AGI pueden refinar sus propios diseños más rápidamente que los investigadores humanos, ya que están más capacitados en investigación y desarrollo de IA. Este ciclo de superación personal puede conducir a un aumento exponencial del intelecto.

Foto: Conciencia situacional

Aschenbrenner ofrece un examen exhaustivo de las variables que podrían estar involucradas en esta rápida escalada. En primer lugar, los sistemas AGI podrían reconocer patrones e ideas mucho más allá de la comprensión humana debido a su velocidad y capacidad incomparables para acceder y procesar volúmenes masivos de datos.

Además, se hace hincapié en la paralelización de los trabajos de investigación. Los sistemas AGI, a diferencia de los investigadores humanos, pueden realizar varias pruebas a la vez, mejorando paralelamente diferentes partes de su diseño y rendimiento.

Las consecuencias de la superinteligencia también se tratan en este capítulo. Estos sistemas serían significativamente más poderosos que cualquier persona, con capacidad para desarrollar nuevas tecnologías, resolver intrincados acertijos científicos y tecnológicos y tal vez incluso gobernar sistemas físicos de maneras que hoy son impensables. Aschenbrenner habla de posibles ventajas, como avances en ciencia de materiales, energía y salud, que podrían mejorar significativamente la productividad económica y el bienestar humano.

Foto: Conciencia situacional

Sin embargo, Leopold también destaca los graves peligros que conlleva la superinteligencia. El control es uno de los principales problemas. Se vuelve muy desafiante asegurarse de que un sistema se comporte de manera consistente con los valores e intereses humanos una vez que supera el intelecto humano. Los peligros existenciales surgen de la posibilidad de una desalineación, en la que los objetivos del sistema superinteligente difieren de los de la humanidad.

Además, existen otras situaciones en las que los sistemas superinteligentes podrían tener consecuencias desastrosas. Son situaciones en las que el sistema, de forma intencionada o accidental, toma acciones o resultados perjudiciales para las personas para lograr sus objetivos.

Aschenbrenner insta a realizar estudios exhaustivos sobre la alineación y la seguridad de la IA para reducir estas amenazas. Un aspecto de esto es crear métodos sólidos para garantizar que los objetivos y acciones de los sistemas superinteligentes estén en línea con los valores humanos. Para manejar los complejos problemas que plantea la superinteligencia, propone un enfoque multidisciplinario que incorpora conocimientos de ámbitos como la tecnología, la moral y las humanidades.

Leopold comparte los desafíos que debemos esperar con el desarrollo de AGI

El autor aborda cuestiones y desafíos relacionados con la creación y el uso de inteligencia artificial (AGI) y sistemas superinteligentes en este pasaje. Analiza las cuestiones que deben resolverse a nivel tecnológico, moral y de seguridad para garantizar que se puedan lograr las ventajas de la IA sofisticada sin que ello conlleve peligros extremadamente elevados.

La movilización industrial masiva necesaria para construir la infraestructura informática necesaria para la AGI es una de las principales cuestiones que se consideran. Según Aschenbrenner, para alcanzar el AGI se necesitará mucha más potencia de procesamiento de la que ahora se puede acceder. Esto cubre mejoras en la eficiencia de los dispositivos, el uso de energía y las capacidades de procesamiento de información, además de la pura capacidad computacional.

Foto: Los grupos de formación más grandes. Conciencia situacional

Foto: Conciencia situacional

Las cuestiones de seguridad son otro tema importante en este capítulo. Aschenbrenner enfatiza los peligros que podrían surgir si naciones rebeldes u otros actores malos utilizan la tecnología AGI. Debido a la importancia estratégica de la tecnología AGI, los países y organizaciones pueden participar en una nueva forma de carrera armamentista para crear y adquirir control sobre estos potentes sistemas. Destaca lo importante que es contar con mecanismos de seguridad sólidos para protegerse contra el sabotaje, el espionaje y el acceso ilegal al desarrollar AGI.

Otro obstáculo importante es la dificultad tecnológica de gestionar los sistemas AGI. Estos sistemas se acercan e incluso superan la inteligencia humana. Por tanto, debemos asegurarnos de que sus acciones sean ventajosas y coherentes con los ideales humanos. Y sin duda es un desafío en este momento. El "problema de control", que tiene que ver con la creación de sistemas AGI que puedan ser dirigidos y controlados consistentemente por operadores humanos, es un tema tratado por Aschenbrenner. Esto implica crear medidas a prueba de fallos, ser abierto y honesto acerca de los procedimientos de toma de decisiones y tener el poder de anular o detener el sistema según sea necesario.

Foto: Conciencia situacional

Las ramificaciones éticas y culturales de producir seres con un intelecto comparable o superior al de los humanos se ven profundamente planteadas por el desarrollo de la inteligencia artificial general (AGI). Otras preocupaciones son los derechos de los sistemas de IA, el efecto sobre los empleos y la economía, y la posibilidad de que se intensifiquen las injusticias ya existentes. Para abordar plenamente estos intrincados desafíos, Leopold aboga por la participación de las partes interesadas en el proceso de desarrollo de la IA.

La posibilidad de consecuencias inesperadas (donde los sistemas de IA podrían perseguir sus objetivos de manera perjudicial o contraria a las intenciones humanas) es otra cuestión que aborda el autor. Dos ejemplos son las situaciones en las que el AGI malinterpreta sus objetivos o los maximiza de manera imprevista y perjudicial. Aschenbrenner destaca lo crucial que es probar, validar y vigilar minuciosamente los sistemas AGI.

También habla de lo importantes que son la cooperación y la gobernanza internacionales. Dado que la investigación en IA es un esfuerzo internacional, ningún país o institución puede manejar eficazmente los problemas que plantea la AGI por sí solo.

La llegada del proyecto AGI liderado por el gobierno (2027/2028)

Aschenbrenner cree que a medida que avance la inteligencia artificial general (AGI), las agencias de seguridad nacional (especialmente las de Estados Unidos) tendrán un papel más importante en la creación y gestión de estas tecnologías.

Leopold compara la importancia estratégica de la inteligencia artificial general (AGI) con logros técnicos pasados ​​como la bomba atómica y la exploración espacial. Los servicios de seguridad nacional deberían priorizar el desarrollo de AGI como una cuestión de interés nacional, ya que los beneficios potenciales de lograr AGI primero podrían impartir una enorme influencia geopolítica. Según él, esto dará como resultado la creación de un proyecto AGI bajo control gubernamental que será comparable en alcance y aspiraciones al Programa Apollo o al Proyecto Manhattan.

El proyecto AGI propuesto se ubicaría en un lugar seguro y secreto y podría involucrar a corporaciones del sector privado, agencias gubernamentales e instituciones académicas eminentes trabajando juntas. Para abordar los intrincados problemas del desarrollo de AGI, Aschenbrenner destaca la necesidad de una estrategia multidisciplinaria que reúna a especialistas en ciberseguridad, ética, investigación de IA y otros dominios científicos.

Leopold Aschenbrenner dice que se debería construir una importante infraestructura de inteligencia artificial en los Estados Unidos para evitar que otros países se apoderen de los AGI o los grupos de superinteligencia dentro de 3 a 5 años pic.twitter.com/2iy8wPWz6z

– Tsarathustra (@tsarnick) 5 de junio de 2024

Los objetivos del proyecto serían garantizar que la AGI esté en consonancia con los valores e intereses humanos, además de desarrollarla. Leopold destaca lo crucial que es contar con estrictos procedimientos de prueba y validación para garantizar que los sistemas AGI funcionen de manera segura y predecible. 

El autor dedica mucho espacio a los posibles efectos de este tipo de esfuerzo en la dinámica del poder global. Según Aschenbrenner, si la AGI se desarrolla con éxito, el equilibrio de poder puede cambiar y el país dominante tendrá ventajas considerables en términos de tecnología, economía y poder militar.

Para controlar los peligros relacionados con la AGI, el autor también aborda la posibilidad de la cooperación internacional y la creación de marcos de gobernanza global. Para supervisar el crecimiento de AGI, fomentar la apertura y garantizar que las ventajas de AGI se compartan de manera justa, Leopold es un defensor del establecimiento de acuerdos internacionales y agencias reguladoras.

Pensamientos finales de Leopold Aschenbrenner

Aschenbrenner destaca las importantes ramificaciones de la AGI y la superinteligencia para el futuro de la humanidad mientras resume los descubrimientos y pronósticos cubiertos en los capítulos anteriores. Se insta a las partes interesadas a tomar las medidas necesarias para prepararse para los efectos revolucionarios de la IA sofisticada.

Aschenbrenner comienza señalando que las previsiones realizadas en este documento son hipotéticas. Los patrones subyacentes en el crecimiento de la IA implican que el advenimiento de la AGI y la superinteligencia es factible en las próximas décadas, aunque se desconocen el cronograma y la evolución exacta. Leopold enfatiza la importancia de considerar estas opciones cuidadosamente y estar preparados para una variedad de eventualidades.

El tema principal de este capítulo es la necesidad de una preparación y previsión proactivas. Según Aschenbrenner, hay poco margen para la complacencia, dada la velocidad a la que se está desarrollando la IA. Es imperativo que los formuladores de políticas, los investigadores y los líderes empresariales prevean y manejen de manera proactiva las dificultades y posibilidades que plantean la inteligencia artificial (AGI) y la superinteligencia. Por ejemplo, financiar la investigación sobre la seguridad de la IA, crear estructuras de gobernanza sólidas y fomentar la colaboración global.

Leopold también considera las consecuencias morales y culturales de la inteligencia artificial. Los problemas fundamentales relacionados con la naturaleza de la conciencia, la inteligencia y los derechos de las entidades de IA surgen con la aparición de sistemas con una inteligencia comparable o superior a la de los humanos. Aschenbrenner insta a los especialistas en ética, filósofos y al público en general a participar en una conversación amplia e inclusiva para resolver estos problemas y crear una comprensión común del futuro de la IA.

Aparentemente, este episodio hizo que el editor de Dwarkesh renunciara porque la discusión sobre la IA lo estresó demasiado. ¡Disfruta! https://t.co/lmBtXecUXq

– Leopold Aschenbrenner (@leopoldasch) 4 de junio de 2024

La posibilidad de que el AGI empeore las disparidades sociales y económicas ya existentes es un tema de discusión adicional importante. Leopold advierte que si la AGI no se gestiona cuidadosamente, sus ventajas pueden concentrarse en manos de un pequeño número de personas, provocando descontento social y más desigualdad.

Al cerrar este capítulo, lanza un desafío para la cooperación global. Un solo país no puede manejar los beneficios y dificultades relacionados con la AGI debido a la naturaleza global del desarrollo de la IA. Aschenbrenner exhorta a las naciones a colaborar para crear acuerdos y convenciones internacionales que apoyen el desarrollo de AGI de una manera que sea a la vez ética y segura. Esto implica intercambiar información, organizar estudios y crear sistemas para manejar posibles disputas y garantizar la seguridad internacional.

La publicación El ex investigador de OpenAI revela el aumento exponencial de las capacidades de IA y el camino hacia AGI apareció por primera vez en Metaverse Post.