En el campo de la inteligencia artificial, la intersección entre fe y tecnología ha dado lugar a un intenso debate sobre la efectividad y el futuro del "principio de escalabilidad". Este artículo explora el surgimiento, las divisiones y los posibles impactos de esta "religión amarga", revelando la compleja relación entre la fe y la ciencia. La comunidad de inteligencia artificial se ha visto atrapada en una disputa sobre su futuro y si hay suficiente escala para crear la doctrina de Dios. Este artículo se basa en un escrito de Mario Gabriele, organizado y traducido por Block unicorn. (Resumen: La xAI de Musk completa una ronda de financiación de 6 mil millones de dólares, con la participación de grandes nombres de la industria como Nvidia, BlackRock, a16z...) (Información adicional: ¿Llega el momento físico de ChatGPT con el lanzamiento del "Jetson Thor", la plataforma de robótica de Nvidia el próximo año?) La cruzada de la inteligencia artificial Prefiero vivir mi vida como si Dios existiera y descubrir al morir que no lo hizo, que vivir como si no existiera y descubrir al morir que sí lo hizo. — Blaise Pascal La religión es un asunto interesante. Quizás porque no se puede comprobar en ninguna dirección, o tal vez como dice una de mis frases favoritas: "No puedes luchar contra los sentimientos con hechos." La característica de la fe religiosa es que, a medida que la fe aumenta, se desarrolla a una velocidad increíble, hasta el punto de casi no poder dudar de la existencia de Dios. ¿Cómo puedes dudar de una existencia divina cuando las personas a tu alrededor comienzan a creer cada vez más en ello? ¿Dónde queda el espacio para la herejía cuando el mundo se reorganiza en torno a una doctrina? Cuando templos y catedrales, leyes y normas se organizan según un nuevo evangelio inquebrantable, ¿dónde queda el espacio para la oposición? Cuando las religiones abrahámicas comenzaron a aparecer y se difundieron por los continentes, o cuando el budismo se extendió desde la India a toda Asia, la enorme inercia de la fe creó un ciclo de auto-refuerzo. A medida que más personas se convirtieron y se establecieron complejos sistemas teológicos y rituales en torno a estas creencias, se volvió cada vez más difícil cuestionar estos supuestos básicos. En un mar de credulidad, no es fácil ser hereje. Las grandiosas iglesias, los textos religiosos complejos y los prósperos monasterios sirven como evidencia física de la existencia divina. Pero la historia de la religión también nos dice cuán fácilmente tales estructuras pueden colapsar. A medida que el cristianismo se propagó por la península escandinava, las antiguas creencias nórdicas colapsaron en solo unas pocas generaciones. Los sistemas religiosos del antiguo Egipto duraron milenios, pero finalmente desaparecieron con el surgimiento de nuevas creencias más duraderas y la aparición de estructuras de poder más grandes. Incluso dentro de la misma religión, hemos visto divisiones dramáticas: la Reforma religiosa desgarró el cristianismo occidental, mientras que el Gran Cisma condujo a la división de la iglesia oriental y occidental. Estas divisiones a menudo comienzan con desacuerdos doctrinales que parecen trivialidades, pero que gradualmente se convierten en sistemas de creencias completamente diferentes. Las escrituras Dios es una metáfora que trasciende todos los niveles de pensamiento intelectual. Así de simple. — Joseph Campbell En términos simples, creer en Dios es religión. Tal vez crear a Dios no sea tan diferente. Desde su inicio, los optimistas investigadores en inteligencia artificial han imaginado su trabajo como creación divina — es decir, la creación de Dios. En los últimos años, el explosivo desarrollo de los modelos de lenguaje de gran tamaño (LLMs) ha reafirmado la creencia de los fieles en que estamos en un camino sagrado. También confirmó un artículo de blog escrito en 2019. Aunque las personas fuera del campo de la inteligencia artificial solo lo conocieron recientemente, la "lección amarga" del científico informático canadiense Richard Sutton se ha convertido en un texto cada vez más importante en la comunidad, transformándose de un conocimiento oculto a una nueva y universal base religiosa. En 1,113 palabras (cada religión necesita un número sagrado), Sutton resumió una observación técnica: "La lección más importante que se puede aprender de 70 años de investigación en inteligencia artificial es que utilizar enfoques generales de cálculo es, en última instancia, el más efectivo y una enorme ventaja." El progreso de los modelos de inteligencia artificial se debe al aumento exponencial de los recursos computacionales, impulsado por la ola masiva de la ley de Moore. Al mismo tiempo, Sutton señala que muchos trabajos en la investigación de inteligencia artificial se han centrado en optimizar el rendimiento mediante técnicas especializadas — aumentando el conocimiento humano o herramientas limitadas. Aunque estas optimizaciones pueden ser útiles a corto plazo, en opinión de Sutton, son, en última instancia, una pérdida de tiempo y recursos, como intentar ajustar las aletas de una tabla de surf o probar una nueva cera cuando una gran ola se avecina. Esta es la base de lo que llamamos "religión amarga". Tiene un solo mandamiento, comúnmente conocido en la comunidad como "principio de escalabilidad": el crecimiento exponencial de la computación impulsa el rendimiento; el resto es tontería. La religión amarga se ha expandido desde los modelos de lenguaje de gran tamaño (LLMs) hasta los modelos del mundo, y ahora se propaga rápidamente a través de las disciplinas no convertidas de la biología, la química y la inteligencia encarnada (robótica y vehículos autónomos). Sin embargo, a medida que la doctrina de Sutton se difunde, las definiciones también comienzan a cambiar. Este es un signo de todas las religiones activas y vibrantes: debate, extensión, comentario. El "principio de escalabilidad" ya no significa simplemente la computación de paquetes escalables (el arca no es solo un barco); ahora se refiere a varios métodos destinados a mejorar el rendimiento de los transformadores y el cálculo, algunos de los cuales incluyen ciertos trucos. Ahora, lo clásico abarca los intentos de optimizar cada parte de la pila de IA, desde técnicas aplicadas al modelo central (fusión de modelos, mezcla de expertos (MoE) y extracción de conocimiento) hasta la generación de datos sintéticos para alimentar a estos dioses siempre hambrientos, con una gran cantidad de experimentos realizados en el proceso. Las sectas en conflicto Recientemente, un problema que ha surgido en la comunidad de inteligencia artificial, con un aire de cruzada, es si la "religión amarga" sigue siendo correcta. Esta semana, Harvard, Stanford y el MIT publicaron un nuevo artículo titulado "El principio de escalabilidad de la precisión", provocando este conflicto. El artículo discute el final de las ganancias de eficiencia cuantitativa, una serie de técnicas que mejoran el rendimiento de los modelos de inteligencia artificial y benefician en gran medida al ecosistema de código abierto. Tim Dettmers, científico investigador en el Allen Institute for AI, esbozó su importancia en la publicación a continuación, llamándola "el artículo más importante en mucho tiempo". Representa la continuación de un diálogo que ha ido en aumento en las últimas semanas y revela una tendencia notable: el fortalecimiento de dos religiones. Sam Altman, CEO de OpenAI, y Dario Amodei, CEO de Anthropic, pertenecen a la misma secta. Ambos han expresado con confianza que alcanzaremos la inteligencia artificial general (AGI) en aproximadamente 2-3 años. Altman y Amodei podrían considerarse como las dos figuras que más dependen de la sacralidad de la "religión amarga". Todos sus incentivos tienden a sobrecomprometerse, generando la mayor expectativa para acumular capital en este juego casi completamente dominado por economías de escala. Si el principio de escalabilidad no es "el alfa y el omega", lo primero y lo último, el principio y el fin, ¿para qué necesitas 22 mil millones de dólares? El ex jefe de ciencia de OpenAI, Ilya Sutskever, sostiene un conjunto de principios diferente. Él y otros investigadores (incluidos muchos de OpenAI, según información filtrada recientemente) creen que la escalabilidad está llegando a su límite. Este grupo sostiene que, para mantener el progreso y llevar la AGI al mundo real, se necesita necesariamente nueva ciencia y nuevas investigaciones. Sutskever argumenta razonablemente que la perspectiva de escalabilidad continua de Altman es económicamente inviable. Así como la inteligencia...