La inteligencia artificial disfrutó de un año excepcional en 2024. La tecnología de vanguardia recibió premios, atrajo inversores, encantó a Wall Street y demostró que podía razonar matemáticamente, incluso explicando ecuaciones diferenciales.
También atrajo la atención de los reguladores globales, preocupados por los riesgos de privacidad y seguridad. Otros temían que la IA pudiera evolucionar pronto hacia la inteligencia artificial general (AGI) y luego hacia la superinteligencia artificial, superando las habilidades cognitivas humanas. Se plantearon y discutieron escenarios catastróficos: bioterrorismo, sistemas de armas autónomas e incluso eventos de 'nivel de extinción'.
Aquí hay 10 de los aspectos más destacados de la IA en 2024.
#1 GenAI domina
La inteligencia artificial generativa (GenAI), un subconjunto de la IA, es capaz de crear algo de la nada (bueno, aparte de sus voluminosos datos de entrenamiento). Por ejemplo, si se le proporciona una línea de texto, puede generar una historia de fantasmas de 500 palabras.
GenAI ocupó el centro del escenario en 2024. Y no fue solo ChatGPT, el chatbot habilitado por IA desarrollado por OpenAI. Gemini de Google, Copilot de Microsoft, Claude de Anthropic y la serie Llama 3 de Meta también ayudaron a empujar los límites, desarrollando software que podía leer y generar no solo texto, sino también audio, video e imágenes.
Los laboratorios de IA gastaron libremente para impulsar estos avances. El gasto en IA se disparó a $13.8 mil millones en 2024, más de seis veces la cantidad desembolsada en 2023, según Menlo Ventures, en 'una clara señal de que las empresas están pasando de la experimentación a la ejecución, integrando la IA en el núcleo de sus estrategias comerciales.'
#2 La IA captura premios Nobel en física, química
Más evidencia de que la IA ha llegado para quedarse fue proporcionada en octubre cuando la Real Academia Sueca de Ciencias anunció los Premios Nobel de 2024. Geoffrey Hinton y John Hopfield recibieron el premio de física 'por descubrimientos e invenciones fundamentales que permiten el aprendizaje automático con redes neuronales artificiales.' Las redes neuronales son una tecnología clave en la IA actual.
Hinton, un científico informático y psicólogo cognitivo británico-canadiense, es decir, no un físico, ha sido llamado a menudo el 'Padrino de la IA.' Su trabajo pionero en redes neuronales se remonta a la década de 1980, cuando utilizó herramientas de la física estadística como una máquina de Boltzmann para avanzar en el aprendizaje automático.
En otros lugares, Demis Hassabis, cofundador y CEO de Google DeepMind, y John Jumper fueron honrados con el Premio Nobel de química por desarrollar un modelo de inteligencia artificial que puede predecir las complejas estructuras de las proteínas.
El propio Canadá gana el Premio Nobel por trabajo en IA. Fuente: Justin Trudeau
#3 Nvidia supera a Apple como la empresa más valiosa del mundo
Se necesita un tipo especial de chip de computadora para entrenar y ejecutar los masivos modelos de lenguaje grande (LLMs) que dominaron en 2024, y el fabricante de chips Nvidia produjo más de estas unidades de procesamiento gráfico especiales, o GPUs, que cualquier otra empresa en el mundo.
No es sorprendente, entonces, que Nvidia también se convirtiera en la empresa más valiosa del mundo en 2024, alcanzando $3.53 billones en capitalización de mercado a finales de octubre, eclipsando los $3.52 billones de Apple.
"Más empresas están ahora adoptando la inteligencia artificial en sus tareas diarias y la demanda sigue siendo fuerte para los chips de Nvidia," comentó Russ Mould, director de inversiones de AJ Bell.
¿Mantendrá Nvidia su dominio en la fabricación en 2025 y más allá? Las GPUs Blackwell de Nvidia, muy esperadas, que se espera se lancen en el cuarto trimestre, se retrasaron debido a fallas de diseño, según se informa, pero dado el enorme liderazgo de Nvidia en las GPUs, que controló el 98% del mercado en 2023, pocos esperan que sea superada pronto.
#4 Legislación sobre IA en la UE
Todos quieren una inteligencia artificial que sea segura, protegida y beneficiosa para la sociedad en general, pero aprobar leyes e implementar reglas para garantizar una IA responsable no es un asunto fácil. Aún así, en 2024, las autoridades regulatorias globales tomaron algunos primeros pasos.
La Ley de Inteligencia Artificial de la Unión Europea entró en vigor en agosto, introduciendo salvaguardias para sistemas de IA de propósito general y abordando algunas preocupaciones sobre la privacidad. La ley establece reglas estrictas sobre el uso de la IA para el reconocimiento facial, por ejemplo, pero también busca abordar riesgos más amplios como la automatización de empleos, la difusión de desinformación en línea y el peligro para la seguridad nacional. La legislación se implementará en fases, extendiéndose hasta 2027.
Regular la IA no será fácil, sin embargo, como California descubrió en 2024 con su propuesta de legislación SB 1047 que fue descartada (vetada) por el gobernador del estado en septiembre. Descrita como el 'esfuerzo más amplio hasta ahora para regular la inteligencia artificial', la SB 1047 tuvo el apoyo de algunos defensores de la IA como Geoffrey Hinton y Elon Musk, quienes argumentaron que proporcionaba las salvaguardias tan necesarias para esta tecnología que evoluciona rápidamente.
Pero también recibió críticas de otros tecnólogos, como Andrew Ng, fundador de DeepLearning.AI, porque imponía responsabilidad a los desarrolladores de IA y esto podría, en teoría, sofocar la innovación.
#5 Emergencia de modelos de lenguaje pequeños (SLMs)
Los modelos de IA masivos que se entrenan con miles de millones de puntos de datos se volvieron comunes en 2024. ChatGPT fue entrenado con 570 gigabytes de datos de texto extraídos de internet, alrededor de 300 mil millones de palabras, por ejemplo.
Pero para muchas empresas, el futuro de la IA radica en modelos de lenguaje más pequeños y específicos de la industria, algunos de los cuales comenzaron a surgir en 2024.
En abril, Microsoft lanzó sus modelos de lenguaje pequeño Phi-3, mientras que Apple presentó ocho modelos de lenguaje pequeño para sus dispositivos portátiles. Microsoft y Khan Academy ahora están utilizando SLMs para mejorar la tutoría de matemáticas para los estudiantes, por ejemplo.
"Hay mucha más computación disponible en el borde porque los modelos están disminuyendo para cargas de trabajo específicas, [y] realmente puedes aprovechar mucho más de eso," explicó Yorke Rhodes, director de transformación digital, blockchain y cadena de suministro en la nube de Microsoft, en una conferencia en mayo.
Los SLMs requieren menos datos de entrenamiento y potencia computacional para desarrollarse y ejecutarse, y sus capacidades 'realmente están comenzando a acercarse a algunos de los modelos de lenguaje grande', añadió.
#6 La IA agentiva pasó a primer plano
Los chatbots como ChatGPT se centran en hacer preguntas y recibir respuestas sobre una amplia variedad de temas, aunque también pueden escribir código de software, redactar correos electrónicos, generar informes e incluso escribir poesía.
Pero los agentes de IA van un paso más allá de los chatbots y pueden tomar decisiones en nombre de los usuarios, permitiéndoles alcanzar objetivos específicos. En la industria de la salud, se podría utilizar un agente de IA para monitorear datos de pacientes, haciendo recomendaciones cuando sea apropiado para modificar un tratamiento específico, por ejemplo.
Luna es un agente de IA construido sobre Virtuals. Fuente: X
Mirando hacia el futuro, la firma de consultoría tecnológica Gartner nombró a la IA agentiva como una de sus 'Principales Tendencias Tecnológicas Estratégicas para 2025.' De hecho, para 2028, se prevé que hasta un tercio de las aplicaciones de software empresarial incluirán IA agentiva, en comparación con menos del 1% en 2024.
Los agentes de IA incluso podrían ser utilizados para escribir contratos inteligentes basados en blockchain (técnicamente ya pueden hacerlo, pero los riesgos de un error y una pérdida de fondos son demasiado altos en este momento). El proyecto de blockchain Avalanche ya ha comenzado a construir una nueva máquina virtual en la intersección de la IA y las cadenas de bloques para hacerlo en un lenguaje natural. 'Escribes tus programas de [contrato inteligente] en inglés, alemán, francés, tagalo, chino [...] un lenguaje natural que tu madre te enseñó en la lengua materna de tu madre,' dijo el fundador de Ava Labs, Emin Gün Sirer.
La programación de contratos inteligentes tal como está hoy es realmente difícil, por lo que un agente de IA fácil de usar podría potencialmente atraer a 'miles de millones de nuevos [usuarios de blockchain]', predijo Sirer.
#7 Modelos de razonamiento para resolver 'problemas difíciles'
Los chatbots tienen otras limitaciones. Pueden tener dificultades con problemas matemáticos simples y tareas de codificación de software, por ejemplo. No son buenos respondiendo preguntas científicas.
OpenAI buscó remediar la situación en septiembre con el lanzamiento de OpenAI o1, una nueva serie de modelos de razonamiento 'para resolver problemas difíciles', como ecuaciones diferenciales. La respuesta fue en su mayoría positiva.
"Finalmente, un modelo de IA capaz de manejar todos los problemas complejos de ciencia, codificación y matemáticas que siempre le estoy alimentando," tuiteó el columnista del New York Times Kevin Roose.
En las pruebas, o1 se desempeñó tan bien como los 500 mejores estudiantes en EE.UU. en una clasificación para la Olimpiada Matemática de EE. UU., por ejemplo, y superó la precisión a nivel de PhD humano en un estándar de problemas de física, biología y química, informó OpenAI.
#8 Enfocándose en AGI
¿Por qué importan los avances en la resolución estructurada de problemas, como se describió anteriormente? Acercan a la IA de forma incremental a proporcionar inteligencia similar a la humana, es decir, inteligencia artificial general, o AGI.
Los modelos o3 de OpenAI, lanzados justo antes de Navidad, se desempeñaron incluso mejor que o1, especialmente en pruebas de matemáticas y codificación, mientras que otros proyectos como Gemini 2.0 de Google también hicieron progresos en 2024 en la resolución de problemas estructurados, es decir, descomponiendo tareas complejas en pasos manejables.
Sin embargo, la AGI sigue siendo un objetivo distante en la opinión de muchos expertos. Los modelos avanzados de hoy todavía carecen de una comprensión intuitiva de conceptos físicos como la gravedad o la causalidad, por ejemplo. Tampoco pueden los algoritmos de IA actuales formular preguntas por sí mismos, o aprender si y cuándo los escenarios toman un giro inesperado.
En general, 'la AGI es un viaje, no un destino, y solo estamos al principio', declaró recientemente Brian Hopkins, vicepresidente de tecnología emergente en la firma de consultoría Forrester.
# 9 Señales de una inminente escasez de datos de entrenamiento
Sin duda, 2024 fue un año emocionante para los desarrolladores y usuarios de IA, y pocos esperan que la innovación en IA disminuya en el corto plazo. Pero también hubo sugerencias en 2024 de que la sub-época de LLM de la IA puede haber alcanzado su punto máximo.
La razón es una inminente escasez de datos. Empresas como OpenAI y Google pueden quedarse pronto sin datos, la savia de la IA, utilizados para 'entrenar' sistemas masivos de inteligencia artificial.
Después de todo, solo se puede extraer una cantidad limitada de datos de internet. Además, los desarrolladores de LLM están descubriendo que no siempre pueden reunir datos disponibles públicamente con impunidad. The New York Times, por ejemplo, ha demandado a OpenAI por infracción de derechos de autor con respecto a su contenido de noticias. No es probable que sea la única gran organización de noticias que busque recursos en los tribunales.
"Todos en la industria están viendo rendimientos decrecientes," dijo Demis Hassabis de Google.
Una respuesta puede ser entrenar algoritmos usando datos sintéticos, datos generados artificialmente que imitan datos del mundo real. El LLM Claude 3 de Anthropic, por ejemplo, fue entrenado, al menos en parte, con datos sintéticos, es decir, 'datos que generamos internamente', según la empresa.
Aunque el término 'datos sintéticos' puede sonar como un oxímoron, los científicos, incluidos algunos expertos médicos, dicen que crear nuevos datos desde cero tiene potencial. Podría apoyar la IA médica al completar conjuntos de datos incompletos, por ejemplo, lo que podría ayudar a eliminar sesgos contra ciertos grupos étnicos.
Anthropic está tratando de liderar el camino con la IA ética. Fuente: Anthropic
#10 Emergencia de una IA más ética
Curiosamente, Anthropic explica en detalle cómo obtiene sus datos de entrenamiento en el documento referido anteriormente. De particular interés, opera su sistema de rastreo de sitios web 'transparente', lo que significa que los proveedores de contenido de sitios web, como The New York Times, presumiblemente, 'pueden identificar fácilmente las visitas de Anthropic y señalar sus preferencias a Anthropic.'
La firma ha hecho esfuerzos considerables para prevenir el uso indebido de su tecnología, incluso creando un oficial de escalado responsable, cuyo alcance se amplió en 2024 en un esfuerzo por crear una IA 'segura'. Los esfuerzos de la empresa no pasaron desapercibidos. La revista Time la nombró una de las 100 empresas más influyentes en 2024, elogiándola como la 'Empresa de IA apostando a que la seguridad puede ser una estrategia ganadora.'
Dada la tendencia del desarrollo de IA en 2024 y las preocupaciones públicas sobre los posibles riesgos catastróficos de estos nuevos sistemas de frontera, parece totalmente probable que más desarrolladores pronto adopten una IA más transparente y responsable.
Revista: Story Protocol ayuda a los creadores de IP a sobrevivir ante el asalto de IA... y cobrar en criptomonedas