El costo de entrenar modelos de inteligencia artificial (IA) se está disparando y las proyecciones sugieren un aumento significativo en los próximos años. Dario Amodei, director ejecutivo de la startup de inteligencia artificial Anthropic, destacó estos crecientes gastos durante un episodio reciente del podcast “In Good Company”.

Lea también: Los trabajadores de Samsung se declaran en huelga exigiendo salarios más altos durante la creciente competencia de IA

Los modelos de IA avanzados actuales, como ChatGPT-4, requieren alrededor de 100 millones de dólares para entrenarse. Pero, según Amodei, esta cifra podría aumentar a entre 10.000 y 100.000 millones de dólares en los próximos tres años. 

El desarrollo de la inteligencia artificial general eleva los costos

El fuerte aumento se debe al cambio de la IA generativa, como ChatGPT, a la inteligencia artificial general (AGI). El progreso hacia AGI busca desarrollar sistemas que puedan comprender, adquirir y utilizar el conocimiento de manera similar a la mente humana.

"Creo que si llegamos a 10 o 100 mil millones de dólares, y creo que eso sucederá en 2025, 2026, tal vez 2027... entonces creo que hay una buena posibilidad de que para entonces podamos obtener modelos que sean mejores que los la mayoría de los humanos en la mayoría de las cosas”. 

amodei

Según Tom's Hardware, el marco existente para estos avances es enorme en este momento. Por ejemplo, para entrenar ChatGPT, se necesitaban más de 30.000 GPU, y cada chip Nvidia B200 AI cuesta entre 30.000 y 40.000 dólares. Esta inversión en hardware es uno de los elementos que puede estar provocando el aumento de gastos. 

Los recursos computacionales aumentan los costos de capacitación en IA

Hay varias razones por las que el coste de la formación en IA está aumentando. La razón principal es que la cantidad de recursos computacionales necesarios es inmensa. Con el avance de los modelos de aprendizaje profundo, se necesitan GPU potentes y otro hardware especialmente diseñado. Se enviaron más de 3,8 millones de GPU a centros de datos en 2023, lo que demuestra el alcance de la infraestructura necesaria. 

Lea también: La inteligencia artificial afectará a una amplia gama de servicios públicos

Otro factor importante es el consumo de energía. El consumo de energía de todas las GPU vendidas el año pasado sería suficiente para alimentar a 1,3 millones de hogares. Este alto consumo de energía no sólo genera altos gastos para el negocio sino que también plantea problemas sobre los efectos sobre el medio ambiente y la conservación.   Según un informe reciente de Google, las emisiones de la empresa aumentaron casi un 50% en cuatro años, principalmente debido a la energía necesaria para el aprendizaje de la IA.

Los gigantes tecnológicos invierten mucho en infraestructura de IA

Además, las empresas tecnológicas líderes están invirtiendo mucho dinero en el avance de la inteligencia artificial. Por ejemplo, Elon Musk quiere comprar 300.000 chips de inteligencia artificial de última generación de Nvidia. Asimismo, se dice que Microsoft y OpenAI están trabajando en un centro de datos de 100 mil millones de dólares para el avance de la IA.

Lea también: Wimbledon emplea IA para combatir el abuso en línea

A pesar de estos costos crecientes, hay intentos de optimizar los costos del entrenamiento en IA. DeepMind de Google ha presentado recientemente una técnica llamada Joint Ejemplo Selection (JEST) que pretende reducir el número de iteraciones por un factor de 13 y los recursos computacionales necesarios por un factor de 10. Esto ayuda a reducir los recursos a utilizar y el tiempo. ser tomado.

Sin embargo, incluso con estos avances, la dirección general es hacia costos más altos debido al avance de AGI. Desde la IA generativa hasta la AGI, los modelos son necesarios para interpretar grandes conjuntos de datos, aprender de ellos, anticipar diferentes situaciones y resolver problemas que requieren pensamiento crítico. 

Informe criptopolitano de Brenda Kanana