Con la ola de inteligencia artificial desencadenada por ChatGPT, el consenso en la industria ha sido que "modelos de IA más grandes son mejores", lo que ha impulsado una competencia entre gigantes tecnológicos como Microsoft (MSFT.O), Google (GOOGL.O), Amazon (AMZN.O) y Meta Platforms (META.O) en la adquisición de chips, con Nvidia (NVDA.O) siendo el mayor beneficiario gracias a su destacado rendimiento en el entrenamiento de IA. Sin embargo, esta competencia podría estar a punto de cambiar, ya que la industria enfrenta múltiples obstáculos en su búsqueda de modelos de IA más grandes.

El liderazgo de Nvidia y los desafíos de cuellos de botella

Las GPU de Nvidia dominan el entrenamiento de modelos de IA debido a su capacidad para realizar cálculos paralelos de manera eficiente. Actualmente, el principal indicador de la capacidad de IA es la cantidad de parámetros del modelo, y más parámetros significan la necesidad de más GPU. Sin embargo, ha surgido escepticismo en la industria sobre los beneficios de escalar el tamaño del modelo. Waseem Alshikh, cofundador de Writer, señala que "después de más de un billón de parámetros, los beneficios tienden a ser mínimos." El CEO de Microsoft, Satya Nadella, también comentó en la reciente conferencia Ignite que el escepticismo en torno a la escalabilidad de los modelos de IA podría estimular más innovación.

Sin embargo, líderes de la industria de la IA como Sam Altman, CEO de OpenAI, y Dario Amodei, CEO de Anthropic, se oponen firmemente a estas dudas, creyendo que el potencial de expansión de la IA aún no ha alcanzado su límite.

Cuellos de botella de datos y el camino futuro de la IA

Thomas Wolf, director científico de Hugging Face, señala que la falta de datos de entrenamiento de alta calidad podría ser el mayor desafío que enfrenta el desarrollo de la IA. "Hemos agotado los recursos de internet como datos de entrenamiento hace unos meses." Esta limitación podría impulsar un futuro hacia modelos más pequeños basados en datos de empresas o individuos, en lugar de los grandes modelos dominados actualmente por grandes empresas de la nube.

Yann LeCun, director de IA de Meta, enfatiza que desarrollar modelos con memoria, planificación y capacidades de razonamiento es clave para lograr una verdadera inteligencia artificial general (AGI), en lugar de depender únicamente de chips de mayor tamaño.

El auge de la inferencia y las oportunidades para nuevos competidores

El enfoque de la IA está cambiando gradualmente del entrenamiento a la inferencia (el proceso de generar respuestas o resultados), lo que trae nuevas dinámicas al mercado de chips. La computación de inferencia puede no depender tanto de las GPU de Nvidia como el entrenamiento, y AMD (AMD.O), Intel (INTC.O), chips personalizados de Amazon y startups podrían tener una parte en este campo. Eric Boyd de Microsoft cree que, además del tamaño del modelo, las mejoras tecnológicas durante el proceso de inferencia también son cruciales.

Nvidia ha notado el potencial de la inferencia, mencionando en su reciente informe financiero que el negocio de inferencia representa el 40% de los ingresos de los centros de datos y está creciendo rápidamente. Su nuevo sistema de servidores NVL72 ha mejorado el rendimiento en inferencia 30 veces, mostrando una fuerte competitividad en este campo.

Múltiples ganadores en la nueva etapa

La competencia de IA se está trasladando de entrenamiento a inferencia, lo que significa que las oportunidades en la industria serán más dispersas. Aunque Nvidia seguirá siendo el ganador a corto plazo, a medida que la importancia de la inferencia aumenta, AMD, Intel y otros competidores podrían ir erosionando gradualmente la cuota de mercado de Nvidia. Para los inversores, el enfoque en esta etapa ya no es solo apoyar el entrenamiento de modelos más grandes, sino prepararse para una serie de nuevos ganadores que podrían surgir al usar los modelos.

Artículo compartido de: Jinshi Data