Avec la frénésie de l'intelligence artificielle déclenchée par ChatGPT, "des modèles d'IA plus grands sont meilleurs" est devenu un consensus dans l'industrie, ce qui a poussé des géants technologiques comme Microsoft (MSFT.O), Google (GOOGL.O), Amazon (AMZN.O) et Meta Platforms (META.O) à se livrer à une course pour l'acquisition de puces, Nvidia (NVDA.O) étant le plus grand bénéficiaire grâce à ses GPU performants en matière d'entraînement de l'IA. Cependant, cette compétition pourrait bientôt changer, l'industrie faisant face à de multiples obstacles dans sa quête de modèles d'IA plus grands.
La position dominante de Nvidia et les défis de goulet d'étranglement
Les GPU de Nvidia dominent l'entraînement des modèles d'IA en raison de leur capacité à effectuer des calculs parallèles de manière efficace. L'indicateur principal de la capacité en IA actuelle est le nombre de paramètres du modèle, et plus il y a de paramètres, plus il faut de GPU. Cependant, des doutes émergent au sein de l'industrie concernant l'efficacité de l'expansion de la taille des modèles. Waseem Alshikh, co-fondateur de Writer, souligne que "au-delà de mille milliards de paramètres, les rendements tendent à diminuer." Satya Nadella, PDG de Microsoft, a également déclaré lors de la récente conférence Ignite que les doutes autour de l'expansion des modèles d'IA pourraient stimuler plus d'innovations.
Néanmoins, des dirigeants de l'industrie de l'IA tels que Sam Altman, PDG d'OpenAI, et Dario Amodei, PDG d'Anthropic, s'opposent fermement à ces doutes, estimant que le potentiel d'expansion de l'IA n'a pas encore atteint ses limites.
Goulet d'étranglement des données et chemin futur de l'IA
Thomas Wolf, directeur scientifique de Hugging Face, souligne que le manque de données d'entraînement de qualité pourrait être le plus grand défi auquel l'IA est confrontée. "Nous avons épuisé nos ressources de données d'entraînement sur Internet il y a plusieurs mois." Cette contrainte pourrait inciter à l'avenir à se tourner vers des modèles plus petits basés sur des données d'entreprise ou personnelles, plutôt que les grands modèles dominés par les grandes entreprises du cloud.
Yann LeCun, directeur de l'IA chez Meta, souligne que le développement de modèles dotés de mémoire, de planification et de raisonnement est la clé pour atteindre une véritable intelligence artificielle générale (AGI), et non simplement de dépendre de puces de plus grande taille.
L'essor de l'inférence et les opportunités pour de nouveaux concurrents
L'accent de l'IA passe progressivement de l'entraînement à l'inférence (le processus de génération de réponses ou de résultats), ce qui apporte de nouvelles dynamiques au marché des puces. Le calcul d'inférence pourrait ne pas dépendre des GPU de Nvidia comme l'entraînement, AMD (AMD.O), Intel (INTC.O), les puces personnalisées d'Amazon et les startups pourraient également avoir leur part dans ce domaine. Eric Boyd de Microsoft estime qu'à part la taille du modèle, les améliorations technologiques dans le processus d'inférence sont également cruciales.
Nvidia a remarqué le potentiel de l'inférence, mentionnant dans son dernier rapport financier que les activités d'inférence représentaient 40 % des revenus de son centre de données et croissaient rapidement. Son nouveau système de serveurs NVL72 a montré une amélioration de 30 fois des performances en matière d'inférence, démontrant une forte compétitivité dans ce domaine.
Gagnants divers d'une nouvelle phase
La compétition en IA passe de l'entraînement à l'inférence, signifiant que les opportunités dans l'industrie seront plus dispersées. Bien que Nvidia reste un gagnant à court terme, avec l'importance croissante de l'inférence, AMD, Intel et d'autres concurrents pourraient progressivement éroder la part de marché de Nvidia. Pour les investisseurs, l'accent à ce stade n'est plus seulement sur le soutien à l'entraînement de modèles plus grands, mais sur la préparation à accueillir une nouvelle série de gagnants qui pourraient émerger lors de l'utilisation des modèles.
Article relayé par : Jin Shi Data