Microsoft a assuré sa place au sommet de la chaîne alimentaire du matériel d'IA, en dépensant plus que tous les géants de la technologie du secteur et en achetant 485 000 puces Nvidia Hopper cette année. Cela laisse des concurrents comme Meta, Amazon et Google à bout de souffle dans la course aux armements de l'IA.
Meta est arrivé en tête, mais reste loin derrière, avec 224 000 puces. Amazon et Google ? Pas du tout, avec des commandes respectives de 196 000 et 169 000 puces Hopper.
Les GPU de Nvidia sont devenus la référence absolue de la Silicon Valley, suscitant une frénésie d’investissements dans les centres de données pour soutenir des modèles d’IA de pointe comme ChatGPT. Microsoft, avec son infrastructure cloud Azure, mise tout sur l’IA comme avenir de la technologie.
Le grand bond en avant de Microsoft
Les puces Hopper de Nvidia, considérées comme les joyaux de la couronne du traitement de l’IA, sont le produit technologique le plus en vogue depuis deux ans. Elles sont devenues des outils essentiels pour la formation et l’exécution des modèles d’IA de nouvelle génération.
Les analystes d’Omdia estiment que les achats de la société ont plus que triplé par rapport à l’année dernière, une réponse directe à la demande croissante suite au succès retentissant de ChatGPT.
« Une bonne infrastructure de centre de données… nécessite plusieurs années de planification », a déclaré Alistair Speirs, directeur principal d’Azure Global Infrastructure chez Microsoft. L’entreprise se positionne également pour dominer le marché du cloud, en louant son matériel à ses clients via Azure.
L’analyse d’Omdia montre que la cargaison de Microsoft provenant de Hopper éclipse les 230 000 puces achetées par ByteDance et Tencent réunies. Cependant, les puces expédiées en Chine étaient des modèles H20 modifiés, déclassés pour se conformer aux restrictions d’exportation américaines.
Nvidia a modifié ces puces pour limiter leurs capacités, mais même avec une puissance réduite, les entreprises chinoises les achètent.
La frénésie des dépenses de l'IA
Rien que cette année, les entreprises technologiques ont dépensé la somme astronomique de 229 milliards de dollars pour les serveurs, Microsoft étant le premier à en dépenser. Les 31 milliards de dollars dépensés par l’entreprise en font le plus gros dépensier dans le boom mondial des infrastructures d’IA, éclipsant les 26 milliards de dollars d’Amazon.
Selon Omdia, les GPU Nvidia ont représenté 43 % des dépenses en serveurs en 2024, consolidant la domination de l’entreprise dans le domaine du matériel d’IA. Les puces Hopper de Nvidia sont peut-être la vedette, mais Microsoft ne met pas tous ses œufs dans le même panier. L’entreprise a commencé à déployer ses propres puces Maia, en installant 200 000 unités cette année.
Amazon a également accéléré la production de ses puces Trainium et Inferentia, déployant 1,3 million d’unités pour alimenter ses ambitions en matière d’IA. L’entreprise construit même un nouveau cluster d’IA comprenant des centaines de milliers de puces Trainium pour Anthropic, un concurrent d’OpenAI qu’elle a soutenu avec un investissement de 8 milliards de dollars.
Meta et Google redoublent également d'efforts pour développer leurs propres puces, chacun déployant environ 1,5 million d'unités de leurs conceptions personnalisées.
Décrochez un emploi bien rémunéré sur le Web3 en 90 jours : la feuille de route ultime