Microsoft si è assicurata il suo posto in cima alla catena alimentare dell'hardware AI, superando in spesa ogni gigante della tecnologia nel gioco e acquistando 485.000 chip Nvidia Hopper quest'anno. Ciò lascia concorrenti come Meta, Amazon e Google senza fiato nella corsa agli armamenti AI.
Meta si è avvicinato di più, ma è comunque rimasto molto indietro, con 224.000 chip. Amazon e Google? Nemmeno lontanamente, con ordini di 196.000 e 169.000 chip Hopper rispettivamente.
Le GPU di Nvidia sono diventate il gold standard della Silicon Valley, innescando una frenesia di investimenti nei data center per supportare modelli di intelligenza artificiale all'avanguardia come ChatGPT. Microsoft, con la sua infrastruttura cloud Azure, sta puntando tutto, puntando molto sull'intelligenza artificiale come futuro della tecnologia.
Il grande passo di Microsoft
I chip Hopper di Nvidia, acclamati come i gioielli della corona dell'elaborazione AI, sono stati la merce tecnologica più richiesta per due anni. Sono diventati strumenti essenziali per l'addestramento e l'esecuzione di modelli AI di nuova generazione.
Gli analisti di Omdia stimano che gli acquisti dell'azienda siano più che triplicati rispetto all'anno scorso, una risposta diretta alla domanda alle stelle in seguito al successo strepitoso di ChatGPT.
"Una buona infrastruttura di data center... richiede anni di pianificazione", ha affermato Alistair Speirs, direttore senior di Azure Global Infrastructure presso Microsoft. L'azienda si sta anche posizionando per dominare il mercato del cloud, affittando il suo hardware ai clienti tramite Azure.
L'analisi di Omdia mostra che il bottino di Hopper di Microsoft surclassa di gran lunga i 230.000 chip acquistati da ByteDance e Tencent messi insieme. Tuttavia, i chip spediti in Cina erano modelli H20 modificati, declassati per rispettare le restrizioni all'esportazione degli Stati Uniti.
Nvidia ha modificato questi chip per limitarne le capacità, ma nonostante la potenza ridotta, le aziende cinesi li stanno acquistando a gran voce.
La corsa alla spesa per l’intelligenza artificiale
Solo quest'anno, le aziende tecnologiche hanno sborsato la sbalorditiva cifra di 229 miliardi di dollari in server, con Microsoft in testa. La spesa in conto capitale di 31 miliardi di dollari dell'azienda la rende il più grande spendaccione nel boom globale delle infrastrutture AI, oscurando i 26 miliardi di dollari di Amazon.
Secondo Omdia, le GPU Nvidia hanno rappresentato il 43% della spesa per server nel 2024, consolidando il predominio dell'azienda nell'hardware AI. I chip Hopper di Nvidia potrebbero essere la star, ma Microsoft non sta mettendo tutte le uova nello stesso paniere. Ha iniziato a lanciare i suoi chip Maia, installandone 200.000 unità quest'anno.
Nel frattempo, Amazon ha aumentato la produzione dei suoi chip Trainium e Inferentia, distribuendo 1,3 milioni di unità per alimentare le sue ambizioni di intelligenza artificiale. Sta persino costruendo un nuovo cluster di intelligenza artificiale con centinaia di migliaia di chip Trainium per Anthropic, un concorrente di OpenAI che ha sostenuto con un investimento di 8 miliardi di dollari.
Anche Meta e Google stanno raddoppiando i loro chip interni, distribuendo circa 1,5 milioni di unità ciascuna dei loro progetti personalizzati.
Ottieni un lavoro ben pagato su Web3 in 90 giorni: la tabella di marcia definitiva