Amazon ha sviluppato i propri chip AI per ridurre i costi, il che ha anche contribuito ad aumentare la redditività di Amazon Web Services (AWS). Tuttavia, il colosso dell’e-commerce sta lottando per sviluppare chip AI che possano rivaleggiare con i chip standard di Nvidia.

Problemi di migrazione dei progetti, lacune di compatibilità e scarso utilizzo sono alcune delle preoccupazioni che rallentano l’adozione del chip AI di Amazon. La situazione ha messo in gioco anche gli ingenti ricavi che Amazon genera dal suo business nel cloud. Le sfide che Amazon deve affrontare sono state identificate attraverso documenti riservati e fonti vicine alla questione, come riportato Business Insider.

I chip IA interni di Amazon incontrano un’adozione soffocata

Trainium e Inferentia sono i chip top di gamma progettati da Amazon che hanno debuttato verso la fine dello scorso anno. La pubblicazione riportava che l’anno scorso il tasso di adozione di Trainium tra i clienti di AWS era solo dello 0,5% rispetto a quello delle unità di elaborazione grafica di Nvidia.

Leggi anche: Amazon Profit supera le aspettative di Wall Street mentre l'intelligenza artificiale generativa di AWS fa miracoli

Secondo il rapporto, Amazon ha effettuato la valutazione per misurare la percentuale di utilizzo di diversi chip AI attraverso i suoi servizi AWS nell’aprile 2024. Allo stesso tempo, il tasso di adozione di Inferentia è stato leggermente più alto, pari al 2,7%. Inferentia è un chip speciale progettato per l'inferenza, un'attività di intelligenza artificiale che di solito si riferisce al processo di calcolo per l'utilizzo del modello di intelligenza artificiale da parte dei consumatori finali. Il rapporto menzionava un documento interno che affermava ciò;

“I primi tentativi da parte dei clienti hanno messo in luce punti di attrito e soffocato l’adozione”.

L’affermazione di cui sopra si riferisce alle sfide che i grandi clienti del cloud hanno dovuto affrontare durante la transizione ai chip personalizzati di Amazon. La piattaforma CUDA di Nvidia è considerata più attraente per i clienti e il rapporto la identifica come una delle ragioni principali.

Lo sviluppo di chip AI personalizzati di Amazon è sottoposto a revisione interna

AWS, il più grande fornitore di servizi cloud al mondo, sta ora sviluppando i suoi chip per computer fatti in casa per facilitare le operazioni. Amazon, a volte, ostenta i suoi sforzi sui chip AI. Tuttavia, il quadro mostrato nei documenti è diverso da quello previsto dall’azienda.

Il Ministro delle comunicazioni e dell'informazione di Singapore, Tan Kiat How, con dirigenti e partner di AWS. Fonte: AWS.

I documenti interni affermano che l’azienda sta lottando con un lento tasso di adozione, ma il CEO di Amazon ha opinioni diverse. Alla conferenza sugli utili del primo trimestre, il CEO di Amazon Andy Jassy ha affermato che la domanda di chip AWS era elevata.

"Disponiamo della più ampia selezione di istanze di elaborazione NVIDIA in circolazione, ma la domanda per il nostro silicio personalizzato, il training e l'inferenza è piuttosto elevata, dati i vantaggi vantaggiosi in termini di rapporto prezzo-prestazioni rispetto alle alternative disponibili."

Andy Jassy

Jassy ha anche menzionato i primi ad aver adottato i chip di silicio AWS nella sua lettera agli investitori, affermando che "abbiamo già diversi clienti che utilizzano i nostri chip AI, tra cui Anthropic, Airbnb, Hugging Face, Qualtrics, Ricoh e Snap". Allo stesso tempo, Anthropic è un caso completamente diverso perché Amazon è il più grande sostenitore della startup. Il colosso del cloud ha investito 4 miliardi di dollari in Anthropic e l’accordo di investimento lo vincola a utilizzare il silicio progettato da AWS.

Uno dei principali componenti AWS sfrutta le GPU Nvidia

Amazon Web Services offre una varietà di processori, dai chip Grass Hopper di Nvidia ad AMD e Intel. La maggior parte della sua redditività deriva dalla progettazione dei propri chip per data center, che aiuta a risparmiare sui costi evitando di acquistare GPU da Nvidia.

Leggi anche: Nvidia sperimenta una crescita notevole in mezzo alla crescente domanda di AI e GPU

Amazon ha lanciato il suo primo chip AI, Inferntia, nel 2018, ma Nvidia è ancora leader nell'offrire soluzioni che sono più ampiamente adottate da diversi settori. AWS, Microsoft e Google sono alcuni dei maggiori clienti di Nvidia. Tutti questi giganti noleggiano GPU tramite i loro servizi cloud. 

A marzo, Adam Selipsku, CEO di AWS, ha partecipato a Nvidia GTC 2023. Entrambe le società hanno fatto un annuncio congiunto incentrato sulla loro collaborazione strategica per promuovere l'intelligenza artificiale generativa. 

"La profonda collaborazione tra le nostre due organizzazioni risale a più di 13 anni fa, quando insieme abbiamo lanciato la prima istanza cloud GPU al mondo su AWS, e oggi offriamo la più ampia gamma di soluzioni GPU NVIDIA per i clienti."

Selipska

La piattaforma di Nvidia, chiamata Cuda, è solitamente preferita dagli sviluppatori. Poiché Nvidia ha dedicato molti anni di tempo e sforzi alla sua creazione, e l'industria lo ha adottato, il che rende loro la gestione delle cose più semplice. D'altra parte, Amazon deve ancora risolvere questo enigma con tentativi ed errori.

Reportage criptopolita di Aamir Sheikh