Giganti della tecnologia come Intel, Google, Microsoft e Meta stanno collaborando per creare uno standard industriale per la connessione dei chip AI nei data center, con l'obiettivo di ridurre la dipendenza da Nvidia.

Il 15 maggio è stato lanciato ufficialmente UALink Promoter Group (UALink) con la partecipazione di AMD, Hewlett Packard Enterprise, Broadcom, Cisco e molti altri nomi famosi (tranne Arm e Nvidia). Il loro obiettivo è sviluppare uno standard aperto per connettere i chip acceleratori di intelligenza artificiale nei data center, per rompere la dipendenza dalla tecnologia proprietaria di Nvidia.

La prima versione, UALink 1.0, collegherà fino a 1.024 GPU – il tipo più popolare di chip acceleratore AI – in un “pod” di computer (definito come uno o più rack di server). Costruito su standard aperti come Infinity Fabric di AMD, UALink 1.0 consente il trasferimento diretto dei dati tra la memoria dei chip acceleratori AI, aumentando così la velocità di elaborazione e riducendo la latenza di trasferimento dei dati rispetto ad altri standard di connessione esistenti.

Si prevede che nel terzo trimestre del 2023 il gruppo istituirà il consorzio UALink per supervisionare lo sviluppo dello standard UALink. La versione UALink 1.0 sarà disponibile contemporaneamente per le aziende partecipanti, mentre è previsto il lancio di una versione aggiornata con larghezza di banda maggiore, UALink 1.1, nel quarto trimestre del 2024.

L'assenza più notevole dal gruppo è Nvidia, il più grande produttore di chip AI al mondo con una quota di mercato stimata tra l'80 e il 95%. È comprensibile che Nvidia non sia interessata a UALink. L’azienda dispone di una propria tecnologia di connessione proprietaria per le GPU e occupa una posizione dominante sul mercato, con i ricavi dei data center (compresi i chip AI) in crescita di oltre il 400% su base annua.

Oltre ad AMD e Intel, i maggiori beneficiari di UALink sono probabilmente Microsoft, Meta e Google, aziende che hanno speso miliardi di dollari in GPU Nvidia per gestire servizi cloud e addestrare modelli di intelligenza artificiale. Tutti e tre stanno cercando di trovare alternative a Nvidia, un partner sempre più forte e a rischio monopolio nel segmento dell'hardware AI.

Secondo Gartner, il valore di mercato dei chip di accelerazione AI nei server raggiungerà quest'anno i 21 miliardi di dollari e si prevede che aumenterà fino a 33 miliardi di dollari entro il 2028. Si prevede che anche le entrate dei chip AI raggiungeranno i 33,4 miliardi di dollari quest'anno.

Google sta sviluppando i propri chip TPU e Axion allo scopo di addestrare e utilizzare modelli di intelligenza artificiale. Amazon possiede anche diverse linee di chip AI. L'anno scorso, Microsoft si è unita alla corsa con Maia e Cobalt. Anche Meta non è fuori gioco con le proprie linee di chip di accelerazione.

Recentemente, si dice che Microsoft e OpenAI abbiano pianificato di spendere almeno 100 miliardi di dollari per l'addestramento dei supercomputer basati sull'intelligenza artificiale, utilizzando le future versioni dei chip Cobalt e Maia. Questi chip avranno bisogno di una soluzione di connettività e UALink potrebbe essere la risposta.

La nascita di UALink segna una forte concorrenza nel mercato dei chip AI. Se UALink riuscirà a sfidare Nvidia dipende dalla sua capacità di attrarre più membri, dalla velocità di sviluppo degli standard e dall'accettazione del mercato.