Durante l'evento Google Cloud Next '24 a Las Vegas, Google Cloud (GCP) ha introdotto una serie di nuove funzionalità, in particolare il chip Axion personalizzato basato su Arm e gli acceleratori AI.

In termini di accelerazione dell'intelligenza artificiale, Google lavorerà con Nvidia per integrare la piattaforma Nvidia Blackwell prevista per il lancio nel 2025, inclusa la GPU superveloce HGX B200 e NBL72 GB200, la GPU ideale per attività di intelligenza artificiale esigenti in termini di prestazioni, come l'allenamento di grandi dimensioni modelli linguistici (LLM).

Per le attuali esigenze di formazione LLM, Google introduce A3 Mega, una combinazione di GPU H100 standard e nuove reti, che fornisce il doppio della larghezza di banda per GPU. Un'altra variante è A3 Confidential che dà priorità alla sicurezza dei dati sensibili, crittografando i dati end-to-end durante la trasmissione tra CPU Intel.

Google ha anche introdotto Cloud TPU v5p, il più potente processore con accelerazione AI sviluppato dall'azienda, con il doppio delle prestazioni di calcolo in virgola mobile e il triplo della larghezza di banda della memoria rispetto al sistema della generazione precedente.

Oltre ai chip, Google offre anche opzioni di archiviazione ottimizzate per l'intelligenza artificiale come Hyperdisk ML, che può migliorare i tempi di caricamento dei modelli fino a 3,7 volte.

Inoltre, Google introdurrà anche nuove istanze C4 e N4 per uso generico, basate sui processori Intel Xeon di quarta e quinta generazione, insieme a macchine bare metal C3, versioni bare metal X4 ottimizzate per la memoria e macchina virtuale Z3 ottimizzata per lo storage.

Le innovazioni presentate a Google Cloud Next ’24 dimostrano l’impegno di Google Cloud nel fornire ai clienti le soluzioni di cloud computing più potenti, flessibili ed efficienti.