În timpul evenimentului Google Cloud Next ’24 din Las Vegas, Google Cloud (GCP) a introdus o serie de funcții noi, în special cipul Axion personalizat bazat pe Arm și acceleratoarele AI.

În ceea ce privește accelerarea AI, Google va colabora cu Nvidia pentru a integra platforma Nvidia Blackwell care va fi lansată în 2025, inclusiv GPU-ul super-rapid HGX B200 și NBL72 GB200, GPU-ul ideal pentru sarcini de AI care necesită performanță la fel de mare modele de limbaj (LLM).

Pentru nevoile actuale de formare LLM, Google introduce A3 Mega – o combinație de GPU H100 standard și o nouă rețea, oferind o lățime de bandă dublă per GPU. O altă variantă este A3 Confidential care prioritizează securitatea datelor sensibile, criptând datele end-to-end în timpul transmisiei între procesoarele Intel.

De asemenea, Google a introdus Cloud TPU v5p, cel mai puternic procesor accelerat de AI dezvoltat de companie, cu o performanță de calcul în virgulă mobilă de două ori mai mare și o lățime de bandă de memorie de trei ori mai mare decât generația anterioară.

Pe lângă cipuri, Google oferă și opțiuni de stocare optimizate pentru AI, cum ar fi Hyperdisk ML, care poate îmbunătăți timpii de încărcare a modelului de până la 3,7 ori.

În plus, Google va introduce și noi instanțe de uz general C4 și N4, alimentate de procesoarele Intel Xeon din a 4-a și a 5-a generație, împreună cu mașini bare metal C3, versiuni bare metal optimizate pentru memorie X4 și mașină virtuală Z3 optimizată pentru stocare.

Inovațiile de la Google Cloud Next ’24 demonstrează angajamentul Google Cloud de a oferi clienților cele mai puternice, flexibile și eficiente soluții de cloud computing.