Lors de l'événement Google Cloud Next '24 à Las Vegas, Google Cloud (GCP) a présenté une série de nouvelles fonctionnalités, notamment la puce Axion personnalisée basée sur Arm et les accélérateurs d'IA.

En termes d'accélération de l'IA, Google travaillera avec Nvidia pour intégrer la plate-forme Nvidia Blackwell dont le lancement est prévu en 2025, y compris le GPU ultra-rapide HGX B200 et le NBL72 GB200, le GPU idéal pour les tâches d'IA exigeantes en performances, allant jusqu'à la formation de grande envergure. modèles de langage (LLM).

Pour les besoins actuels de formation LLM, Google présente A3 Mega, une combinaison de GPU H100 standard et d'un nouveau réseau, offrant le double de bande passante par GPU. Une autre variante est A3 Confidential qui donne la priorité à la sécurité des données sensibles, en chiffrant les données de bout en bout lors de la transmission entre les processeurs Intel.

Google a également présenté Cloud TPU v5p, le processeur accéléré par l'IA le plus puissant développé par la société, avec des performances de calcul en virgule flottante deux fois supérieures et une bande passante mémoire trois fois supérieure à celle du système de génération précédente.

Outre les puces, Google propose également des options de stockage optimisées pour l'IA, comme Hyperdisk ML, qui peuvent améliorer les temps de chargement des modèles jusqu'à 3,7 fois.

De plus, Google présentera également de nouvelles instances C4 et N4 à usage général, alimentées par les processeurs Intel Xeon de 4e et 5e génération, ainsi que des machines nues C3, des versions nues X4 optimisées pour la mémoire et une machine virtuelle Z3 optimisée pour le stockage.

Les innovations présentées lors de Google Cloud Next ’24 démontrent l’engagement de Google Cloud à fournir aux clients les solutions de cloud computing les plus puissantes, les plus flexibles et les plus efficaces.