google cloud

Google Cloud muscle son infrastructure IA avec TPU Ironwood et Cloud WAN

Lancement du Google Cloud Next 2025 à Las Vegas

Le coup d’envoi de l’évènement Google Cloud Next 2025 a été donné à Las Vegas du 9 au 11 avril. Près de 32 000 participants sont attendus pour cet événement majeur. C’est Sundar Pichai, PDG d’Alphabet, qui a ouvert la conférence, rappelant l’importance croissante d’une infrastructure performante et à faible latence pour soutenir les avancées en intelligence artificielle.

Dans cette optique, le dirigeant a annoncé des investissements massifs à hauteur de 75 milliards de dollars dans la création de nouveaux datacenters, visant à contrer les projets concurrents comme Stargate (piloté par OpenAI, Oracle et SoftBank) et à répondre aux besoins croissants de puissance pour l’IA.

Ironwood : la nouvelle génération de TPU pour l’inférence

Google Cloud a dévoilé Ironwood, la 7e génération de ses TPU (Tensor Processing Units), spécialement conçue pour les tâches d’inférence, qui consistent à produire des résultats à partir d’un modèle d’IA préalablement entraîné. Cette puce succède au modèle Trillium lancé en 2024.

Caractéristiques clés d’Ironwood :

  • Disponibles en pods de 256 à 9 126 puces

  • Capacité de calcul jusqu’à 45,2 exaflops

  • Chaque puce peut délivrer 4,16 Tflops

  • Jusqu’à 192 Go de mémoire HBM par pod, avec une bande passante de 7,2 To/s

  • Communication inter-puces optimisée via ICI (1,2 To/s)

Ironwood intègre aussi SparseCore, un accélérateur spécialisé dans les embeddings de grande taille, et Pathway, un environnement d’exécution développé par DeepMind pour le calcul distribué sur TPU.

Des instances IA renforcées avec les puces Nvidia Blackwell

Bien que Google mette en avant ses propres puces, Nvidia reste un partenaire stratégique. Le cloud de Google prend désormais en charge :

  • Les instances A4 avec les accélérateurs Blackwell B200

  • Les nouvelles instances A4X (en preview), basées sur l’architecture GB200 NVL72, combinant CPU Grace (Arm) et GPU Blackwell

L’infrastructure bénéficie aussi de Cluster Director, un outil pour gérer des grappes d’accélérateurs IA comme une seule entité optimisée.

Google Cloud annonce également qu’il sera le premier fournisseur à proposer les GPU Rubin de Nvidia, récemment présentés lors de la GTC.

Cloud WAN : un réseau mondial de haute performance au service de l’IA

Pour accompagner ses offres IA, Google présente Cloud WAN, une solution réseau reposant sur l’infrastructure mondiale de Google :

  • Plus de 2 millions de km de fibre optique

  • 33 câbles sous-marins

  • 202 points de présence

Cloud WAN vise les entreprises ayant des besoins de connectivité inter-régionaux ou multi-sites. Il propose :

  • Cloud Interconnect : pour relier les datacenters des entreprises à Google Cloud

  • Cross-Cloud Interconnect : pour le multicloud avec des connexions directes à d’autres fournisseurs

  • Cross-Site Interconnect (en preview) : connexions privées point à point jusqu’à 100 Gbps, pour des échanges rapides entre différents sites

Conclusion : Une stratégie IA affirmée face à la concurrence

Avec l’introduction d’Ironwood, l’extension de l’offre Nvidia, et la consolidation du réseau via Cloud WAN, Google Cloud affiche une volonté claire de dominer l’infrastructure IA mondiale, tout en se préparant à une compétition féroce dans un secteur en pleine explosion.

Source de l’actu : LeMondeInformatique