Ironwood, la puce IA 7ème génération de Google

·

·

Ironwood a signé l'alliance Anthropic pour 1 million de TPUs en 2026
Résumer cet article avec :

Google Cloud a lancé jeudi 6 novembre 2025 sa septième génération de Tensor Processing Unit (TPU), nommée Ironwood, présentée comme l’accélérateur IA le plus puissant à ce jour. Cette puce marque un tournant vers l’ère de l’inférence, avec des performances quadruplées par rapport au modèle précédent pour le déploiement de modèles auprès de milliards d’utilisateurs. Dans le même temps, un accord massif avec Anthropic, évalué à des dizaines de milliards de dollars, renforce la position de Google dans la course à l’infrastructure IA.


À retenir

  • Ironwood offre 4x les performances en entraînement et inférence par rapport au TPU v6e.
  • L’AI Hypercomputer de Google supporte jusqu’à 9 216 puces en superpod.
  • Accord Google-Anthropic : accès à 1 million de TPUs d’ici 2026.
  • Capacité totale visée : plus d’1 gigawatt pour les modèles Claude.
  • Valorisation d’Anthropic : 183 milliards de dollars, revenus attendus à 26 milliards en 2026.
  • Choix des TPUs pour leur efficacité énergétique face aux GPUs de Nvidia.

Ce lancement d’Ironwood et l’alliance avec Anthropic interviennent à un moment pivotal pour Google Cloud, alors que l’industrie IA passe de l’entraînement intensif des modèles à leur déploiement massif en inférence. Pour les entreprises et chercheurs européens dépendant de clouds puissants, cela signifie un accès accéléré à des infrastructures scalables, tout en intensifiant la concurrence avec Nvidia. L’enjeu est clair : qui dominera la chaîne d’approvisionnement en IA, avec des implications directes sur les coûts, l’efficacité et la souveraineté numérique en Europe, où les régulations comme le AI Act poussent à des solutions diversifiées.

Lancement d’Ironwood : Vers une inférence IA à grande échelle

Google Cloud a dévoilé Ironwood comme une avancée majeure dans les accélérateurs IA. Cette TPU de septième génération cible l’inférence, phase où les modèles entraînés traitent des requêtes en temps réel pour des applications quotidiennes comme la traduction ou la génération de texte. Disponible dans les semaines suivant l’annonce du 6 novembre 2025, elle répond à la demande croissante de déploiements pour des milliards d’utilisateurs.

Performances et positionnement des nouveaux TPU Ironwood

Les performances d’Ironwood se mesurent en multiples par rapport aux prédécesseurs. Chaque puce délivre 4x plus de puissance pour l’entraînement et l’inférence comparé au TPU v6e, alias Trillium. Face au TPU v5p, le gain atteint 10x en performance de pointe, selon les benchmarks internes de Google.

Cette supériorité repose sur une architecture optimisée pour les modèles de langage étendus (LLM). L’inférence, souvent négligée après l’entraînement, devient le goulot d’étranglement principal dans l’industrie. Ironwood réduit les latences tout en gérant des charges massives, idéal pour des services comme les chatbots ou l’analyse de données en temps réel.

En termes d’ordre de grandeur, une seule puce traite des volumes équivalents à des milliers de serveurs traditionnels. Cela positionne Google comme leader dans l’ère post-entraînement, où les coûts d’exploitation dominent les budgets IA.

Le rôle stratégique de l’AI Hypercomputer et du processeur Axion

L’AI Hypercomputer intègre Ironwood comme couche centrale d’infrastructure. Cette plateforme cloud permet de connecter jusqu’à 9 216 puces en un superpod, formant un cluster capable de simulations IA à l’échelle exaflop. Pour les utilisateurs, cela signifie une scalabilité sans précédent pour des tâches comme la formation de frontier AI.

Parallèlement, Google a lancé les instances Axion, basées sur des CPU Arm Neoverse. Ces processeurs offrent 2x le rapport performance-prix des machines virtuelles x86 actuelles. Utiles pour les workloads hybrides, ils complètent les TPUs en gérant les tâches non-IA, comme le stockage ou l’orchestration.

Ensemble, ces innovations forment un écosystème cohérent. Thomas Kurian, PDG de Google Cloud, a souligné lors de l’annonce que cette combinaison accélère le passage à l’inférence à grande échelle. Pour l’Europe, où les data centers grandissent, cela ouvre des options pour une infrastructure plus efficace énergétiquement.

Le méga-deal avec Anthropic : Un engagement massif en calcul IA

L’accord entre Google Cloud et Anthropic, scellé fin octobre 2025, représente l’un des plus grands investissements en infrastructure IA. Évalué à des dizaines de milliards de dollars, il lie Anthropic à jusqu’à 1 million de TPUs, principalement Ironwood. Ce partenariat pluriannuel vise à propulser les modèles Claude vers de nouvelles frontières.

Montant, échelle et engagement de l’accord pluriannuel

Conclu autour du 23-24 octobre 2025, cet engagement assure à Anthropic une capacité de calcul dépassant 1 gigawatt d’ici 2026. Le déploiement des puces démarrera l’année prochaine, aligné sur les besoins en formation et exécution des prochaines générations de Claude. Pour Anthropic, valorisée à 183 milliards de dollars, cela soutient une croissance explosive, avec des revenus projetés à 26 milliards de dollars annuels en 2026.

Google, qui a déjà investi environ 3 milliards de dollars dans Anthropic, sécurise ainsi des revenus récurrents. L’accord inclut l’accès à des services comme Vertex AI et le Google Cloud Marketplace, favorisant une intégration profonde. Cela marque un virage stratégique pour Google, passant d’investisseur à fournisseur principal.

Objectifs d’Anthropic : Modèles Claude, capacité et revenus

Anthropic utilise ces TPUs pour développer Claude 4, Claude 5 et au-delà. Ces modèles de frontier AI exigent des ressources massives pour répondre à une demande exponentielle de clients en génération de contenu ou analyse. Le focus sur l’inférence permettra des déploiements fluides auprès de millions d’utilisateurs.

Krishna Rao, directeur financier d’Anthropic, a expliqué le choix des TPUs par leur excellent rapport prix-performance et efficacité énergétique, supérieurs aux GPUs de Nvidia. « Les TPUs offrent un avantage clair en coût et consommation pour nos workloads intensifs », a-t-il déclaré lors d’une conférence récente.

Les TPUs de Google surpassent les alternatives en efficacité pour l’entraînement et l’inférence de nos modèles avancés.

Krishna Rao, directeur financier d’Anthropic.

Enjeux stratégiques : Google défie Nvidia dans la guerre des puces

Ce double mouvement – lancement technique et alliance commerciale – positionne Google comme challenger direct de Nvidia dans la guerre des puces IA. Alors que les GPUs dominent, les TPUs gagnent du terrain grâce à leur spécialisation. Pour l’industrie, cela diversifie les options, réduisant la dépendance à un seul fournisseur.

L’impact sur la concurrence et le rôle double de Google

L’accord est vu comme un structural win pour Google Cloud. Il verrouille Anthropic dans son écosystème, générant des milliards en revenus via l’usage prolongé des TPUs. De plus, les données de télémétrie issues des charges Claude alimenteront les itérations futures des puces Google.

En tant qu’investisseur et fournisseur, Google consolide sa place dans la chaîne d’approvisionnement IA. Cela contrecarre la dominance de Nvidia, dont les GPUs représentent encore la majorité du marché. Pour l’Europe, cette concurrence favorise des prix plus bas et une meilleure résilience des clouds.

La stratégie de diversification multi-cloud d’Anthropic

Malgré l’engagement avec Google, Anthropic adopte une approche multi-cloud. Amazon Web Services (AWS) reste son partenaire principal pour la formation, avec une promesse de 8 milliards de dollars en investissements. La société utilise aussi les puces Trainium d’AWS et les GPUs de Nvidia.

Cette diversification atténue les risques de verrouillage. Elle reflète une tendance plus large : les acteurs IA évitent la mono-dépendance pour des raisons de coût et de performance. Ainsi, l’alliance Google-Anthropic renforce la concurrence sans monopoliser le marché.


Sur le même Thème :

Laisser un commentaire