Amazon Web Services (AWS) a mis en service son projet Rainier, le plus vaste cluster de calcul pour l’intelligence artificielle jamais construit par l’entreprise. Ce mégaprojet, opérationnel en moins d’un an, équipe déjà les entraînements de modèles comme Claude d’Anthropic avec 500 000 puces Trainium2. Dédié à booster les capacités de l’IA générative, il marque une étape clé dans la course mondiale aux infrastructures numériques.
À retenir
- Project Rainier opérationnel avec 500 000 puces Trainium2 dès le lancement.
- Objectif : dépasser un million de processeurs d’ici fin 2025 pour Anthropic.
- Investissement total de 11 milliards de dollars (environ 9,46 milliards d’euros).
- Site situé dans l’Indiana rural, sur 1 200 acres près du lac Michigan.
- Partenariat AWS-Anthropic évalué à des dizaines de milliards de dollars.
- Claude alimente plus de 300 000 entreprises, avec croissance multipliée par 300 en deux ans.
Le lancement de Rainier arrive à un moment où la demande en puissance de calcul pour l’IA générative explose, forçant les géants du cloud à investir massivement dans des infrastructures dédiées. Ce projet illustre l’innovation d’AWS en silicium personnalisé, visant à réduire la dépendance aux fournisseurs externes comme Nvidia et à optimiser les coûts pour des clients comme Anthropic. Pour les entreprises européennes cherchant à scaler leurs modèles d’IA, Rainier pose les bases d’une efficacité accrue, potentiellement accessible via des services cloud adaptés au marché continental. Son impact se mesure déjà dans la croissance fulgurante de Claude, qui démocratise l’accès à des outils IA performants sans exiger d’investissements colossaux en hardware.
Lancement de Rainier, un déploiement express dans l’Indiana
Le projet Rainier transforme un paysage agricole en hub technologique, symbolisant la rapidité avec laquelle AWS déploie ses ambitions en IA.
Un mégaprojet opérationnel en temps record
Amazon Web Services a activé son cluster de calcul IA baptisé Project Rainier il y a quelques semaines. Annoncé en 2024, ce déploiement a pris moins d’un an pour devenir opérationnel, un délai record pour une infrastructure de cette échelle. Matt Garman, PDG d’AWS, a confirmé que le cluster entraîne déjà les modèles internes de l’entreprise, dissipant les craintes sur le financement et l’approvisionnement énergétique.
Ron Diamant, ingénieur en chef du Trainium, décrit Rainier comme l’un des projets les plus ambitieux d’AWS. Le cluster repose sur une architecture intégrée qui relie des milliers de serveurs pour des tâches d’entraînement massif. Cette mise en service rapide souligne la capacité d’AWS à passer de la conception à l’exploitation en un temps compressé.

Localisation et envergure de l’investissement
Le site choisi se trouve sur 1 200 acres dans une zone rurale de l’Indiana, au bord du lac Michigan. Matt Garman évoque une transition fulgurante, passant de champs de maïs à des centres de données en quelques mois. Cette localisation offre un accès à des ressources énergétiques stables, essentielles pour un cluster consommant des quantités massives d’électricité.
L’investissement atteint 11 milliards de dollars, soit environ 9,46 milliards d’euros, faisant de Rainier le plus grand projet d’infrastructure d’AWS à ce jour. Le cluster est conçu pour scaler rapidement, avec des extensions prévues pour absorber la demande croissante en calcul IA. Pour l’Europe, ce modèle pourrait inspirer des implantations similaires en zones périurbaines, adaptées aux normes réglementaires comme le RGPD.
Trainium2, le silicium clé pour une efficacité optimisée
La puce Trainium2 forme le cœur de Rainier, permettant à AWS de contrôler l’ensemble de la chaîne d’infrastructure pour des gains en performance et en coût.
Architecture et échelle du cluster
Rainier déploie environ 500 000 puces Trainium2 à son lancement, avec un objectif de plus d’un million d’ici la fin de 2025. Ce cluster, qualifié d’EC2 UltraCluster of Trainium2 UltraServers, intègre des UltraServers composés de quatre serveurs physiques chacun équipés de 16 puces. Les connexions NeuronLinks assurent un débit élevé entre ces composants, facilitant l’entraînement de modèles à grande échelle.
Prasad Kalyanaraman, vice-président des services d’infrastructure chez AWS, insiste sur l’intégration verticale qui permet d’optimiser continuellement le système.
«Contrôler la pile depuis les couches inférieures de l’infrastructure est essentiel pour réduire les coûts et améliorer l’efficacité énergétique.»
Prasad Kalyanaraman, vice-président des services d’infrastructure chez AWS.
Cette architecture cible les charges de travail d’Anthropic, multipliant par cinq la puissance de calcul disponible pour ses modèles.
Optimisation pour l’entraînement et l’efficacité énergétique
Le silicium personnalisé Trainium2 excelle dans l’entraînement et l’inférence des modèles IA génératifs, avec une consommation énergétique inférieure aux GPU standards. AWS ajuste en continu le hardware et le logiciel pour minimiser les dépenses opérationnelles. Pour les utilisateurs européens, cela se traduit par des tarifs cloud potentiellement plus bas, convertis en euros pour des projets locaux.
Le cluster vise une puissance en ligne supérieure à 1 gigawatt d’ici 2026, un seuil qui exige des innovations en refroidissement et en alimentation. Cette efficacité énergétique répond aux préoccupations environnementales croissantes en Europe, où les data centers font l’objet de régulations strictes sur les émissions. Rainier démontre comment le contrôle interne du silicium peut aligner performance et durabilité.

Partenariat AWS-Anthropic, un levier pour Claude
L’alliance entre AWS et Anthropic propulse les modèles comme Claude vers de nouveaux sommets, dans un contexte de demande exponentielle pour l’IA d’entreprise.
Le rôle de Claude et la demande croissante
Rainier est dédié à l’entraînement et au déploiement de Claude, le chatbot d’Anthropic, et de ses futures itérations. Mike Krieger, chef de produit chez Anthropic, souligne la pression sur les ressources.
«Nous avons besoin de toute la puissance de traitement disponible pour répondre à la forte demande de nos modèles.»
Mike Krieger, chef de produit chez Anthropic.
Claude équipe déjà plus de 300 000 entreprises, une croissance multipliée par 300 en deux ans. Le nombre de grands clients générant plus de 100 000 dollars de revenus annuels a septuplé en un an. Le produit Claude Code a généré 500 millions de dollars annualisés en huit semaines, illustrant l’impact commercial rapide.
Investissements croisés et portée du partenariat
Amazon a investi environ 8 milliards de dollars, soit 6,88 milliards d’euros, dans Anthropic, tandis qu’Anthropic s’engage à doubler ses dépenses en infrastructure AWS. Le partenariat global atteint des dizaines de milliards de dollars, avec Rainier comme pilier physique. Cette collaboration étend la portée de Claude à des applications d’entreprise en Europe, facilitant l’automatisation sans hardware dédié.
Holger Muller, analyste chez Constellation Research, voit en Rainier les fondations d’un superordinateur.
«AWS est en bonne voie de construire son premier superordinateur dédié à l’IA.»
Holger Muller, analyste chez Constellation Research.
Cette alliance renforce la position d’AWS dans la course à l’IA, tout en accélérant la démocratisation des modèles avancés.
La stratégie multi-cloud d’Anthropic face à la concurrence
Malgré l’ampleur de Rainier, Anthropic diversifie ses ressources pour éviter les risques de dépendance unique.
Nécessité du multi-cloud pour les mégamodèles
Anthropic adopte une approche multi-cloud, combinant AWS avec des GPU Nvidia et les TPU de Google Cloud. Cette stratégie répartit les tâches de recherche, d’entraînement et d’inférence sur plusieurs plateformes. Récemment, un partenariat avec Alphabet donne accès à des TPU, évalué à des dizaines de milliards de dollars, en plus des 3 milliards injectés par Google.
Ce choix répond à la volatilité des chaînes d’approvisionnement en puces et à la concurrence féroce pour les ressources. Pour l’Europe, où la souveraineté numérique prime, le multi-cloud offre une résilience accrue face aux disruptions géopolitiques. Anthropic équilibre ainsi innovation et stabilité.
Croissance et performance commerciale de Claude
La diversification soutient la performance de Claude, qui passe d’un outil expérimental à un pilier d’entreprise. Les revenus de Claude Code confirment son adoption rapide par les développeurs. D’ici 2026, la puissance cumulée pourrait transformer les workflows automatisés en Europe, avec des adaptations locales pour la conformité.
Alors que Rainier propulse Anthropic en avant, la course à l’infrastructure IA s’intensifie, promettant des avancées qui redessineront l’automatisation quotidienne.

















Laisser un commentaire
Vous devez vous connecter pour publier un commentaire.