À l’heure où chaque milliardième de seconde compte, AMD a fait de l’exascale un point de départ et non une fin. Avec le superordinateur El Capitan de 1,7 exaflops et Frontier de 1,35 exaflops, la société a déjà pris la tête du Top 500. Aujourd’hui, la cible est le yottaflops, un palier mille fois plus haut, et l’industrie a bien plus à gagner que de simples records de fréquence ou de puissance brute.
À retenir
- AMD vise le yottaflops en 2026, après deux systèmes exascale.
- Le MI325X, lancé fin 2024, dépasse le H100 de 1,3 fois en inférence.
- La stack ROCm 7.0 rend compatibles Llama‑3 et Hugging Face sur GPU AMD.
À l’ère du calcul intensif, la promesse du yottaflops ne se limite pas à une course aux chiffres. Elle marque un basculement vers des applications qui exigent des flux d’information gigantesques : simulations climatiques à haute résolution, biologie computationnelle ou entraînement de modèles de langage géants. Le moment est venu d’évaluer non seulement le matériel, mais aussi l’écosystème qui le supporte – logiciels, réseaux et efficacité énergétique – et de mesurer la démocratisation possible pour les datacenters de moyenne taille.
Vers l’ère du yottaflops : un plan audacieux
L’énorme montée en puissance d’AMD s’appuie sur une stratégie d’accélération annuelle introduite en juin 2024. Chaque année, un nouvel accélérateur Instinct arrive sur le marché, augmentant fortement les capacités de calcul et réduisant le délai de mise en production des infrastructures. Cette cadence permet de rester à la pointe même lorsque les exigences en matière d’IA se multiplient et que les modèles deviennent plus lourds à entraîner.

Le rôle des processeurs EPYC de 5e génération
Les EPYC Venice (Zen 6) et leurs prédécesseurs Zen 5, jusqu’à 192 cœurs par processeur, ont vu leur IPC progresser de 17 % à 37 % pour les charges d’IA. Cette amélioration est essentielle pour soutenir les ambitions yottaflops, car le processeur et la mémoire doivent rester synchronisés à des échelles inédites. Sans cette base CPU, les accélérateurs GPU les plus puissants resteraient sous‑exploités dans les datacenters.
L’architecture CDNA en évolution
L’architecture CDNA 4 prévue en 2025 et la future CDNA « Next » de 2026 introduisent des gains de performance majeurs, en particulier sur les modèles Mixture of Experts (MoE). En 2026, la série MI400 vise un doublement des performances sur les MoE par rapport aux premiers modèles MI300X, ouvrant la voie à des réseaux de neurones plus profonds, plus larges et plus efficients en énergie.
Une feuille de route GPU qui redéfinit la performance
AMD ne se contente plus de vendre des puces ; l’entreprise pousse des solutions complètes, pensées pour transformer la façon dont les datacenters abordent le calcul intensif. L’objectif est d’aligner matériel, logiciel et réseau afin de proposer une alternative crédible aux plateformes dominantes, y compris pour les opérateurs de taille intermédiaire.
MI325X : le point de départ de la nouvelle génération
Disponible au quatrième trimestre 2024, le MI325X dispose de 288 Go de mémoire HBM3E et d’une bande passante de 6 To/s, offrant 1,3 fois les performances d’inférence du NVIDIA H100. Ce niveau d’architecture permet déjà aux modèles quantifiés en FP4/FP6 d’atteindre des vitesses de génération de tokens très élevées, y compris sur des modèles de plusieurs centaines de milliards de paramètres.
MI350X et MI400X : de la promesse à la réalité
La série MI350, gravée en 3 nm, promet jusqu’à 35 fois plus de performances en inférence par rapport à la MI300. Parallèlement, la MI400, attendue pour 2026, introduira l’architecture CDNA « Next », ciblant un gain pouvant atteindre 10 fois sur les modèles MoE. Ces avancées ne se limitent pas à la puissance brute : elles intègrent aussi des optimisations de quantification, des bus mémoire ultra rapides et une meilleure utilisation de la bande passante réseau.
L’intégration verticale avec Helios
La plateforme Helios, prévue pour le second semestre 2025, combine les GPU MI350, les EPYC Venice et les cartes réseau Pensando Pollara 400 (Ultra Ethernet). Ce calcul à l’échelle du rack figure déjà dans le top 20 du Green500, preuve que la performance ne se mesure pas seulement en FLOPS mais aussi en efficacité énergétique. Pour les opérateurs, cette intégration verticale simplifie le déploiement et réduit les risques d’incompatibilités entre composants critiques.
L’écosystème logiciel : ROCm, quantification et démocratisation
La compétitivité de l’offre AMD repose aussi sur sa capacité à ouvrir son stack aux développeurs et aux grands acteurs du secteur. Sans écosystème logiciel robuste, les accélérateurs resteraient des pièces de silicium difficiles à intégrer, surtout pour les équipes qui viennent de CUDA et de l’univers NVIDIA.

ROCm 7.0 : un levier d’ouverture
Sortie au troisième trimestre 2025, ROCm 7.0 offre jusqu’à un triplement des performances sur Llama 2 et prend en charge les formats FP4/FP6. Cette version a déjà été validée par Meta pour Llama 3 et par Microsoft Azure, qui propose des instances ND MI300X V5 intégrées à son offre cloud. Pour les développeurs, cela signifie une compatibilité plus large des frameworks existants et une réduction du travail de portage des modèles.
Partenariats et tests massifs
Hugging Face a testé plus de 700 000 modèles sur GPU AMD, et l’AMD Developer Cloud offre un accès gratuit à des MI300 pour accélérer l’adoption. Ces initiatives permettent à la fois de consolider la compatibilité logicielle et de démocratiser un matériel qui, jusqu’alors, semblait réservé à quelques grands acteurs du cloud. Les retours de cette base d’utilisateurs servent aussi de levier pour affiner la stack ROCm à un rythme soutenu.
Une vision modulaire et durable
Le standard Universal Baseboard assure la compatibilité entre générations de cartes, réduisant les coûts de mise à jour pour les datacenters. Couplé aux réseaux Pensando Pollara et à l’efficience énergétique mise en avant par le classement Green500, l’écosystème d’AMD propose un modèle d’exploitation évolutif, capable d’accompagner la croissance des charges IA. Dans un contexte où la souveraineté numérique devient un enjeu politique et industriel, cette modularité est un argument de poids.
Contre‑point : le coût et la complexité restent un frein
Malgré ces avancées, le prix des accélérateurs, surtout ceux équipés de mémoire HBM3E très capacitive, demeure élevé, et la migration vers l’architecture CDNA impose souvent un ré‑échantillonnage des logiciels. Certains experts craignent que cette courbe d’apprentissage freine l’adoption dans les petites et moyennes entreprises, déjà sous pression sur les coûts d’infrastructure. Néanmoins, le modèle de cloud AMD, combiné à l’ouverture de ROCm, atténue ces barrières en permettant un accès à moindre coût et des phases de test sans investissement initial massif.
Alors que le premier superordinateur yottaflops pourrait voir le jour dès 2028, la trajectoire que dessine AMD aujourd’hui montre que le calcul intensif devient une réalité plus accessible. L’impact sur la recherche, l’IA et l’automatisation n’est plus une question de « si », mais de « quand » chaque acteur pourra l’intégrer dans ses propres infrastructures.

















Laisser un commentaire
Vous devez vous connecter pour publier un commentaire.