Alors que les géants américains de l’IA dominent encore le marché avec des modèles coûteux et des architectures fermées, une licorne chinoise vient de bousculer l’ordre établi. Le MiniMax M2.5, dévoilé le 13 février 2026, n’est pas seulement un nouveau modèle : c’est une déclaration de guerre économique. Avec des performances proches des leaders comme Claude Opus 4.6 et des coûts divisés par 20, il incarne la promesse d’une intelligence artificielle « too cheap to meter » – si bon marché qu’elle devient une commodité, comme l’électricité ou l’eau. Pour les entreprises, les développeurs et même les startups, cela pourrait marquer le début d’une nouvelle ère : celle où l’IA n’est plus un luxe, mais une infrastructure de base, intégrée à tous les métiers.
À retenir
- Le MiniMax M2.5 et sa version Lightning (100 TPS en crête) s’illustrent par une productivité mesurée en conditions réelles grâce à l’apprentissage par renforcement (RL) dans des environnements industriels complexes.
- Avec 230 milliards de paramètres en architecture Mixture-of-Experts (MoE), il surpasse Claude 3.5 Sonnet sur les benchmarks de codage (80,2 % sur SWE-Bench Verified) tout en restant en poids publiés.
- Son coût d’utilisation est 10 à 20 fois inférieur à celui de GPT-5 ou Claude Opus 4.6 : environ 1 $ par heure en usage continu, ouvrant la voie à des agents IA autonomes 24/7.
- Intégré à MiniMax Agent, le modèle automatise déjà 30 % des tâches internes (R&D, ventes, RH) et s’impose comme un « stagiaire IA » polyvalent et permanent.
- MiniMax, fondée en 2022, a réalisé l’IPO la plus rapide du secteur à Hong Kong en janvier 2026, portée par des investissements sud-coréens massifs (20 millions de dollars en quelques jours).
- Son écosystème (Hailuo pour la vidéo, Talkie pour les compagnons IA) génère désormais 70 % de ses revenus à l’international, confirmant son statut de challenger global.
L’annonce du MiniMax M2.5 n’est pas qu’une avancée technique : c’est un tournant stratégique dans la guerre des modèles d’IA. Jusqu’ici, les entreprises devaient choisir entre deux options peu satisfaisantes : payer des sommes élevées pour accéder aux performances des GPT-5 ou de Claude Opus 4.6, ou se contenter de solutions open source moins puissantes. Avec le M2.5, MiniMax brise ce dilemme en combinant des performances de pointe et une accessibilité inédite. Pour les développeurs, les PME et même les grands groupes soucieux de leurs coûts, cela peut servir de déclencheur : l’IA n’est plus réservée aux laboratoires ni aux multinationales. Elle devient un outil utilisable à grande échelle, sans contrainte budgétaire, y compris pour des usages quotidiens.
Ce qui rend ce modèle particulièrement décisif, c’est sa capacité à résoudre des problèmes concrets, et non plus seulement à briller sur des benchmarks académiques. Grâce à l’apprentissage par renforcement (RL), le M2.5 a été entraîné dans des environnements simulant des centaines de milliers de machines en interaction, ce qui lui permet de gérer des tâches complexes avec une efficacité inhabituelle. Sur le benchmark GDPval-MM, qui évalue des scénarios opérationnels en finance et en ingénierie, il obtient un taux de victoire de 59 % face aux autres modèles leaders – un bond spectaculaire par rapport aux 24,6 % de son prédécesseur, le M2.1.
« Ce n’est plus une affaire de théorie, mais de productivité mesurable. »
résume Liang Xingyu, cofondateur de MiniMax, lors de la présentation à Shanghai
Mais c’est sur le plan économique que le M2.5 frappe le plus fort. Avec des tarifs très agressifs – 0,30 $ par million de tokens en entrée pour la version Lightning – MiniMax rend l’IA environ 20 fois moins chère que ses concurrents directs. Pour donner un ordre de grandeur : faire tourner quatre instances d’agents IA 24 h/24 et 7 j/7 reviendrait à moins de 10 000 $ par an pour une entreprise. Ce niveau de prix permet d’envisager des flottes d’agents gérant des processus entiers, sans arbitrages budgétaires permanents.
« Nous voulons que l’IA devienne une infrastructure, comme l’électricité. »
explique Wang Yifan, directeur technique de MiniMax
« Plus besoin de défendre un budget IA : elle devient trop bon marché pour être ignorée. »
poursuit Wang Yifan, en soulignant la baisse des coûts
Des performances qui défient les géants, à moindres frais
Si le MiniMax M2.5 fait autant parler de lui, c’est d’abord parce qu’il bouscule la hiérarchie établie des modèles d’IA. Avec une architecture Mixture-of-Experts (MoE) de 230 milliards de paramètres, il rivalise avec les meilleurs modèles propriétaires, tout en affichant une latence optimisée. Seuls 10 milliards de paramètres sont activés par token, ce qui lui permet de maintenir des débits élevés (50 à 100 TPS) sans sacrifier la qualité de génération.

Un modèle ouvert qui dépasse certains modèles fermés
L’un des atouts majeurs du M2.5 est son statut de modèle à poids publiés. Contrairement à GPT-5 ou Claude Opus 4.6, dont les architectures restent confidentielles, MiniMax met ses modèles à disposition, permettant aux chercheurs et aux entreprises de les personnaliser, auditer et déployer sur leurs propres infrastructures. Malgré cette ouverture, le M2.5 dépasse Claude 3.5 Sonnet sur plusieurs benchmarks clés :
- 80,2 % sur SWE-Bench Verified (contre 78,5 % pour Claude 3.5), un test qui mesure la capacité à corriger du code en conditions réelles.
- 51,3 % sur Multi-SWE-Bench, un score qui confirme sa polyvalence sur plusieurs langages (Python, Java, Rust, Go).
« C’est la première fois qu’un modèle ouvert rivalise ainsi avec les leaders fermés. »
souligne Zhao Wei, analyste chez Zhipu AI, un autre acteur chinois de l’IA
« MiniMax montre que l’ouverture peut devenir un avantage compétitif, pas une faiblesse. »
poursuit Zhao Wei, à propos de la stratégie de transparence
Une architecture MoE taillée pour l’efficacité
Le cœur de ces performances tient à son architecture MoE. Contrairement aux modèles monolithiques comme GLM-5, le M2.5 s’appuie sur un système d’experts spécialisés qui s’activent dynamiquement en fonction de la tâche. Pour générer du code, ce sont les 10 milliards de paramètres dédiés qui sont sollicités ; pour une analyse financière, d’autres sous-réseaux prennent le relais. Cette approche réduit la latence et améliore l’efficacité énergétique, un critère désormais central pour les applications en production, notamment dans le cloud.
« Notre objectif n’était pas de battre les géants sur le papier, mais de prendre leurs usages. »
confie Wang Yifan, qui pilote la stratégie technique de MiniMax
Selon des tests internes, le M2.5 serait trois fois plus rapide que GPT-5.2 Codex pour générer du code exécutable, tout en coûtant près de 15 fois moins cher. Si ces chiffres se confirment à grande échelle, ils pourraient peser lourd dans les choix d’architecture des directions techniques.
Une démocratisation qui pourrait tout changer
Si le MiniMax M2.5 marque un tournant technologique, son véritable impact réside dans sa capacité à démocratiser l’IA à grande échelle. Jusqu’ici, les entreprises devaient souvent arbitrer entre puissance et coût. Avec le M2.5, cette équation se détend nettement, en particulier pour les organisations qui souhaitent tester des cas d’usage multiples sans exploser leurs budgets.

MiniMax Agent : l’IA comme collaborateur à plein temps
Intégré à la plateforme MiniMax Agent, le nouveau modèle se positionne comme un « stagiaire IA » polyvalent, capable de prendre en charge jusqu’à 30 % des tâches internes dans les départements clés. Concrètement, cela se traduit par des assistants spécialisés, mais coordonnés, qui suivent les procédures de l’entreprise au lieu d’improviser.
- En R&D : génération automatique de spécifications techniques, prototypage de fonctionnalités et débogage collaboratif avec les développeurs sur des bases de code complexes.
- En ventes : création de présentations clients, analyse de données marché et rédaction de propositions commerciales adaptées à chaque segment.
- En RH : tri de CV, préparation de grilles d’entretien et rédaction de fiches de poste optimisées pour attirer des profils rares.
« Imaginez un employé qui ne dort jamais, ne se fatigue pas et coûte moins de 10 000 € par an. »
illustre Liang Xingyu, pour décrire l’usage quotidien de MiniMax Agent
« Ce n’est plus un gadget : c’est un collaborateur numérique qui s’intègre aux équipes. »
ajoute Liang Xingyu, en insistant sur l’adoption en entreprise
Un écosystème qui séduit l’international
Le succès du M2.5 s’inscrit dans une stratégie plus large : conquérir les marchés mondiaux avec un écosystème cohérent. MiniMax s’appuie sur deux piliers produits qui tirent la demande vers son modèle de base et créent des usages visibles pour le grand public.
- Hailuo, sa plateforme de génération vidéo par IA, qui permet de produire des contenus professionnels en quelques minutes.
- Talkie, son compagnon IA multilingue et contextuel, déjà utilisé par des centaines de milliers de personnes en Europe et en Amérique du Nord.
Résultat : 70 % des revenus de MiniMax proviennent désormais de l’international, avec une croissance annuelle d’environ 120 %. Son introduction en Bourse à Hong Kong en janvier 2026 – la plus rapide du secteur – a été un succès, attirant notamment des investisseurs sud-coréens qui ont injecté plus de 20 millions de dollars en quelques jours.
« Nous ne voulons pas être une licorne chinoise : nous visons une entreprise véritablement globale. »
affirme Liang Xingyu, en détaillant la feuille de route internationale
Avec le M2.5, MiniMax dispose désormais d’un produit vitrine pour appuyer cette ambition. Reste à voir si les géants américains, OpenAI et Anthropic en tête, sauront répondre à cette offensive venue d’Asie sur le terrain des prix comme sur celui de l’ouverture.
Et si l’IA devenait vraiment « trop bon marché pour être mesurée » ?
Le concept d’« intelligence too cheap to meter » ne date pas d’hier. Il remonte aux années 1960, lorsque des pionniers comme John McCarthy imaginaient une IA si puissante et si peu coûteuse qu’elle deviendrait une infrastructure publique, comme l’électricité. Avec le MiniMax M2.5, cette perspective n’est plus seulement théorique pour les directions techniques ou financières ; elle commence à se traduire dans les feuilles de calcul et les contrats de services.
Un modèle qui oblige les géants à se réinventer
Pour des acteurs établis comme OpenAI ou Google DeepMind, l’arrivée du M2.5 fait office de signal d’alarme. Comment continuer à facturer des tarifs vingt fois plus élevés lorsqu’un modèle à poids publiés offre des performances proches, voire équivalentes sur certains usages ? La question n’est plus seulement technologique : elle devient commerciale et réglementaire.
« MiniMax a réussi là où beaucoup ont échoué : associer performances élevées et accès large. »
analyse Mark Andreessen, investisseur et cofondateur du fonds a16z
« C’est un avertissement pour le secteur : l’avenir de l’IA ne sera pas réservé aux plus fortunés. »
poursuit Mark Andreessen, à propos de la pression concurrentielle sur les prix
Déjà, des rumeurs circulent sur une possible baisse des prix chez les concurrents. Anthropic envisagerait même de publier une version ouverte de Claude afin de réduire l’avantage de MiniMax sur le terrain de la transparence.
« Ils n’ont plus le choix : soit ils s’adaptent, soit ils laissent filer le marché. »
prévoit Zhao Wei, analyste chez Zhipu AI, interrogé sur la riposte possible
Des limites qui restent à surmonter
Le M2.5, toutefois, n’efface pas tous les problèmes. Plusieurs spécialistes pointent des faiblesses en cohérence longue – la capacité à maintenir un raisonnement stable sur des documents très longs – et une moindre maîtrise des langues européennes par rapport à GPT-5. Ces limites peuvent peser sur certains cas d’usage, notamment en droit, en conseil ou en recherche documentaire.
« MiniMax a franchi un cap impressionnant, mais il lui reste des défis de généralisation à relever. »
tempère Pierre Rault, chercheur au CNRS et spécialiste des architectures MoE
Autre point de vigilance : la dépendance aux données chinoises. Entraîné majoritairement sur des corpus locaux, le M2.5 peut manquer de nuances culturelles pour certaines applications européennes ou nord-américaines, en particulier sur des sujets sensibles. Pour y répondre, MiniMax a annoncé un partenariat avec des universités européennes afin d’élargir ses jeux de données d’ici fin 2026 et de mieux couvrir les contextes réglementaires régionaux.
S’ajoute enfin la question de la souveraineté des données. En publiant ses poids, MiniMax offre une auditabilité renforcée, mais ouvre aussi la porte à des déploiements qui pourraient tenter de contourner des régulations comme l’AI Act en Europe.
« L’open source n’est pas une baguette magique : il faut l’encadrer par des règles solides. »
avertit Cédric Villani, député français et président de la commission IA du Parlement européen
Malgré ces défis, un constat s’impose : le M2.5 a changé la donne. En démontrant qu’une IA de pointe peut être à la fois puissante, ouverte et abordable, MiniMax a entamé la remise en cause du quasi-monopole américain. Pour les entreprises, les développeurs et les pouvoirs publics, le signal est clair : l’ère de l’IA « trop chère » touche à sa fin. Reste à voir qui saura tirer parti de cette nouvelle donne, et à quelle vitesse les concurrents s’aligneront.

















Laisser un commentaire
Vous devez vous connecter pour publier un commentaire.