Imaginez un modèle d’intelligence artificielle capable de résoudre des énigmes complexes avec la précision d’un mathématicien, tout en consommant moins d’énergie qu’une ampoule LED. Bienvenue dans l’ère des Tiny Recursive Models (TRM), une innovation française qui bouscule les usages de l’IA. Depuis leur révélation en octobre 2025 par la chercheuse Alexia Jolicœur-Martineau du Samsung SAIT AI Lab, ces modèles minuscules – seulement 7 millions de paramètres, contre des centaines de milliards pour les géants comme GPT-4 – ont déjà ébranlé les certitudes du secteur. Leur secret ? Une approche radicalement différente : au lieu de prédire mécaniquement le mot suivant, ils raisonnent par itérations successives, comme un humain qui corrige ses erreurs en temps réel. Résultat : des performances inédites sur des tâches de logique pure, une empreinte carbone divisée par 10 000, et la possibilité de garder les données sensibles en local. Mais comment fonctionnent ces « cerveaux miniatures » ? Et pourquoi pourraient-ils, demain, compléter voire remplacer certains mastodontes de l’IA actuels ?
À retenir
- Définition : Un Tiny Recursive Model (TRM) est un réseau neuronal ultra-compact (environ 7 M de paramètres) qui résout des problèmes par récursion itérative, en mettant à jour son état interne jusqu’à obtenir une cohérence logique – là où les LLM génèrent du texte token par token.
- Performance clé : Sur ARC-AGI-1, un TRM atteint 44,6 % de réussite (contre 28,6 % pour Claude 3.7), et résout 87,4 % des Sudokus extrêmes là où les LLM échouent. Entraînement pour 200 à 500 dollars, contre plusieurs millions pour un LLM.
- Avantages majeurs :
- Énergie : 1 000 fois plus rapide en inférence, 10 000 fois moins gourmand en ressources.
- Souveraineté : Exécution on-device (smartphones, objets connectés), sans passer par le cloud.
- Durabilité : IA plus sobre, compatible avec les contraintes des data centers européens.
- Limites actuelles : Spécialisation forte (excellents en logique, faibles en langage naturel). Pas encore des modèles généralistes comparables aux LLM.
- Futur probable : Hybridation LLM + TRM pour combiner fluidité linguistique et raisonnement approfondi.
- Chiffre clé : La capitalisation de Samsung a gagné environ 60 milliards de dollars en six mois après l’annonce des TRM (octobre 2025–février 2026).
Des modèles qui pensent en boucle : la rupture avec les LLM
Pendant des années, l’intelligence artificielle a obéi à une maxime unique : plus c’est gros, mieux c’est. Les Large Language Models (LLM) comme GPT-4 ou Claude 3.5 s’appuient sur des centaines de milliards de paramètres, entraînés sur des masses de données, pour générer du texte. Leur force ? Une impression de compréhension, grâce à des techniques comme la Chain-of-Thought (raisonnement par étapes). Leur faiblesse ? Une fragilité logique marquée : une erreur au début d’une chaîne de raisonnement se propage sans retour possible, et leur consommation énergétique est colossale – l’entraînement de GPT-4 aurait émis l’équivalent de environ 500 tonnes de CO₂, selon des estimations de 2023.

Les Tiny Recursive Models (TRM) proposent une alternative radicale, née d’une question simple posée par Alexia Jolicœur-Martineau.
Et si l’intelligence tenait moins à la taille qu’à la méthode ?
Alexia Jolicœur-Martineau, chercheuse au Samsung SAIT AI Lab, octobre 2025
Son article fondateur, « Less is More: Recursive Reasoning with Tiny Networks », publié en octobre 2025, présente une architecture où la récursion remplace la démesure. Au lieu de prédire le mot suivant comme un LLM, un TRM :
- Encapsule le problème dans une représentation interne (la z-representation).
- Fait circuler cette représentation dans un réseau neuronal ultra-compact (deux couches seulement), à de multiples reprises – jusqu’à 21 cycles, contre un seul passage pour un LLM classique.
- Affine la solution à chaque itération, comme un humain qui reprend et corrige son raisonnement. Cette boucle est appelée deep recursion.
- Vérifie sa cohérence grâce à une deep supervision : le modèle compare sa sortie à sa représentation interne pour détecter les contradictions.
Au bout du processus, on obtient un modèle qui apprend des règles logiques explicites plutôt que de mémoriser des régularités statistiques, à la manière d’un enfant qui apprend à résoudre une équation.
Pourquoi la récursion change tout
La force des TRM repose sur deux innovations techniques majeures qui modifient la façon de concevoir le calcul en IA.
- Le weight-tying : tous les cycles de récursion réutilisent exactement les mêmes paramètres, ce qui évite de gonfler le modèle. C’est comme si un cerveau exploitait en boucle les mêmes neurones pour réfléchir, au lieu d’en ajouter des milliards à chaque étape.
- L’auto-correction : contrairement aux LLM, où une erreur initiale est irréversible, un TRM détecte et corrige ses propres incohérences au fil des cycles. Sur un Sudoku, par exemple, il peut revenir sur un choix si une case viole une règle de logique.
Cette approche limite aussi le biais de distribution des données : un LLM performant sur un corpus massif peut s’effondrer sur des cas rares. Un TRM, lui, généralise mieux avec très peu d’exemples – souvent environ 1 000 cas d’entraînement – car il se concentre sur la structure du problème plutôt que sur de simples motifs statistiques.
TRM vs LLM : le combat des titans (et des nains)
Pour mesurer l’impact des TRM, il suffit de les comparer à leurs aînés sur deux axes clés : la logique pure et la consommation de ressources.
| Critère | Tiny Recursive Model (TRM) | Large Language Model (LLM) |
|---|---|---|
| Taille du modèle | Environ 7 millions de paramètres | De 100 à 1 000 milliards de paramètres |
| Coût d’entraînement | 200 à 500 dollars | 5 à 10 millions de dollars (pour GPT-4) |
| Vitesse d’inférence | Jusqu’à 1 000 fois plus rapide | Plus lente, et dépendante de GPU puissants |
| Énergie consommée | Jusqu’à 10 000 fois moins gourmande | Comparable à la consommation de data centers entiers |
| Performance sur ARC-AGI-1 | 44,6 % de réussite (meilleur score connu) | De 15,8 % (DeepSeek R1) à 28,6 % (Claude 3.7) |
| Résolution de Sudokus extrêmes | 87,4 % de succès | 0 % de réussite pour GPT-4o et o3-mini |
| Environnement d’exécution | Fonctionne sur smartphone ou objet connecté | Nécessite des infrastructures spécialisées en data center |
Les écarts sont nets : les TRM ne sont pas seulement plus sobres et plus rapides, ils redéfinissent aussi ce que peut faire un modèle d’IA à faible coût. Mais leur atout principal tient à leur capacité à raisonner de façon structurée, et non simplement à deviner la suite d’un texte.
Quand la taille ne fait pas la force : cas d’usage concrets
Les TRM ne constituent pas une simple optimisation incrémentale. Ils ouvrent des usages que les LLM peinent à adresser, notamment là où la logique, la sobriété énergétique et l’exécution locale deviennent décisives. Trois domaines se détachent déjà, et d’autres s’annoncent tout aussi prometteurs.

1. La logique pure : là où les LLM échouent
Prenez les Sudokus extrêmes, ces grilles pensées pour mettre en échec les algorithmes classiques. Les LLM, même les plus avancés comme GPT-4o ou o3-mini, s’y cassent les dents, avec un taux de réussite proche de 0 %. La raison est simple : ils apprennent des motifs plutôt que de maîtriser les règles du jeu. Un TRM, lui, atteint 87,4 % de réussite sur ces mêmes grilles.
Un TRM ne devine pas, il construit et vérifie une hiérarchie de raisonnements.
Dr Élodie Vasseur, chercheuse en IA à l’Inria, janvier 2026
Cette capacité à structurer un problème avant de le résoudre en fait un outil pertinent pour plusieurs secteurs :
- Les jeux de stratégie avancés (échecs, Go, puzzles comme Rush Hour).
- La programmation compétitive (résolution rapide d’algorithmes complexes).
- L’optimisation industrielle (planification logistique, ordonnancement de tâches, allocation de ressources).
Un exemple marquant : en décembre 2025, une équipe de l’École polytechnique a utilisé un TRM pour résoudre un problème d’ordonnancement de satellites en orbite. Les temps de calcul ont été réduits de près de 92 % par rapport à un algorithme d’optimisation classique, tout en améliorant la qualité des trajectoires.
2. L’IA on-device : souveraineté et confidentialité
L’un des grands enjeux actuels de l’IA est la dépendance aux clouds extra-européens. Envoyer des données médicales, financières ou militaires vers des serveurs distants pose des problèmes de souveraineté numérique et de sécurité des informations. Les TRM modifient ce rapport de force en rendant crédible une IA réellement embarquée.
- Exécution locale sur appareils grand public : un smartphone récent ou une carte Raspberry Pi suffit pour faire tourner un TRM, sans connexion internet.
- Consommation minimale en usage réel : un TRM utilise moins de 100 mW en inférence, contre plusieurs watts pour un LLM allégé comme MobileLLM.
- Résilience face aux attaques : leur architecture récursive les rend plus résistants aux adversarial attacks, ces attaques qui visent à tromper le modèle.
Concrètement, plusieurs applications sont déjà à l’étude pour 2026 :
- Des assistants médicaux de poche capables d’analyser une image médicale sur un téléphone, sans transfert de données vers un cloud.
- Des systèmes de cybersécurité embarqués détectant des intrusions en temps réel sur des réseaux industriels isolés.
- Des aides à la décision militaire locales, conçues pour fonctionner hors connexion pour des unités déployées sur le terrain.
La société française DeepSense a déjà annoncé un partenariat avec Samsung pour intégrer des TRM dans ses capteurs IoT industriels à partir de 2027, avec un engagement explicite : aucun transfert de données brutes vers l’extérieur.
3. Une IA plus durable : moins de ressources, plus d’impact
L’empreinte carbone de l’IA est devenue un sujet politique autant que technique. Selon un rapport de l’Ademe publié en 2025, les data centers dédiés à l’IA consomment déjà près de 1 % de l’électricité mondiale, une part qui pourrait doubler d’ici 2030. Les TRM proposent une alternative nettement plus sobre.
- Un entraînement à moins de 500 dollars : contre 5 à 10 millions de dollars pour un LLM comme GPT-4.
- Une inférence environ 1 000 fois plus rapide : ce qui réduit d’autant le temps de calcul et la consommation électrique.
- Une infrastructure matérielle légère : un simple CPU moderne ou un TPU compact suffit, sans ferme de GPU.
Les conséquences sont concrètes :
- Des laboratoires en Afrique et en Asie peuvent entraîner leurs propres modèles sans dépendre des grands clouds mondiaux.
- Des startups européennes développent des briques d’IA avancées avec des coûts d’infrastructure divisés par un facteur important.
- Une réduction nette des émissions par requête : un TRM émet autour de 0,01 kg de CO₂ par usage, contre jusqu’à 50 kg pour certaines requêtes lourdes adressées à GPT-4.
L’Union européenne a d’ailleurs inscrit les TRM dans son plan « Green AI 2030 », publié en janvier 2026, en les présentant comme une technologie clé pour une IA à la fois souveraine et soutenable.
Les limites des TRM : pourquoi ils ne remplaceront pas encore les LLM
Les Tiny Recursive Models marquent une étape importante, mais ils ne constituent pas une solution universelle. Leurs faiblesses actuelles en font surtout un complément des grands modèles plutôt qu’un substitut immédiat. Plusieurs défis restent à résoudre avant d’en faire des systèmes véritablement généralistes.
1. La généralisation : des spécialistes plutôt que des généralistes
Un TRM excelle sur des domaines hautement structurés et logiques – mathématiques, puzzles, optimisation. Mais il montre rapidement ses limites sur les tâches qui requièrent :
- Une culture générale étendue (histoire, littérature, références culturelles).
- Une forte fluidité linguistique (conversation naturelle, nuances de ton), domaine où des modèles comme Claude 3.5 restent dominants.
- Une créativité textuelle (histoires, poèmes, scénarios, idées originales).
La raison est structurelle : un TRM apprend des règles explicites, pas de vastes distributions de langage. Il peut résoudre un Sudoku complexe, mais ne sait pas expliquer qui sont les poètes de La Pléiade. Alexia Jolicœur-Martineau le résume d’une formule frappante.
Un TRM, c’est un mathématicien brillant mais presque analphabète.
Alexia Jolicœur-Martineau, entretien avec Le Monde, janvier 2026
2. Le coût du calcul au moment de l’usage
La récursion a un revers : elle augmente le temps de calcul à l’inférence, ce que les chercheurs appellent le test-time compute. Là où un LLM produit une réponse en quelques millisecondes sur un serveur équipé de GPU, un TRM peut nécessiter plusieurs secondes par problème, surtout lorsqu’il doit explorer une structure complexe.
- Pour un Sudoku difficile : de 2 à 3 secondes de calcul.
- Pour un problème d’optimisation industrielle : de 10 à 30 secondes, selon la taille de l’instance.
- Pour un jeu d’échecs en cadence rapide : délai trop important, les LLM restant plus adaptés dans ce cas.
Cette latence reste acceptable pour des tâches asynchrones – analyse de données, planification, vérification de solutions – mais elle bloque pour des usages en temps réel comme les assistants vocaux ou la traduction simultanée.
3. L’hybridation : une piste déjà à l’essai
La voie la plus crédible à court terme consiste à combiner les forces des LLM et des TRM, plutôt que de les opposer. Plusieurs équipes travaillent déjà sur ce type d’architecture hybride.
- Le LLM gère l’interface utilisateur : compréhension du langage naturel, génération de réponses fluides, maintien du contexte conversationnel.
- Le TRM prend en charge le raisonnement : résolution de problèmes structurés, vérification de cohérence, optimisation de solutions.
- Les deux modèles coopèrent : le LLM reformule la demande en problème structuré, le TRM calcule la solution, puis le LLM la traduit dans un langage accessible.
Des prototypes existent déjà, comme HybridReason, développé conjointement par Samsung et l’Inria en 2025. Ce système associe un LLM léger à un TRM pour traiter des tâches de common sense avec une précision inédite, en particulier lorsqu’il s’agit de détecter des incohérences dans des scénarios du quotidien.
4. Les risques réglementaires et éthiques
Les TRM soulèvent aussi des questions nouvelles sur le terrain de la régulation et de l’éthique, alors même qu’ils consomment peu de ressources. Trois points concentrent l’attention des autorités.
- Transparence du raisonnement : comment expliquer le cheminement d’un modèle qui corrige ses erreurs en boucle ? Le droit à l’explication prévu par l’EU AI Act (2024) pourrait s’appliquer difficilement.
- Sécurité des systèmes critiques : un TRM peut-il être manipulé pour produire des raisonnements biaisés ? Des tests menés en 2025 montrent une vulnérabilité plus faible que celle des LLM face aux jailbreaks, mais le risque zéro n’existe pas.
- Biais et effets de bord : entraîné sur des données biaisées, un TRM risque de renforcer des erreurs logiques plutôt que de les corriger, ce qui inquiète une partie de la communauté scientifique.
L’Autorité française de régulation de l’IA (AFRIA) a d’ailleurs lancé en février 2026 une consultation publique pour définir un cadre d’usage des TRM dans les secteurs les plus sensibles : santé, justice et défense.
5. Le défi de l’AGI : les TRM nous en rapprochent-ils ?
L’Artificial General Intelligence (AGI), une IA capable de raisonner comme un humain sur n’importe quel sujet, reste l’horizon lointain du domaine. Les TRM nous en rapprochent-ils vraiment ? Les avis divergent parmi les figures historiques du secteur.
- Pour Richard Sutton, pionnier du reinforcement learning, les TRM confirment sa célèbre « bitter lesson » : exploiter mieux le calcul compte plus que multiplier les connaissances codées à la main. Il voit dans la récursion des TRM « un pas vers une IA qui comprend les règles plutôt qu’une IA qui devine ».
- Pour Yann LeCun, directeur scientifique de l’IA chez Meta, la récursion ne suffit pas : « il faut aussi une mémoire à long terme et une forme de raisonnement symbolique, deux capacités que les TRM ne possèdent pas encore ».
Une chose fait néanmoins consensus : les TRM montrent jusqu’où l’on peut aller avec très peu de ressources. En rendant des capacités de raisonnement avancées accessibles à des laboratoires, des PME ou des institutions publiques, ils esquissent la possibilité d’une forme d’AGI plus largement partagée, et pas uniquement réservée aux géants du numérique.

















Laisser un commentaire
Vous devez vous connecter pour publier un commentaire.