Liquid AI a lancé le 25 septembre 2025 une famille de modèles d’intelligence artificielle embarquée, les Liquid Nanos, capables de rivaliser avec des systèmes des centaines de fois plus volumineux tout en fonctionnant sur des smartphones et ordinateurs portables. Ces modèles, de 350 millions à 2,6 milliards de paramètres, marquent un tournant en plaçant l’IA agentique directement sur les appareils quotidiens, sans recours au cloud. Cette innovation répond aux contraintes croissantes de latence, d’énergie et de confidentialité, démocratisant l’accès à une IA performante et souveraine.
À retenir
- Liquid Nanos, lancés par Liquid AI, offrent une performance de pointe en IA embarquée sur appareils quotidiens avec une faible empreinte mémoire de 100 Mo à 2 Go.
- Ces modèles de fondation de la famille LFM2 supportent des tâches IA agentique comme l’extraction de données, la compréhension multilingue et le RAG (Génération Augmentée par Récupération).
- Disponibles sous licence ouverte sur Hugging Face et la plateforme LEAP (Liquid Edge AI Platform), ils favorisent une économie sans cloud et réduisent les coûts énergétiques.
- Des initiatives communautaires, comme la série Luth-LFM2, adaptent ces modèles au français, avec des données synthétiques pour des benchmarks locaux.
- Partenariats avec des entreprises du Fortune 500 ciblent l’électronique grand public, l’automobile et la finance en Europe et ailleurs.
Dans un contexte où l’intelligence artificielle converge vers plus d’efficacité et d’accessibilité, les Liquid Nanos de Liquid AI émergent comme une réponse innovante à la dépendance excessive au cloud. Lancés en 2025, ces modèles compacts redéfinissent l’IA embarquée en maximisant la performance sur des ressources limitées, ce qui est particulièrement pertinent pour les développeurs et entreprises européennes cherchant à respecter les normes strictes de confidentialité comme le RGPD. Leur importance réside dans la réduction des barrières d’entrée : latence minimale, consommation énergétique optimisée et déploiement local, permettant une souveraineté numérique accrue pour les utilisateurs finaux comme les professionnels en France, où des adaptations locales boostent les capacités multilingues.
Liquid Nanos : une innovation pour l’IA embarquée sur appareils quotidiens
Les Liquid Nanos représentent une avancée significative dans les modèles de fondation, adaptés à des tâches spécialisées avec un nombre de paramètres variant de 350 millions à 2,6 milliards.
Présentation et vision de Liquid AI
Liquid AI, dirigée par son PDG Ramin Hasani, vise à inverser le paradigme de déploiement de l’IA en livrant une intelligence compacte directement sur l’appareil. Cela débloque vitesse, résilience, confidentialité et un profil de coût évolutif, comme l’explique Hasani. Les Liquid Nanos fonctionnent sur téléphones, ordinateurs portables et systèmes embarqués, sans infrastructure cloud massive.
Cette approche cible l’IA agentique, où les modèles gèrent des flux de travail autonomes. Elle s’inscrit dans une tendance où les coûts d’inférence ont chuté de 280 fois entre novembre 2022 et octobre 2024 pour des performances équivalentes à GPT-3.5. En Europe, cela renforce la souveraineté des données personnelles.
Contexte des limitations des modèles cloud traditionnels
Les modèles cloud classiques peinent face aux contraintes de coût, d’énergie, de latence et de confidentialité pour de nombreux cas d’usage. Ils exigent une connexion constante et des centres de données énergivores, limitant leur adoption dans des environnements contraints. Les Liquid Nanos contournent ces obstacles en traitant les données localement.
La convergence des performances IA accentue ce besoin : l’écart entre les modèles leaders et les 10e rangs est passé de 11,9 % à 5,4 % en un an, et de 4,9 % à 0,7 % entre les deux premiers en 2024. Cela rend l’IA embarquée plus abordable pour les PME françaises et européennes.

Fonctionnalités techniques des Liquid Nanos et leur efficacité
Basés sur une architecture innovante, les Liquid Nanos de la famille LFM2 optimisent l’inférence pour des tâches spécifiques aux tâches, avec une faible latence et une empreinte mémoire réduite.
Architecture des réseaux neuronaux liquides
Les modèles reposent sur des réseaux neuronaux liquides, inspirés des systèmes dynamiques et du traitement du signal, pour gérer des données séquentielles et multimodales. Cette structure dépasse les transformeurs traditionnels en offrant un raisonnement supérieur avec moins d’énergie. L’optimisation réduit la consommation, alignée sur une amélioration annuelle de 40 % de l’efficacité énergétique dans l’industrie.
Pré-entraînés avec des techniques avancées et post-entraînés pour des spécialisations, ils occupent 100 Mo à 2 Go de RAM. Cela permet un déploiement sur appareils quotidiens sans compromettre la performance de pointe.
Domaines d’application en IA agentique
Les Nanos excellent en extraction de données, compréhension multilingue, RAG, mathématiques, raisonnement et appel d’outils. Par exemple, ils génèrent des sorties structurées comme du JSON à partir de textes non structurés. Ces capacités soutiennent des agents IA pour le support client ou la recherche.
En Europe, la multilingue inclut le français, l’allemand et l’espagnol, favorisant des applications locales. La spécialisation évite les modèles généralistes, économisant jusqu’à 30 % sur les coûts matériels annuels.
Mesures de performance et benchmarks
Évalués en partenariat, les Liquid Nanos rivalisent avec des modèles des centaines de fois plus grands sur des benchmarks comme IFEval ou MMLU. LFM2-1.2B-Extract surpasse Gemma 3 27B en validité et précision. Les modèles open-weight comblent l’écart avec les closed-weight, passant de 8 % à 1,7 % en un an.
Cependant, le raisonnement complexe reste un défi sur des tests comme PlanBench, où les modèles embarqués montrent des limites face à des tâches abstraites. Cela souligne la nécessité d’améliorations continues en paradigmes comme le « test-time compute ».
Modèles spécifiques des Liquid Nanos et cas d’usage européens
La série initiale de sept modèles spécifiques aux tâches cible des applications précises, avec des adaptations pour le marché européen.
LFM2-Extract pour l’extraction de données multilingue
LFM2-Extract, en versions 350M et 1,2B paramètres, extrait des données de formats comme JSON ou XML de textes non structurés, tels que des factures par email. Entraînés sur des données synthétiques, ils supportent neuf langues, dont le français. Leur précision fidélise les sorties pour des flux de travail agentiques.
Dans le commerce électronique européen, cela accélère le traitement des commandes sans cloud, réduisant la latence à des millisecondes.

Traduction et initiatives françaises comme LFM2-350M-ENJP-MT
LFM2-350M-ENJP-MT assure une traduction bidirectionnelle anglais-japonais de qualité supérieure à des modèles 10 fois plus grands, fonctionnant localement sur mobiles. Pour l’Europe, la série communautaire Luth-LFM2 adapte les modèles au français via le dataset Luth-SFT de 338 millions de tokens, incluant des examens comme le Baccalauréat. Ces versions améliorent les benchmarks français tels que IFEval-fr ou MMLU-fr, tout en maintenant les performances anglaises.
Disponibles sur GitHub, elles soutiennent la recherche en PNL française et favorisent l’IA agentique souveraine.
RAG, outils et mathématiques dans les autres modèles
LFM2-1.2B-RAG optimise les réponses basées sur documents pour chatbots en neuf langues, entraîné sur plus d’un million d’échantillons. LFM2-1.2B-Tool excelle en appel d’outils précis pour API instantanés sur embarqués. LFM2-350M-Math résout des problèmes mathématiques avec raisonnement structuré.
Ces modèles élargissent les cas d’usage en finance et automobile, où la confidentialité prime.
Avantages et perspectives des Liquid Nanos en IA embarquée
L’IA embarquée des Liquid Nanos offre des gains stratégiques en coût, énergie et résilience, avec une accessibilité accrue via des licences ouvertes.
Économies de coûts et efficacité énergétique
En traitant localement, les Nanos éliminent les frais cloud, permettant une économie sans cloud scalable. Ils réduisent la dépendance aux data centers, contribuant à la durabilité avec moins d’énergie. Les coûts matériels baissent de 30 % par an, rendant l’IA abordable pour les petites entreprises européennes.
La plateforme Apollo, gratuite sur App Store, permet de tester ces modèles sur téléphone.
Confidentialité, résilience et élargissement des usages
Le traitement sur appareil assure la confidentialité des données, conforme au RGPD, sans envoi vers des serveurs externes. Cela renforce la résilience en environnements offline. Liquid AI collabore avec des firmes du Fortune 500 pour des Nanos personnalisés en électronique et finance.
Disponibles sur LEAP pour iOS, Android et via Hugging Face sous licence ouverte, ils démocratisent l’accès pour développeurs. Les perspectives incluent des extensions à plus de modèles et une optimisation pour processeurs comme AMD Ryzen.
















