Le 25 mars 2026, OVHcloud a officialisé l’acquisition de Dragon LLM, une startup parisienne issue de Lingua Custodia. L’opération marque un changement de cap : le groupe veut passer d’un acteur d’infrastructure à un fournisseur de briques logicielles d’IA. Le fait marquant pour les clients européens, c’est la possibilité d’entraîner et de déployer des LLM souverains avec des règles de conformité et de localisation des données.
À retenir
- 25 mars 2026 : acquisition de Dragon LLM par OVHcloud.
- Création immédiate d’un AI Lab pour le fine-tuning de Large Language Model (LLM).
- Déploiement possible cloud souverain ou on-premise (RGPD).
- Mamba-Transformer et frugalité numérique : besoins réduits d’inférence.
- Intégration à AI Endpoints et appuis matériels comme SambaNova.
Pour qui ? Les entreprises et administrations qui ne peuvent pas, ou ne veulent pas, confier leurs données à des offres étrangères. Pourquoi maintenant ? OVHcloud structure une chaîne complète entre serveur, plateforme PaaS et modèles LLM. L’enjeu : rapprocher les performances et la conformité pour accélérer l’adoption de la souveraineté numérique en Europe.
Une acquisition qui change de catégorie chez OVHcloud
L’annonce tombe le 25 mars 2026 : OVHcloud rachète Dragon LLM, pour un montant non communiqué. Le groupe ne vend plus seulement de la capacité informatique, il cherche à intégrer une compétence produit autour des modèles de langage. L’opération s’accompagne d’un dispositif interne dédié, l’AI Lab, annoncé comme opérationnel dès maintenant.

De l’infrastructure à la pile logicielle IA
Dans sa communication, OVHcloud inscrit le rachat dans son plan stratégique Shaping the Future, porté par Octave Klaba. L’idée est de transformer l’entreprise d’hébergeur et fournisseur d’infrastructure en acteur plus complet sur la chaîne IA. Dit autrement, l’objectif est de ne plus dépendre uniquement d’outils tiers pour proposer des solutions basées sur des modèles de langage.
Un AI Lab pour entraîner et ajuster les modèles
La mission du AI Lab est centrée sur l’entraînement et le fine-tuning, c’est-à-dire l’ajustement d’un modèle pré-entraîné sur des données spécifiques à un métier. Le calendrier donné dans l’annonce est précis : l’initiative démarre en même temps que l’acquisition. Pour les équipes IT, une partie de la boucle produit (modèle → adaptation → déploiement) se rapproche ainsi du fournisseur.
Un signal à la concurrence : la première acquisition logicielle d’envergure
Le groupe présente l’opération comme sa première acquisition d’ampleur dans le logiciel d’IA. L’affirmation compte en Europe, où les hyperscalers américains dominent encore l’écosystème modèles + plateformes. En absorbant Dragon LLM, OVHcloud tente de gagner du terrain sur la couche “modèles” plutôt que de rester cantonné au rôle de simple fournisseur de puissance de calcul.
Dragon LLM mise sur des modèles compacts et une architecture hybride
La valeur technique présentée autour de Dragon LLM repose sur un pari : obtenir des performances solides avec moins de calcul. L’architecture combine un composant de type Mamba-Transformer et un modèle de langage de petite taille pour réduire les besoins d’inférence, sans imposer systématiquement des GPU coûteux.
Mamba-Transformer : gérer des contextes longs avec moins d’énergie
La société met en avant une conception hybride capable de traiter des contextes plus longs. Le point le plus concret dans les sources concerne l’efficience : la consommation énergétique et les besoins de puissance de calcul seraient divisés par trois par rapport à des architectures classiques. Pour des déploiements en production, cette différence impacte directement les coûts d’exécution et l’empreinte CO2.
Un Small Language Model à 3,6 milliards de paramètres
Dragon LLM développe un Small Language Model (SLM) de 3,6 milliards de paramètres. Les paramètres constituent la “mémoire” du modèle : plus il y en a, plus il peut apprendre de relations, mais plus il faut de calcul pour l’entraîner et surtout pour l’exécuter. La promesse avancée est de rivaliser avec des modèles équivalents à 70 milliards de paramètres, tout en restant plus accessible.
Fonctionner localement sans GPU coûteux
Autre argument mis en avant : la capacité à fonctionner en local sur des serveurs standards ou des PC. L’annonce insiste sur le fait que l’approche ne nécessite pas de GPU dédiés coûteux, ce qui rejoint une logique de frugalité numérique. En pratique, cela facilite des projets qui doivent démarrer vite ou qui ne disposent pas d’un parc matériel spécialisé.
Conformité, déploiements et intégration à la plateforme AI Endpoints
Au-delà de la technique, l’acquisition vise des clients soumis à de fortes contraintes de données et d’audit. OVHcloud articule son offre autour de la localisation et du respect du RGPD, avec des options de déploiement on-premise ou dans le cloud souverain.

Secteurs régulés : l’héritage de Lingua Custodia
Les sources indiquent que les secteurs ciblés sont la finance, la santé et le secteur public. L’entreprise issue de Lingua Custodia est présentée comme experte du traitement de documents financiers sensibles, ce qui fournirait une base pour une conformité stricte. Dans cette logique, les données ne quittent pas le périmètre juridique européen pendant l’entraînement et l’inférence.
L’objectif est d’éviter la sortie des données du périmètre européen.
Présentation d’orientation communiquée dans les éléments fournis.
Cloud souverain ou on-premise : deux chemins pour une même exigence
Le modèle proposé par OVHcloud reste volontairement “bivalent” : les clients peuvent choisir entre le cloud souverain du groupe ou un déploiement on-premise. Cette architecture de choix répond à un point souvent bloquant : certains sites ne peuvent pas opérer leurs flux hors de leurs murs, même si l’infrastructure est européenne. Pour des directions conformité, c’est une manière de réduire le risque et d’améliorer la traçabilité.
Intégration à AI Endpoints et optimisations matérielles
Sur le plan produit, la technologie de Dragon LLM doit être intégrée à AI Endpoints, lancé en avril 2025. L’annonce décrit un accès via API PaaS en mode serverless, pour fournir des modèles spécialisés sans gérer directement la mécanique d’ordonnancement. Côté matériel, OVHcloud s’appuie sur SambaNova pour accélérer l’inférence, et sur des racks GPU Nvidia Vera Rubin NVL144 présentés lors de la GTC 2026.
Le mix logiciel et matériel vise un meilleur rapport performance-prix.
Positionnement décrit dans les éléments fournis.
Airbus de l’IA : une trajectoire face aux hyperscalers
Avec ce rachat, OVHcloud cherche à se placer sur un segment où l’Europe veut réduire sa dépendance aux modèles et plateformes dominantes. Le groupe évoque une consolidation et une offre verticalisée, du serveur au modèle d’IA personnalisé, ce qui implique aussi une bataille de compétences.
Guerre des talents et consolidation européenne
Les sources évoquent l’absorption d’une équipe de docteurs en machine learning et d’experts en NLP (Natural Language Processing, traitement automatique du langage). C’est un recrutement indirect mais stratégique : ces profils sont rares et conditionnent la capacité à produire des résultats reproductibles et à optimiser la donnée. Dans un marché où les hyperscalers captent encore une large part des budgets, cette consolidation devient un levier.
Le Sovereign Cloud explose en 2026
OVHcloud se positionne dans la dynamique de Sovereign Cloud. La source indique des dépenses prévues de 80 milliards de dollars en 2026 selon Gartner. Pour l’Europe, c’est le contexte qui rend l’acquisition plus que symbolique : si les budgets suivent, il faut des briques logicielles capables de s’insérer dans des contraintes de souveraineté numérique, notamment autour du RGPD et de l’on-premise.
Contrepoint : la souveraineté ne suffit pas à elle seule
Une objection reste valable : même en restant dans le cadre européen, une solution doit prouver sa qualité de modèle, sa stabilité en production et sa compatibilité avec les outils existants. L’annonce mise sur une intégration à AI Endpoints et sur des options de déploiement variées, mais les utilisateurs devront aussi évaluer la performance d’inférence sur leurs propres données. Autrement dit, la conformité ouvre la porte ; la valeur se joue ensuite sur la mise en œuvre.

















Laisser un commentaire
Vous devez vous connecter pour publier un commentaire.