Tout savoir sur Deepseek

En moins de deux ans, DeepSeek est passé du statut de “projet de recherche chinois” à celui d’épouvantail pour la Silicon Valley. Fondé à Hangzhou en juillet 2023, le laboratoire a bousculé l’économie de l’IA avec DeepSeek-V3, puis avec DeepSeek-R1 en janvier 2025. Sa promesse est nette : obtenir des capacités de raisonnement de premier plan sans empiler des GPU clusters à prix d’or, en jouant l’efficacité plutôt que la force brute. Derrière l’effet d’annonce, une question domine pour 2026 : assiste-t-on à une démocratisation durable de l’IA, ou à un nouveau compromis entre performance, souveraineté et sécurité ?


À retenir

  • DeepSeek est fondée en juillet 2023 à Hangzhou par Liang Wenfeng, issu des quant funds (finance quantitative).
  • La société est détenue à 99 % par High-Flyer Capital, ce qui change la logique : moins de KPI court-termistes, plus de pari “recherche”.
  • DeepSeek-V3 repose sur une architecture Mixture-of-Experts (MoE) : 671B paramètres, mais 37B activés par token pour limiter le coût d’inférence.
  • DeepSeek affirme un entraînement V3 à 5,5 M$ (environ 4,7 M€), en s’appuyant notamment sur FP8 precision, Multi-token prediction et GRPO (variante de Reinforcement Learning).
  • DeepSeek-R1 (janvier 2025) a été perçu comme un “Sputnik moment” : performances de raisonnement proches des meilleurs modèles fermés, avec une économie radicale.
  • Le choc a aussi été financier : Nvidia a connu une chute d’environ 600 Md$ de capitalisation en une journée (≈ 516 Md€) après l’annonce.
  • DeepSeek publie sous Licence MIT (Open Source) et propose de la Distillation (versions allégées) pour des usages locaux.
  • Points de vigilance : confidentialité (serveurs), censure liée aux régulations, et polémiques (dont des accusations de détournement d’API).

D’un hedge fund à un laboratoire AGI : la machine DeepSeek

Pour comprendre DeepSeek, il faut d’abord regarder son capital, et surtout son absence de capital-risque. Ce choix financier éclaire la vitesse d’exécution, la méthode d’investissement et une partie du sang-froid affiché face aux géants américains.

Liang Wenfeng, l’intuition d’un quant dans un monde de tokens

Liang Wenfeng appartient à cette génération “post-80” formée dans une Chine déjà numérisée. Diplômé de l’Université du Zhejiang, il fait ses armes dans la finance quantitative, là où l’on transforme des signaux faibles en décisions automatisées. En trading, on chasse le bruit pour extraire une structure ; en IA, on apprend une structure statistique à partir d’un océan de tokens, avec la même obsession du signal utile.

Ce passé de “quant” joue sur deux plans. D’abord, la culture de l’optimisation : latence, rendement, efficacité, tout est mesuré. Ensuite, la capacité à parier tôt sur l’infrastructure, comme on investirait dans une place de marché avant qu’elle ne devienne évidente pour le reste du secteur.

Bureau moderne en Chine montrant un fondateur observant à la fois des écrans de trading et des serveurs GPU, illustrant le passage de High-Flyer Capital à un laboratoire AGI comme DeepSeek.
Des racines dans les quant funds et la finance algorithmique jusqu’au pari assumé sur l’AGI, la trajectoire de DeepSeek repose d’abord sur un montage capitalistique atypique.

High-Flyer Capital, un moteur financier et technologique atypique

En 2015, Liang Wenfeng cofonde High-Flyer Capital Management, devenu l’un des grands noms chinois des quant funds, avec plus de 100 milliards de yuans sous gestion. DeepSeek naît plus tard, mais avec une singularité rare : le laboratoire est détenu à 99 % par High-Flyer. En d’autres termes, le “client” principal n’est pas un marché impatient, mais une structure qui peut absorber des cycles de recherche longs et coûteux.

Ce montage modifie la psychologie d’un projet IA. Là où une startup classique court après l’adoption et la monétisation, DeepSeek peut, au moins en théorie, viser l’Artificial General Intelligence (AGI) comme horizon, même si le chemin reste incertain et budgétairement lourd.

Firefly supercomputer : investir avant que la musique démarre

Le pari s’est matérialisé tôt. Dès 2019, High-Flyer Capital investit dans des infrastructures, dont les supercalculateurs Firefly (1 puis 2), équipés d’environ 10 000 GPU Nvidia A100. Posséder sa capacité de calcul réduit la dépendance à la file d’attente du cloud, aux prix fluctuants et aux arbitrages internes d’un fournisseur.

Rappelons l’idée simple : l’IA moderne ressemble à une usine. Sans chaîne de production (GPU, interconnexions, stockage), même la meilleure recette (algorithmes, données, entraînement) reste théorique et ne sort jamais du laboratoire.

DeepSeek-V3 : l’efficacité algorithmique comme arme industrielle

DeepSeek-V3 a imposé une question directe : et si “plus grand” n’était pas la seule voie ? La réponse passe par une architecture précise et par une série de choix d’ingénierie qui s’attaquent au coût là où il explose : l’inférence, utilisée en continu par les clients.

MoE : 671 milliards de paramètres, mais 37 milliards au travail

Le cœur de DeepSeek-V3, c’est la Mixture-of-Experts (MoE). Le modèle affiche 671 milliards de paramètres, mais n’en active que 37 milliards par token. Concrètement, c’est comme une rédaction avec 671 pigistes, mais seulement 37 appelés à chaque article selon le sujet. On garde l’ampleur du vivier, sans payer la totalité à chaque phrase générée.

Cette logique vise la cost efficiency. Elle réduit la facture énergétique et matérielle, et limite la nécessité de déployer des GPU clusters toujours plus massifs pour servir un même volume de requêtes professionnelles.

FP8 precision et multi-token prediction : compresser le calcul, pas l’ambition

DeepSeek met en avant plusieurs optimisations, dont l’usage de la FP8 precision (format numérique plus compact) et la Multi-token prediction. L’objectif n’est pas de rogner sur la qualité, mais de réaliser la même opération avec moins d’octets et moins d’étapes. C’est l’équivalent, en production logicielle, d’une logistique mieux organisée : on déplace moins de données, plus vite, pour livrer autant de réponses pertinentes.

Ce type de choix devient central à l’échelle d’un service IA. L’entraînement fait les gros titres, mais c’est l’usage quotidien (l’inférence) qui détermine le coût total, et donc le prix des API et les marges possibles.

Un entraînement à 5,5 millions de dollars : le signal envoyé au marché

DeepSeek affirme avoir entraîné V3 pour environ 5,5 millions de dollars (≈ 4,7 millions d’euros). À ce niveau, le chiffre compte autant pour ce qu’il représente que pour ce qu’il déplace : si l’on peut abaisser aussi fortement le coût d’entraînement, alors l’avantage compétitif change de terrain. Il se déplace moins vers “qui a le plus gros budget”, et davantage vers “qui a les meilleurs choix mathématiques et systèmes”.

Conséquence immédiate : les prix des API, les marges des plateformes et même les stratégies produit des leaders peuvent se retrouver sous pression, avec un effet de référence à la baisse pour l’ensemble du marché.

DeepSeek-R1 : le “Sputnik moment” du raisonnement… et l’économie du temps de calcul

Quand DeepSeek-R1 arrive en janvier 2025, il ne se contente pas d’être performant. Il force la comparaison frontale sur le raisonnement, là où beaucoup de modèles se limitaient jusque-là à produire des réponses fluides mais superficielles.

AIME 2024 et MATH-500 : quand les benchmarks deviennent politiques

DeepSeek-R1 revendique des scores très élevés sur des tests réputés difficiles : AIME 2024 (79,8 %) et MATH-500 (97,3 %). Les pourcentages ne sont pas qu’un exercice académique. Ils servent désormais de munitions dans une bataille de perception : “qui domine le raisonnement ?”, “qui offre le meilleur retour sur calcul ?”, “qui fixe les standards de l’industrie ?”.

En parallèle, DeepSeek met en avant un avantage de coût, avec une API annoncée 20 à 50 fois moins chère. Dans la pratique, le raisonnement cesse d’être un luxe réservé aux acteurs capables de subventionner des pertes massives pendant plusieurs années.

GRPO, reinforcement learning et le vrai “AHA moment”

DeepSeek mise sur GRPO (Group Relative Policy Optimization), une variante de Reinforcement Learning. Simplifié : au lieu d’apprendre uniquement via des montagnes de données annotées par des humains, le modèle affine son comportement en optimisant un objectif de performance, ajusté au fil des essais. C’est là qu’intervient l’idée d’AHA moment : le point où le système adopte une stratégie de résolution plus efficace.

Ce mécanisme se combine avec un autre terme devenu central : la Chain of Thought. Même si les systèmes ne “pensent” pas comme nous, ils peuvent produire des étapes intermédiaires utiles, qui structurent la réponse. Ces étapes ont toutefois un coût : plus vous laissez le modèle dérouler, plus vous consommez de temps de calcul par requête.

Inference-time computing : payer plus au bon moment plutôt que tout payer tout le temps

Le débat s’est déplacé vers l’inference-time computing : l’idée qu’un modèle peut “dépenser” davantage de calcul quand une question est difficile, et rester sobre quand elle est simple. C’est comparable à un moteur hybride : inutile d’activer toute la puissance pour un trajet de quelques centaines de mètres, mais elle devient utile quand la route se complique.

Dans ce cadre, R1 agit comme un révélateur. Les gains ne viennent pas seulement du volume d’entraînement, mais de la manière dont on alloue le calcul au bon endroit, au bon moment, en pilotant finement le temps d’inférence selon la tâche.

Ce que l’Europe peut en faire — sans naïveté

Vu de France, DeepSeek est à la fois une opportunité (baisser les barrières à l’entrée) et un rappel géopolitique. Pour les équipes IA et automatisation, la question n’est plus “faut-il suivre ?”, mais “comment l’utiliser proprement, à coût maîtrisé et sans perdre la main sur les données ?”.

Équipe tech européenne dans un bureau moderne travaillant sur des ordinateurs portables face à un petit rack de serveurs, discutant de l’implémentation d’un modèle IA open source comme DeepSeek.
Pour l’Europe, l’enjeu est de tirer parti des modèles DeepSeek tout en gardant le contrôle sur la souveraineté, les coûts et la sécurité des données.

Licence MIT, open source et distillation : des leviers très concrets

DeepSeek publie ses modèles sous Licence MIT : une approche Open Source qui autorise une réutilisation large, y compris commerciale. Ajoutez la Distillation (versions “distillées” de R1, de 1,5B à 70B paramètres, basées sur Llama ou Qwen), et vous obtenez un chemin pragmatique : déployer des capacités de raisonnement sur du matériel plus accessible, parfois en local.

Concrètement, pour une PME française, cela peut signifier garder des documents sensibles sur site, expérimenter sans facture cloud explosive, puis industrialiser des automatisations (support, extraction, contrôle qualité) sans attendre un budget “Big Tech” ni dépendre d’un fournisseur unique.

Puces, restrictions et effet Nvidia : quand l’optimisation devient une stratégie de souveraineté

DeepSeek a aussi été lu comme une réponse directe aux restrictions américaines sur l’export de puces très avancées. Le laboratoire montre qu’il peut optimiser autour de matériel moins récent, en évoquant des cartes comme Nvidia H800 et Nvidia A100. La contrainte devient ainsi un moteur d’ingénierie : faire mieux avec moins, parce que le haut de gamme n’est plus garanti.

Côté marchés, l’annonce de janvier 2025 déclenche une onde de choc, avec une chute d’environ 600 Md$ de capitalisation pour Nvidia en une séance. Le message implicite est clair : si l’on réduit la dépendance à la “force brute”, toute la chaîne de valeur — des GPU aux data centers — doit revoir ses hypothèses de croissance.

Données, censure, polémiques : le coût caché de la démocratisation

Reste le sujet qui décide souvent de l’adoption en entreprise : la sécurité. Des questions demeurent sur la confidentialité (où vont les données, sur quels serveurs) et sur la censure liée aux régulations locales, avec des réponses parfois floues sur certains sujets politiques sensibles.

À cela s’ajoutent plusieurs polémiques, dont des allégations de détournement d’API pour l’entraînement. Même sans trancher, une règle s’impose pour les équipes françaises : séparer l’expérimentation du déploiement, auditer, journaliser, et traiter le modèle comme un composant critique, au même titre qu’un ERP ou une passerelle de paiement.

En résumé, DeepSeek ouvre des portes, mais impose aussi une discipline. L’IA “moins chère” n’est pas automatiquement l’IA “moins risquée”, et chaque déploiement doit être pensé comme un projet sensible, pas comme un simple test de laboratoire.


Les actus IA de Deepseek :

23 Jan 2026
Salle de contrôle high-tech à Hangzhou avec développeur chinois devant des écrans remplis de code, symbolisant DeepSeek V4 propulsant la Chine au sommet de l’IA de génération de code.

DeepSeek prépare sa V4 et ça promet

La Chine s’apprête à bousculer le secteur de l’IA en présentant, à l’occasion du Nouvel An lunaire, son dernier modèle phare : DeepSeek V4. Cette version, révélée le 9 janvier 2026 par The Information, est annoncée comme plus performante que les leaders occidentaux pour la génération de code. L’enjeu dépasse toutefois le terrain…

01 Oct 2025
DeepSeek-V3.2-Exp réduit les coûts API grâce à l'attention éparse

DeepSeek-V3.2-Exp divise les coûts grâce à l’attention éparse

DeepSeek lance DeepSeek-V3.2-Exp, un modèle de langage large expérimental qui intègre une innovation majeure en attention éparse pour traiter les contextes longs avec plus d’efficacité. Ce lancement, survenu le 29 septembre 2025, s’accompagne d’une réduction drastique des coûts API de plus de 50 %, rendant l’intelligence artificielle plus accessible aux…

Laisser un commentaire