La Chine siphonne Claude et rend les sanctions sur les puces presque inutiles

·

·

Analyste cybersécurité observant sur un grand écran un flux de données passant d’une ville occidentale vers Pékin, illustrant la distillation de l’IA Claude par la Chine et les tensions géopolitiques autour de l’intelligence artificielle.
Résumer cet article avec :

Alors que le secteur de l’intelligence artificielle entre dans une phase de tensions ouvertes, Anthropic vient de confirmer ce que beaucoup redoutaient : la Chine a méthodiquement exploité les capacités de son modèle phare, Claude, à une échelle industrielle. Dans un rapport technique publié le 23 février 2026, l’entreprise américaine accuse trois laboratoires chinois – DeepSeek, Moonshot AI et MiniMax – d’avoir orchestré une campagne massive de « distillation » pour siphonner les réponses de Claude et reproduire ses performances à moindre coût. Derrière cette affaire se dessine un enjeu bien plus large : celui d’une confrontation technologique où les règles de la propriété intellectuelle et de la sécurité nationale sont bousculées, où les garde-fous éthiques deviennent des cibles, et où les semi-conducteurs, ces puces stratégiques, sont au cœur d’un bras de fer sans précédent. Ce qui se joue aujourd’hui dépasse largement une querelle entre entreprises : c’est une bataille pour le contrôle de l’IA – et donc, indirectement, d’une partie du futur.


À retenir

  • 16 millions d’interactions ont été générées via 24 000 comptes frauduleux pour extraire les capacités de Claude.
  • La technique utilisée, la distillation, permet de recréer un modèle performant à partir des réponses d’un modèle source, sans passer par l’entraînement initial coûteux.
  • DeepSeek a ciblé le raisonnement logique, Moonshot AI les agents de codage, et MiniMax a détourné 50 % de son trafic vers Claude dès son lancement.
  • Les modèles « distillés » n’intègrent pas les garde-fous éthiques de Claude, ce qui les rend potentiellement dangereux pour des usages militaires ou de surveillance.
  • Cette affaire relance le débat sur le contrôle des exportations de semi-conducteurs, avec des positions divergentes entre Anthropic, l’administration Trump et des sénateurs comme Elizabeth Warren.
  • La distillation est une pratique courante dans l’industrie, mais son usage à grande échelle pour contourner les sanctions pose une question éthique et géopolitique majeure.


Une attaque industrielle contre l’IA occidentale : comment la Chine a « distillé » Claude

Imaginez une usine de données où des milliers d’ouvriers numériques – en réalité, des comptes automatisés – sollicitent en continu les réponses d’un modèle d’IA de pointe pour en fabriquer une copie à bas coût. C’est le scénario décrit par Anthropic dans son rapport du 23 février 2026. Pendant des mois, des laboratoires chinois auraient exploité les failles opérationnelles autour de l’accès à Claude pour en extraire ses capacités clés : le raisonnement logique, la génération de code, et même la manière dont le modèle applique ses garde-fous éthiques. Le cœur du procédé repose sur une technique baptisée distillation, qui consiste à entraîner un modèle plus petit en le nourrissant des réponses d’un modèle source – ici, Claude – jusqu’à ce qu’il en reproduise l’essentiel des performances.

Ingénieurs dans un centre d’opérations en France surveillant des écrans affichant un trafic massif vers un modèle d’IA, métaphore de la distillation industrielle de Claude via l’infrastructure Hydra.
Cette salle d’opérations illustre l’attaque industrielle décrite par Anthropic, où des milliers de comptes automatisés siphonnent les capacités de Claude via des infrastructures comme Hydra.

Concrètement, les équipes de DeepSeek, Moonshot AI et MiniMax auraient utilisé un réseau de 24 000 comptes frauduleux pour générer 16 millions d’interactions avec Claude. Ces comptes, souvent créés via des services de proxy ou des infrastructures comme Hydra – une plateforme chinoise spécialisée dans l’automatisation de requêtes – ont soumis des prompts sophistiqués pour pousser Claude à dévoiler ses capacités les plus avancées. DeepSeek se serait concentré sur le raisonnement par chaînes de pensée (chain-of-thought), une approche qui permet aux modèles d’IA de décomposer des problèmes complexes étape par étape. Moonshot AI, de son côté, aurait ciblé les agents de codage, ces systèmes capables d’écrire et de déboguer du code à la demande. Quant à MiniMax, il aurait détourné près de la moitié de son trafic vers Claude dès le lancement de sa dernière version, signe de l’urgence avec laquelle ces acteurs cherchaient à combler leur retard.

Le point le plus sensible reste pourtant ailleurs : ces modèles « distillés » ne conservent aucun des garde-fous éthiques de Claude. Là où le modèle d’Anthropic refuse catégoriquement d’aider à concevoir des armes biologiques ou des cyberattaques, ses copies chinoises ne sont pas contraintes par les mêmes limitations. Elles pourraient être intégrées à des systèmes de surveillance de masse ou à des capacités d’opérations cyber-offensives, au cœur d’outils d’influence ou de renseignement. Dario Amodei, directeur général d’Anthropic, résume l’enjeu en quelques mots :

Ce n’est pas seulement une question de propriété intellectuelle, c’est une menace directe pour la sécurité nationale.
Dario Amodei, CEO d’Anthropic, conférence de presse du 23 février

Derrière cet avertissement se profile une réalité brutale : la Chine dispose désormais d’un moyen de contourner les sanctions américaines sur les semi-conducteurs en siphonnant directement les capacités des modèles occidentaux, sans avoir à investir au même niveau dans des infrastructures lourdes ni dans les coûteuses phases d’entraînement initial.


Souveraineté technologique : quand la distillation devient une arme géopolitique

La distillation n’est pas une découverte récente : elle est utilisée depuis des années en interne pour réduire la taille des modèles et en faciliter le déploiement. Mais son utilisation à grande échelle, dans un contexte de concurrence stratégique entre puissances, en fait désormais un outil de puissance. Pour comprendre pourquoi, il faut remonter à l’été 2023, lorsque les États-Unis ont durci les restrictions sur l’exportation de puces haut de gamme vers la Chine, notamment les Nvidia H100 et H200. L’objectif affiché était simple : empêcher Pékin de développer des modèles d’IA aussi performants que ceux de l’Occident. L’affaire révélée par Anthropic montre que la Chine a trouvé une autre voie, en extrayant les capacités des modèles occidentaux plutôt qu’en les recréant de zéro.

Mira Murati, ancienne directrice technique d’OpenAI, résume l’importance des blocages intégrés dans les grands modèles :

Les garde-fous de Claude ne sont pas des options, ce sont des protections indispensables contre les abus les plus graves.
Mira Murati, ex-CTO d’OpenAI, entretien avec Bloomberg

Or, ces protections disparaissent lors d’une distillation conduite sans contraintes. Résultat : un modèle chinois peut, en théorie, être utilisé pour optimiser des algorithmes de surveillance, concevoir des malware sur mesure ou même aider à la planification d’opérations militaires, sans que ses créateurs n’aient à assumer les garde-fous imposés par les développeurs initiaux. Un ancien employé de Google DeepMind, qui a accepté de témoigner anonymement, va plus loin :

C’est comme voler une voiture blindée, enlever tous les systèmes de sécurité et la revendre à un cartel.
Ancien ingénieur de Google DeepMind, sous couvert d’anonymat

Cette pratique pose une question politique et juridique : jusqu’où peut aller l’extraction de connaissances sans basculer dans le pillage pur et simple ? La distillation relève-t-elle d’un reverse engineering légal ou d’une violation caractérisée de la propriété intellectuelle ? Les laboratoires chinois n’ont pas encore réagi officiellement aux accusations, mais leur silence alimente les spéculations. Pour James Lewis, expert en cybersécurité au Center for Strategic and International Studies (CSIS), la pression créée par les restrictions américaines explique en partie ce choix de méthode :

La Chine a été poussée dans ses retranchements par les limites sur les puces, elle exploite maintenant les failles restantes pour rattraper son retard.
James Lewis, spécialiste cybersécurité au CSIS


1. Un contournement des sanctions qui fonctionne… trop bien

Une grande partie du dispositif repose sur l’infrastructure Hydra, une plateforme chinoise permettant d’automatiser à grande échelle des requêtes vers des modèles d’IA occidentaux. Selon des sources proches du dossier, MiniMax aurait utilisé cette infrastructure pour rediriger massivement du trafic vers Claude, au point qu’Anthropic a dû renforcer ses systèmes de détection d’abus. Un ingénieur de la société a détaillé une partie de ces signaux dans un fil publié sur X (ex-Twitter) le 22 février :

Nous avons observé des schémas de requêtes qui ne correspondaient à aucun usage légitime, les comptes ne posaient pas des questions, ils extraient des réponses à la chaîne.
Ingénieur d’Anthropic, témoignage anonyme sur X

Conséquence directe : des modèles chinois capables de rivaliser avec des systèmes beaucoup plus coûteux à entraîner. DeepSeek aurait ainsi utilisé les données distillées pour renforcer son modèle de récompense, un composant clé qui évalue et optimise les performances d’un système d’IA. Sans disposer du même volume de puces Nvidia H100, la Chine parvient à combler une partie de son retard technologique en capitalisant sur l’avance occidentale. Dario Amodei résume ce renversement de dépendance :

C’est une forme de souveraineté technologique par procuration, ils n’ont plus besoin de nos usines de puces s’ils peuvent voler nos capacités logicielles.
Dario Amodei, CEO d’Anthropic, lettre ouverte au BIS

2. La distillation comme outil de contournement des sanctions américaines

Les restrictions imposées par le Bureau of Industry and Security (BIS) américain sur les exportations de semi-conducteurs visaient explicitement à empêcher la Chine de développer des capacités d’IA avancées. Mais l’affaire Anthropic met en lumière une faille majeure : pourquoi investir des milliards dans des puces et des data centers quand il est possible d’extraire les connaissances de modèles déjà entraînés, à distance et à moindre coût ?

Jensen Huang, PDG de Nvidia, ne cache pas son scepticisme sur l’efficacité des contrôles actuels :

Les sanctions sur les puces ont eu l’effet inverse de celui recherché, elles ont surtout poussé la Chine à inventer de nouvelles méthodes de contournement.
Jensen Huang, PDG de Nvidia, déclaration du 20 février

Huang fait référence aux puces Ascend de Huawei, mais aussi à des techniques comme la distillation, qui permettent de bypasser les barrières technologiques sans bâtir une infrastructure complète. Pour Anthropic, cette situation est désormais intenable. Dans une lettre ouverte adressée au BIS le 23 février, Dario Amodei réclame un durcissement immédiat des contrôles sur l’accès aux modèles d’IA occidentaux :

La distillation n’est pas seulement un enjeu de propriété intellectuelle, c’est une menace directe pour la sécurité nationale américaine.
Dario Amodei, CEO d’Anthropic, lettre ouverte au BIS

Selon lui, si la Chine peut extraire à cette échelle les capacités de modèles comme Claude, les restrictions sur les puces perdent une grande partie de leur intérêt stratégique.


Le grand paradoxe de l’IA : quand les géants occidentaux dénoncent ce qu’ils ont eux-mêmes pratiqué

L’affaire Anthropic a déclenché une vague de réactions indignées en Occident, mais elle met aussi en lumière une hypocrisie structurelle de l’industrie de l’IA. Anthropic, OpenAI et d’autres acteurs ont bâti leurs modèles sur une pratique largement contestée : l’aspiration massive de données protégées par le droit d’auteur, souvent sans licence explicite ni rémunération des ayants droit. Cette contradiction alimente les critiques, y compris dans le camp républicain. Sur sa plateforme Truth Social, Donald Trump a taclé les grands laboratoires américains :

Anthropic accuse les Chinois de voler, mais ce sont les entreprises américaines qui ont d’abord aspiré des livres et des articles sans payer personne.
Donald Trump, message publié sur Truth Social le 23 février

La remarque est volontairement provocatrice, mais elle renvoie à des précédents bien réels. En 2020, OpenAI avait été accusée d’avoir entraîné GPT-3 sur des données protégées sans compensation. Google a également dû répondre à des plaintes pour avoir utilisé des livres numérisés sans autorisation préalable. Pour Yann LeCun, ancien directeur de l’IA chez Facebook, la ligne rouge n’est pas tant la technique que l’usage qui en est fait :

La distillation est un outil légitime en interne, mais lorsqu’elle sert à copier systématiquement les capacités d’un concurrent, on se rapproche de l’espionnage industriel.
Yann LeCun, chercheur en IA, entretien académique

La différence majeure, selon les grands laboratoires occidentaux, tient à l’échelle et au contexte. Là où Anthropic et OpenAI distillent leurs propres modèles de manière contrôlée et interne, les équipes chinoises auraient mené une opération industrielle et externe, en visant ouvertement un modèle concurrent. Mira Murati insiste sur cette distinction :

Ce n’est pas une simple optimisation pour smartphone, c’est une extraction massive et ciblée destinée à contourner les sanctions et à obtenir un avantage stratégique.
Mira Murati, ex-CTO d’OpenAI, entretien avec Bloomberg


3. La distillation, une pratique courante… mais pas à cette échelle

Sur le plan technique, la distillation consiste à entraîner un modèle élève (student) à partir des réponses d’un modèle professeur (teacher), plus puissant. Cette approche permet de réduire la taille et le coût de déploiement d’un modèle, tout en conservant une part substantielle de ses capacités. Google, par exemple, utilise la distillation pour adapter Bard, devenu Gemini, à des appareils mobiles où les ressources sont limitées.

Le problème surgit lorsque cette technique est appliquée à grande échelle et sur des modèles tiers. « En interne, la distillation reste un outil d’optimisation », rappelle Andrew Ng, fondateur de Coursera et ancien directeur de l’IA chez Google. « Mais quand elle sert à extraire les connaissances d’un modèle concurrent, la frontière avec l’espionnage industriel devient ténue. » Le flou juridique autour de ces pratiques laisse pour l’instant les acteurs dans une zone grise.

Autre difficulté : personne ne sait vraiment comment détecter et mesurer précisément cette pratique. Anthropic évoque des méthodes de fingerprinting comportemental pour identifier les comptes frauduleux, sans détailler ses algorithmes. Une opacité qui nourrit le doute. Pour Emily Bender, professeure en linguistique informatique à l’Université de Washington, ce manque de transparence limite la portée des accusations :

Sans informations techniques plus détaillées, il est difficile d’évaluer la solidité des preuves avancées contre les laboratoires chinois.
Emily Bender, professeure à l’Université de Washington

4. Le silence des laboratoires chinois : une stratégie calculée ?

À ce jour, DeepSeek, Moonshot AI et MiniMax n’ont publié aucun démenti ni commentaire officiel. Ce silence peut s’expliquer de plusieurs façons, toutes lourdes de conséquences :

  • Une reconnaissance implicite de la pratique : en ne contestant pas, ces laboratoires laissent planer le doute sur leur rôle, ce qui peut leur permettre de gagner du temps tout en exploitant encore les bénéfices des modèles distillés.
  • Une volonté d’éviter une escalade diplomatique : répondre publiquement à Anthropic risquerait de tendre davantage les relations déjà fragiles entre Pékin et Washington.
  • Un manque d’accès aux éléments techniques : sans avoir la main sur les journaux de requêtes d’Anthropic, ces laboratoires peinent à contester point par point les accusations.

Pour James Lewis, ce silence est tout sauf neutre :

Leur refus de répondre nourrit le soupçon, soit parce qu’ils sont en faute, soit parce qu’ils jugent qu’ils ont plus à perdre qu’à gagner en se défendant publiquement.
James Lewis, spécialiste cybersécurité au CSIS


Washington en émoi : et maintenant, que faire ?

L’affaire Anthropic éclate au plus mauvais moment pour l’administration Trump, qui vient tout juste d’assouplir certaines restrictions sur l’exportation de puces Nvidia H200 vers la Chine. Dans un climat déjà électrique entre Washington et Pékin, ces révélations relancent le débat sur la nécessité de resserrer le contrôle des transferts de technologies liés à l’IA.

La ligne d’Anthropic est claire : il faut durcir les règles. Lors d’une audition devant le Congrès le 22 février, Dario Amodei a plaidé pour un blocage quasi total de l’accès aux modèles d’IA occidentaux pour les entités chinoises, sauf dérogations strictement encadrées. Il a notamment averti les élus :

La distillation montre que la Chine possède déjà assez de puissance de calcul pour nous rattraper, si nous ne réagissons pas vite nous perdrons notre avance en quelques années.
Dario Amodei, CEO d’Anthropic, audition au Congrès

L’exécutif américain défend pour l’instant une approche plus pragmatique. Lors d’une conférence de presse le 21 février, la secrétaire au Commerce Gina Raimondo a rappelé que les précédentes vagues de restrictions avaient surtout stimulé l’innovation chinoise, comme en témoigne le développement des puces Ascend par Huawei. Elle insiste sur le fait que les nouvelles Nvidia H200 sont désormais vendues sous conditions : phase de test obligatoire et taxe de 25 % sur certaines livraisons sensibles.

Au Congrès, des élus comme la démocrate Elizabeth Warren et le républicain Jim Banks préparent une proposition de loi, l’AI Overwatch Act, destinée à bloquer durablement la vente de puces avancées à la Chine. Warren résume ainsi l’enjeu dans un communiqué :

Il ne s’agit plus seulement de protéger des emplois, mais de sécuriser notre leadership technologique face à un rival stratégique déterminé.
Elizabeth Warren, sénatrice démocrate, présentation de l’AI Overwatch Act


5. L’effet boomerang des sanctions : quand la Chine accélère son indépendance

Les critiques les plus directes à l’encontre des restrictions américaines viennent souvent de l’industrie elle-même. Jensen Huang, PDG de Nvidia, parle ouvertement d’un « échec stratégique » : selon lui, ces politiques n’ont fait qu’accélérer le développement du secteur chinois des semi-conducteurs, tout en privant les entreprises américaines d’un marché clé. « Au lieu de ralentir la Chine, nous l’avons poussée à innover », martèle-t-il régulièrement, en référence aux avancées de Huawei et à la montée en puissance des laboratoires locaux.

Pour Huang, la voie de sortie passe par une coopération encadrée plutôt que par un durcissement permanent des sanctions. Cette vision rejoint celle de certains économistes comme Erik Brynjolfsson, du Stanford AI Institute, pour qui l’isolement technologique est contre-productif. L’un des scénarios redoutés par ces experts est l’émergence d’une IA « parallèle », développée hors des cadres de gouvernance occidentaux, beaucoup moins encadrée en matière de sécurité et de respect des droits fondamentaux.

6. L’UE, spectatrice impuissante ?

Alors que les États-Unis et la Chine s’affrontent sur le terrain de l’IA, l’Union européenne apparaît une fois de plus en retrait, même si elle n’est pas à l’abri. Les modèles européens comme Mistral ou Llama pourraient, à leur tour, devenir des cibles de distillation pour des acteurs étatiques ou privés. « Nous devons nous préparer à des scénarios où nos technologies seraient utilisées à des fins que nous ne maîtrisons plus », prévient Margrethe Vestager, vice-présidente de la Commission européenne chargée du numérique.

Pour l’instant, Bruxelles privilégie une approche largement régulatoire, via l’AI Act, plutôt qu’une politique de contrôle des exportations proche du modèle américain. « Nous ne pouvons pas nous permettre de reproduire les erreurs américaines », estime Vestager. « Les sanctions unilatérales risquent d’alimenter les tensions, là où nous avons besoin de normes communes et de mécanismes partagés de supervision. »

Mais cette stratégie pourrait être rapidement reconsidérée si les attaques de distillation se multipliaient. En France, le ministre de l’Économie Bruno Le Maire plaide déjà pour une ligne plus ferme :

L’Europe ne peut pas rester spectatrice pendant que Washington et Pékin se disputent l’IA, si nos modèles deviennent des cibles nous devrons aussi renforcer nos défenses.
Bruno Le Maire, ministre de l’Économie, déclaration publique


La distillation comme symptôme d’un système à bout de souffle

Derrière cette affaire, c’est une crise plus profonde qui apparaît : le modèle actuel de développement de l’IA arrive en bout de course. D’un côté, les géants occidentaux dénoncent le pillage technologique chinois, alors qu’ils ont eux-mêmes bâti leurs modèles sur des pratiques contestées en matière de propriété intellectuelle. De l’autre, la Chine, privée d’accès à certaines puces et à des gisements de données, recourt à des méthodes de contournement qui alimentent une escalade géopolitique.

Délégués internationaux, dont un représentant français au premier plan, participant à une conférence sur la gouvernance de l’IA et les risques de distillation abusive des modèles.
Une scène de négociation internationale qui illustre l’appel à une gouvernance mondiale de la distillation et des modèles d’IA, présentée comme alternative à une course aux armements technologiques.

Kate Crawford, professeure à l’USC Annenberg et autrice de Atlas of AI, résume ainsi cette impasse :

Nous avons un système où presque personne ne respecte pleinement les règles, mais tout le monde accuse les autres d’en tirer un avantage injuste.
Kate Crawford, professeure à l’USC Annenberg

Pour elle, la sortie de crise passe par la création de mécanismes de gouvernance internationale. Il s’agirait de définir ce qui constitue une extraction illégitime de connaissances, de fixer des seuils de tolérance techniques, et de prévoir des sanctions ciblées pour les États ou les entreprises qui les franchiraient. Faute de quoi, le risque est de voir s’installer une véritable course aux armements technologiques, où chaque camp chercherait à contourner les règles plus vite que ses concurrents.

Reste une question centrale : qui a intérêt à ce que cette confrontation dure ? Les géants de l’IA, qui voient leurs modèles devenir des actifs stratégiques et des arguments de lobbying ? Les gouvernements, qui utilisent ces tensions pour justifier des budgets massifs en défense et en cybersécurité ? Ou les citoyens, qui risquent de payer la facture en matière de surveillance de masse et de restrictions des libertés, au nom d’une souveraineté technologique mal définie ?

Une chose ne fait guère de doute : l’époque de l’IA perçue comme neutre ou innocente est révolue. Désormais, chaque modèle, chaque ligne de code, chaque base de données peut devenir un enjeu de sécurité nationale. Et dans cette nouvelle configuration, les premiers perdants pourraient être ceux qui espéraient encore un progrès technologique véritablement désintéressé.


Sur le même Thème :

Laisser un commentaire