Anthropic a annoncé, le 5 septembre 2025, une mise à jour de ses conditions de service qui interdit la vente de son IA Claude aux entités contrôlées par la Chine, ainsi qu’à celles de la Russie, de la Corée du Nord et de l’Iran. Cette mesure, motivée par des risques légaux, réglementaires et de sécurité, vise à empêcher le détournement de technologies d’intelligence artificielle à des fins militaires ou de renseignement. Elle impacte directement des géants comme ByteDance, Tencent ou Alibaba et soulève d’importantes questions de souveraineté technologique.
À retenir
- Le 5 septembre 2025, Anthropic a élargi son interdiction d’accès à Claude aux entreprises soumises à un contrôle chinois, russe, nord-coréen ou iranien.
- L’interdiction concerne tous les modèles Claude, y compris Claude 3.5 Sonnet, ainsi que les outils de développement associés.
- Les raisons invoquées sont les risques légaux, réglementaires et de sécurité liés aux exigences de partage de données et aux potentielles utilisations militaires.
- Des sociétés telles que ByteDance, Tencent et Alibaba pourraient perdre l’accès à Claude, même via des filiales implantées hors de Chine.
- Anthropic estime que la mesure pourrait coûter « des centaines de millions de dollars », soit environ 170 millions d’euros, mais affirme que la protection des intérêts nationaux américains prime.
- Cette décision crée un précédent dans l’industrie de l’IA, incitant d’autres acteurs à envisager des restrictions similaires.
Anthropic durcit l’accès à son IA Claude pour les entités chinoises
Le géant américain de l’intelligence artificielle a officiellement limité l’accès à ses services pour toute organisation dont la structure de propriété relève du contrôle de la Chine. Cette décision s’inscrit dans une dynamique de renforcement de la conformité aux exigences de sécurité nationale.
La nouvelle politique et ses motivations
Le 5 septembre 2025, Anthropic a publié une mise à jour de ses conditions d’utilisation. Elle interdit la vente de Claude aux entreprises contrôlées par la Chine ainsi qu’à celles situées en Russie, en Corée du Nord et en Iran. Selon le communiqué de la société, les risques légaux, réglementaires et de sécurité sont les principaux moteurs de cette mesure. Les autorités américaines ont récemment renforcé les contrôles d’exportation d’IA afin d’éviter que des technologies avancées ne soient détournées à des fins militaires ou de surveillance massive.
Portée de l’interdiction
L’interdiction s’applique à tous les modèles Claude, y compris le récent Claude 3.5 Sonnet, ainsi qu’aux outils de développement associés. Elle ne se limite pas aux entités opérant en Chine ; les filiales, coentreprises ou divisions à l’étranger, tant qu’elles sont majoritairement détenues ou contrôlées par des intérêts chinois, sont concernées. Ainsi, même une filiale de Alibaba implantée à Paris ou à San Francisco resterait soumise à l’interdiction, du fait de son rattachement juridique à la maison-mère chinoise.
Contexte réglementaire et sécuritaire
Le cadre légal américain impose depuis plusieurs années des exigences de contrôle des exportations d’IA vers des juridictions jugées hostiles. Le Export Control Reform Act (ECRA) oblige les fournisseurs à vérifier que leurs produits ne seront pas réutilisés à des fins contraires à la sécurité nationale. Anthropic a indiqué que des entreprises chinoises pourraient être contraintes, par la loi de ce pays, à partager des données ou à collaborer avec les services de renseignement. La société a donc choisi d’empêcher toute « façade » qui permettrait d’accéder à Claude via des entités étrangères, tout en restant sous l’influence du droit chinois.

Les enjeux géopolitiques et de sécurité nationale derrière la décision
Au-delà d’une simple question de conformité, la décision d’Anthropic reflète une stratégie plus large de protection de la souveraineté technologique américaine.
Prévention des usages militaires et autoritaires
Les responsables américains craignent que des modèles d’IA puissants soient intégrés à des systèmes d’armes autonomes ou à des plateformes de surveillance de masse. Un usage militaire de Claude, par exemple, pourrait permettre de générer des stratégies de combat ou d’analyser des cibles en temps réel. De même, le modèle pourrait être détourné pour créer des outils de censure ou de désinformation, renforçant le contrôle autoritaire des régimes concernés. Anthropic a souligné que l’interdiction vise à limiter ces scénarios à un niveau « prudent ».
Un précédent dans l’industrie de l’IA
Selon Nicholas Cook, avocat spécialisé dans le droit de l’IA, il s’agit de « la première fois qu’une grande entreprise américaine d’IA impose une interdiction formelle et publique de ce type ». Cette prise de position rompt avec la tradition de neutralité politique de la plupart des géants du secteur, qui préfèrent éviter les conflits géopolitiques. En affichant clairement ses critères de sélection, Anthropic se place comme défenseur actif des intérêts nationaux, ce qui pourrait inciter d’autres acteurs, comme Google DeepMind ou Microsoft, à adopter des politiques similaires.
Répercussions économiques et stratégiques
Anthropic a admis que la mesure entraînerait une perte de revenus estimée à des centaines de millions de dollars. En convertissant 200 M$ en euros au taux actuel (1 USD = 0,8549 EUR), la perte représente environ 170 M€. Malgré cet impact, la société affirme que la protection de la sécurité nationale prime sur le profit. La décision survient alors que la Chine développe rapidement ses propres modèles, comme ceux de Alibaba et Baidu, réduisant la dépendance aux solutions américaines. Les régulateurs américains ont déjà interdit l’usage fédéral de DeepSeek, une IA chinoise, renforçant ainsi le climat de méfiance entre les deux puissances.

Anthropic : un acteur clé de l’IA et sa vision de la responsabilité
Fondée en 2021 à San Francisco, Anthropic s’est rapidement imposée comme l’un des principaux fournisseurs de modèles de langage, grâce à son chatbot Claude et à une levée de fonds soutenue par Amazon.
Présentation d’Anthropic et ses modèles Claude
L’entreprise, valorisée à près de 183 milliards de dollars, compte plus de 300 000 clients d’entreprise. Son portefeuille comprend plusieurs versions de Claude, dont Claude 3.5 Sonnet, réputée pour sa capacité à gérer des dialogues complexes et à générer du code. Ces modèles sont déployés via une API cloud, accessible aux développeurs et aux organisations qui souhaitent intégrer l’IA dans leurs produits.
Engagement envers la sécurité et la conformité
Le PDG Dario Amodei a longtemps plaidé pour des contrôles d’exportation plus stricts, affirmant que les technologies d’IA constituent une infrastructure critique comparable à l’énergie ou aux télécommunications. Anthropic se décrit comme une entreprise responsable, soucieuse de prévenir les usages malveillants et de garantir la conformité aux législations internationales. Cette posture se traduit par des audits internes, des programmes de formation en éthique de l’IA et la mise en place de garde-fous techniques visant à détecter les requêtes à risque.
Réactions et perspectives d’autres géants de la Tech
Les rivaux chinois, notamment Alibaba, Tencent et ByteDance, ont réagi en accélérant le développement de modèles locaux afin de combler le vide laissé par l’absence de Claude. De leur côté, les grandes firmes américaines comme Microsoft et Google surveillent la démarche d’Anthropic. Certains analystes estiment que la décision pourrait déclencher une fragmentation du marché mondial de l’IA, chaque bloc géopolitique cherchant à protéger ses propres intérêts technologiques. Cette dynamique pourrait pousser les législateurs européens à élaborer des règles harmonisées, afin de garantir un accès équitable tout en préservant la sécurité des données.
| Entité | Statut vis-à-vis de Claude | Impact économique estimé |
|---|---|---|
| ByteDance | Interdit (contrôle chinois) | Perte potentielle de services IA, coût de migration ≈ 5 M€ |
| Tencent | Interdit (contrôle chinois) | Réduction d’accès à Claude 3.5 Sonnet, impact non quantifié |
| Alibaba | Interdit (contrôle chinois) | Investissement dans IA locale de 1,2 M€ |
| Entreprises américaines | Autorisé | Maintien du chiffre d’affaires actuel |
















