Anthropic refuse le Pentagone, Claude explose sur l’App Store

·

·

Smartphone affichant l’application Claude d’Anthropic en tête du classement de l’App Store, avec en arrière-plan flou une atmosphère de tension politique et médiatique.
Résumer cet article avec :

L’application Claude d’Anthropic a réalisé en une semaine ce que des années de marketing n’auraient peut-être pas accompli : devenir l’application la plus téléchargée de l’App Store américain, devant ChatGPT. Ce basculement s’est joué sur quelques jours seulement. Le 1er mars 2026, Claude a bondi de la 131e place à la première, avec une croissance de 60 % d’utilisateurs gratuits depuis janvier et un triplement des inscriptions quotidiennes depuis novembre 2025. Derrière cette ascension rapide : un effet Streisand politique, où les attaques de Donald Trump contre Anthropic ont servi de publicité, transformant une entreprise discrète en étendard pour une partie des défenseurs d’une IA encadrée. Pendant ce temps, OpenAI, dirigée par Sam Altman, signe un accord avec le Pentagone pour déployer ses modèles sur des réseaux classifiés, marquant un choix assumé de collaboration étroite avec l’appareil sécuritaire américain.


À retenir

  • Claude d’Anthropic a dépassé ChatGPT sur l’App Store américain en une semaine, grâce à un effet Streisand déclenché par les critiques de Donald Trump.
  • L’application a vu ses utilisateurs gratuits augmenter de 60 % depuis janvier 2026, avec des abonnements Pro doublés en trois mois.
  • Anthropic refuse un contrat de 200 millions de dollars avec le Pentagone, en posant deux lignes rouges : interdiction de la surveillance de masse et rejet des armes autonomes sans contrôle humain.
  • En représailles, Trump a ordonné aux agences fédérales de bannir Anthropic, qualifiant l’entreprise de « risque pour la sécurité nationale » – une première pour une société américaine.
  • OpenAI profite de la situation en signant un partenariat avec le Département de la Défense, tandis qu’un mouvement #QuitGPT incite à boycotter ChatGPT au profit de Claude Pro.
  • Anthropic prépare un recours judiciaire contre cette décision, dénonçant une « lettre écarlate » qui pourrait redéfinir les règles du secteur de l’IA aux États-Unis.

Cette bataille n’est pas qu’une querelle entre une startup et l’administration américaine. Elle révèle une fracture profonde entre deux visions de l’intelligence artificielle : celle d’un outil au service de la souveraineté technologique, avec des garde-fous éthiques stricts, et celle d’un instrument de puissance intégré aux chaînes de commandement militaires ou aux systèmes de surveillance. Dario Amodei, le PDG d’Anthropic, a posé ces lignes rouges en 2025, refusant que ses modèles soient utilisés pour la surveillance de masse des citoyens américains ou pour des armes autonomes sans supervision humaine. Des principes qui semblaient largement partagés il y a encore quelques années sont désormais perçus comme une prise de position politique par une partie de Washington.

Le 27 février 2026, Donald Trump a franchi un cap en ordonnant aux agences fédérales de cesser toute collaboration avec Anthropic, avec un délai de six mois pour un retrait total. Cette décision met l’entreprise sur le même plan que des groupes comme Huawei, accusés de menacer la sécurité nationale. Pete Hegseth, le secrétaire à la Défense, a justifié la mesure en évoquant un « risque pour la chaîne d’approvisionnement », un vocabulaire d’ordinaire réservé aux entreprises jugées proches de puissances étrangères. Pour Anthropic, cette stigmatisation pourrait peser lourd sur ses contrats publics, tout en lui offrant un coup de projecteur médiatique inédit auprès du grand public.

Car si l’administration voit en Anthropic un risque, une partie des utilisateurs y voit un contrepoids. Les données de Sensor Tower le confirment : depuis les déclarations de Trump, les téléchargements de Claude ont été multipliés par trois, tandis que les abonnements Pro – payants – ont doublé en trois mois. Sur les réseaux sociaux, le mouvement #QuitGPT, porté notamment par la chanteuse Katy Perry, incite les utilisateurs à migrer vers Claude Pro, perçu comme une alternative plus éthique et indépendante.

« Si le gouvernement veut censurer une entreprise parce qu’elle refuse de devenir complice de la surveillance, alors c’est le moment de la soutenir. »
tweet de l’influenceur @TechEthics

Ce type de message s’est largement diffusé, renforçant l’image d’Anthropic auprès d’un public sensible aux conditions d’usage de l’IA. Le débat sur l’alignement des modèles d’IA avec les priorités de l’État sort ainsi des cercles spécialisés pour toucher un public beaucoup plus large.


Un effet Streisand qui dépasse les attentes

L’effet Streisand – ce phénomène où une tentative de censure ou de pression attire davantage l’attention sur sa cible – apparaît ici de façon spectaculaire. Le 28 février, Donald Trump a publié une série de messages sur Truth Social, qualifiant les dirigeants de l’entreprise de « gauchistes radicaux » et accusant Anthropic de vouloir « faire pression sur le Département de la Guerre ». Cette rhétorique, pensée pour discréditer la startup, a au contraire transformé son refus de collaborer avec le Pentagone en signal de fiabilité pour une partie des utilisateurs.

Plusieurs smartphones posés sur une table, l’un mettant en avant l’application Claude d’Anthropic face à ChatGPT, avec un style évoquant une brusque montée dans les classements de l’App Store.
L’effet Streisand propulse Claude devant ChatGPT dans les classements de l’App Store américain.

Les chiffres sont nets : entre le 28 février et le 1er mars, Claude a gagné 67 places dans le classement de l’App Store, passant de la 6e à la 1ère position. Une progression rare pour une application grand public, d’autant que ChatGPT, pourtant installé depuis longtemps, n’a pas bénéficié de rebond similaire.

« Ce n’est pas un bug, c’est une feature. »
Dan Ives, analyste chez Wedbush

L’analyste compare la situation à une « lettre écarlate » inversée : le bannissement fédéral, loin d’être un handicap auprès du public, sert de signal de différenciation face aux autres acteurs.

Du côté d’OpenAI, la réponse a été rapide. Le 29 février, Sam Altman a annoncé un partenariat avec le Pentagone pour déployer ses modèles sur des réseaux classifiés, en assurant que ses principes de sécurité – notamment l’interdiction de la surveillance de masse – étaient alignés avec les politiques du gouvernement. Ce choix clarifie le positionnement de l’entreprise : pendant qu’Anthropic est décrite comme trop militante par une partie de la droite américaine, OpenAI se présente comme un prestataire capable de concilier innovation et coopération étroite avec l’État.

Cette divergence masque toutefois des tensions internes au monde militaire. Les forces armées américaines, soucieuses de sécuriser leurs fournisseurs, ne sont pas unanimes sur la voie à suivre. Selon des sources proches du Département de la Défense, certains responsables redoutent que les garde-fous éthiques d’OpenAI – comme l’interdiction de développer des algorithmes létaux entièrement autonomes – ne restreignent leurs capacités opérationnelles à long terme.

« Nous avons besoin d’IA fiables, mais aussi d’IA capables de s’adapter à des scénarios de guerre. »
un haut gradé américain, sous couvert d’anonymat

Ces divergences internes laissent entrevoir un marché de l’IA militaire fragmenté, partagé entre prestataires qui acceptent de lever certains garde-fous et acteurs qui s’y refusent, quitte à perdre des contrats publics clés.


Anthropic face à un dilemme : résister ou s’adapter ?

Un recours judiciaire pour contester la « lettre écarlate »

Anthropic n’a pas l’intention de se laisser faire. Dès le 2 mars, l’entreprise a annoncé son projet de contester devant les tribunaux la désignation de « risque pour la sécurité nationale », qu’elle juge juridiquement infondée et disproportionnée.

« Cette décision n’a aucun fondement légal. »
Dario Amodei, PDG d’Anthropic, dans un communiqué

« Anthropic est une entreprise américaine, fondée et dirigée par des citoyens américains, qui respecte toutes les lois en vigueur. Nous ne pouvons pas accepter d’être traités comme une menace étrangère. »
Dario Amodei, PDG d’Anthropic

Les avocats de la startup avancent un argument central : aucune loi américaine ne permet à l’exécutif de bannir une entreprise privée au seul motif qu’elle refuse un contrat.

« C’est une mesure punitive, qui vise à intimider. »
Emily Baker, professeure de droit à l’Université de Stanford

Si cette interprétation était validée par la justice, la décision présidentielle pourrait être annulée et servir de référence pour d’autres litiges entre la Maison-Blanche et des fournisseurs technologiques. Pour Anthropic, l’enjeu dépasse toutefois le strict terrain juridique. Une victoire en justice renforcerait son positionnement face à des groupes comme Google ou Microsoft, en consolidant son image d’entreprise indépendante et éthique. À l’inverse, une défaite pourrait l’obliger à revoir son modèle économique, en réduisant ses investissements dans la recherche fondamentale au profit de contrats privés moins exposés politiquement.

Salle de réunion moderne avec l’équipe dirigeante d’Anthropic en pleine discussion stratégique, des ordinateurs affichant l’interface de Claude et des dossiers juridiques étalés sur la table.
Anthropic se retrouve face à un dilemme stratégique entre résistance juridique et adaptation aux exigences de l’État.

Le risque d’une polarisation durable du secteur

Au-delà du cas d’Anthropic, cette affaire pourrait avoir des effets durables sur l’écosystème de l’IA aux États-Unis. D’un côté, les entreprises qui acceptent de collaborer avec le gouvernement – comme OpenAI – pourraient bénéficier de contrats juteux, mais au prix d’une possible perte de confiance auprès d’une partie du public. De l’autre, celles qui refusent, comme Anthropic, risquent de voir leur croissance freinée par des mesures administratives, tout en gagnant en légitimité éthique auprès d’utilisateurs plus politisés.

Cette polarisation pourrait aussi accélérer la fragmentation du marché. En Europe, où les régulations sur l’IA sont plus strictes – notamment avec l’AI Act –, des entreprises comme Mistral AI ou Aleph Alpha pourraient attirer des talents et des investisseurs américains à la recherche d’un cadre plus prévisible.

« Les États-Unis risquent de perdre leur avance si leurs meilleures entreprises sont étouffées par des décisions politiques. »
Kate Crawford, chercheuse en éthique de l’IA à l’Université de New York

Dans le même temps, les attentes des consommateurs évoluent. Le mouvement #QuitGPT, encore limité en volumes, montre néanmoins que les utilisateurs accordent davantage de poids aux enjeux éthiques liés aux services qu’ils utilisent. Pour les entreprises d’IA, le défi sera de concilier performance et transparence, sous peine de voir une partie de leur audience se tourner vers des alternatives jugées plus responsables.

Et maintenant ? Trois scénarios possibles

  • Le scénario judiciaire : Anthropic gagne son recours, et la décision de Trump est annulée. Cela renforcerait son positionnement éthique, mais inciterait d’autres entreprises à adopter une ligne plus dure, complexifiant les relations avec le gouvernement.
  • Le scénario de l’adaptation : Anthropic accepte de renégocier avec le Pentagone, en assouplissant certaines restrictions. Elle conserverait ainsi une partie de ses contrats, au risque de perdre une partie de sa crédibilité auprès des utilisateurs les plus engagés.
  • Le scénario de la fragmentation : le conflit s’enlise, et Anthropic se recentre sur le marché civil, tandis que le gouvernement américain se tourne vers d’autres acteurs, comme OpenAI ou des startups spécialisées dans l’IA militaire. Le secteur se bipolarise durablement : d’un côté des entreprises grand public axées sur l’éthique, de l’autre des prestataires tournés vers la défense.

Sur le fond, ce bras de fer rappelle que l’IA n’est plus seulement un sujet technologique, mais un débat de choix de société. Avec sa décision de refuser certains usages militaires, Anthropic s’impose désormais comme un acteur central de cette discussion, face à une administration déterminée à préserver son avantage stratégique sur le terrain de l’IA.


Sur le même Thème :

Laisser un commentaire