Cancel ChatGPT fait chuter OpenAI après l’accord avec le Pentagone

·

·

Une personne consulte l’interface de ChatGPT sur un ordinateur portable avec le Pentagone en arrière-plan, illustrant la crise provoquée par l’accord entre OpenAI et le Department of Defense.
Résumer cet article avec :

Le 28 février 2026, OpenAI a scellé un pacte de 200 millions de dollars avec le Department of Defense américain, déclenchant une crise sans précédent dans l’écosystème de l’IA. En moins de 48 heures, le mouvement Cancel ChatGPT a enflammé les réseaux sociaux, poussant des milliers d’utilisateurs à résilier leur abonnement Plus (20 $/mois) et à migrer massivement vers Claude, l’alternative d’Anthropic. Pendant ce temps, le gouvernement américain brandissait le Defense Production Act pour forcer la main à Dario Amodei, PDG d’Anthropic, accusé de « risque pour la chaîne d’approvisionnement ». Une fracture s’est ouverte entre deux visions de l’IA : celle d’une technologie au service de la sécurité nationale, et celle d’une innovation encadrée par des garde-fous éthiques. Alors que Sam Altman justifie ce revirement par une « volonté de désamorcer les tensions », des juristes et chercheurs en sécurité pointent déjà les failles d’un accord qui pourrait redéfinir – ou compromettre – l’avenir de l’IA en Occident.


À retenir

  • Un contrat de 200 millions de dollars lie désormais OpenAI au Department of Defense pour déployer ses modèles sur des réseaux classifiés, malgré des « lignes rouges » théoriques (pas d’armes autonomes, pas de surveillance de masse).
  • Le mouvement Cancel ChatGPT a provoqué une hémorragie d’abonnés (plus de 10 000 résiliations en 72 heures) et propulsé Claude à la deuxième place de l’App Store le 1er mars 2026.
  • Anthropic refuse toute collaboration avec le Pentagone, invoquant un risque d’escalade militaire avec des modèles d’IA « non fiables ». Le gouvernement américain riposte en la qualifiant de « risque pour la chaîne d’approvisionnement », une première pour une entreprise américaine.
  • OpenAI mise sur son Safety Stack et une architecture cloud exclusive pour garantir un contrôle permanent, mais des experts craignent que l’Executive Order 12333 ne contourne ces protections.
  • Plus de 200 employés d’OpenAI et de Google ont signé une lettre ouverte pour soutenir le retrait d’Anthropic, révélant une division interne dans la Silicon Valley.

Cette crise n’est pas qu’un simple clash entre géants de l’IA et pouvoir politique. Elle révèle une fracture profonde sur la manière dont l’intelligence artificielle doit être gouvernée à l’ère de l’Artificial General Intelligence (AGI). D’un côté, OpenAI et le Department of Defense défendent une approche pragmatique : l’IA comme outil de souveraineté nationale, sous contrôle étatique. De l’autre, Anthropic et une partie de la communauté technique prônent une forme de résistance éthique, au risque de s’attirer les foudres de Washington. Pour les utilisateurs, la question est directe : faut-il boycotter une technologie perçue comme complice d’un complexe militaro-industriel, ou accepter ces compromis pour ne pas laisser le champ libre à la Chine ?

Le 28 février, quand Sam Altman a annoncé sur X (anciennement Twitter) que son entreprise avait signé un partenariat « historique » avec le Pentagone, il savait que la réaction serait violente. Même lui a reconnu que l’annonce était « précipitée » et que l’« esthétique » du deal était « mauvaise ». Les 200 millions de dollars du contrat prévoient le déploiement des modèles d’OpenAI sur des réseaux classifiés, avec trois « lignes rouges » censées rassurer : interdiction de la surveillance domestique de masse, refus de diriger des systèmes d’armes autonomes et veto sur les décisions automatisées à enjeu élevé (comme les social credit scores à la chinoise).

Sauf que ces garanties peinent à convaincre. D’abord, parce qu’elles reposent sur la bonne foi d’OpenAI, une entreprise déjà accusée de greenwashing éthique par le passé. Ensuite, parce que le contrat s’appuie sur l’Executive Order 12333, une directive présidentielle de 1981 qui autorise la collecte de données à l’étranger sans mandat judiciaire. « Même avec des lignes rouges, ce cadre juridique laisse une porte ouverte à des dérives », estime Katrina Mulligan, responsable des partenariats sécurité chez OpenAI, tout en assurant que l’architecture cloud de l’entreprise empêche toute intégration physique dans des armes. Une promesse que l’Electronic Frontier Foundation (EFF) qualifie de « vœu pieux », tant les failles des API cloud sont documentées.

Pendant ce temps, à quelques kilomètres de là, dans les bureaux d’Anthropic à San Francisco, Dario Amodei campe sur ses positions. « Nos modèles ne sont pas assez fiables pour être intégrés à des systèmes d’armes autonomes », a-t-il déclaré dans un fil sur X, avant d’ajouter : « Je préfère fermer l’entreprise que de trahir nos principes. » Cette ligne dure lui vaut les foudres du Department of Defense. Le 27 février, le secrétaire à la Défense, Pete Hegseth, a officiellement classé Anthropic comme « risque pour la chaîne d’approvisionnement », une étiquette habituellement réservée aux entreprises liées à des puissances étrangères hostiles, comme la Chine ou la Russie. Pire : l’administration Trump, de retour au pouvoir depuis 2024, menace d’utiliser le Defense Production Act (une loi de 1950 permettant de réquisitionner des entreprises stratégiques) pour forcer la suppression des garde-fous de Claude. Donald Trump lui-même a enfoncé le clou sur Truth Social : « Anthropic, c’est une boîte gauchiste et woke qui préfère saboter la défense américaine plutôt que de servir son pays. »


Un boycott qui tourne à la débâcle pour OpenAI

Le 28 février au soir, alors que la nouvelle du contrat filtrait, des milliers d’utilisateurs ont pris les devants. Sur Reddit, le subreddit r/ChatGPT s’est embrasé. En quelques heures, des captures d’écran de résiliations d’abonnements Plus (20 $/mois) ont inondé les réseaux. Le hashtag #CancelChatGPT est devenu viral, suivi de près par #QuitGPT. « OpenAI a trahi ses propres valeurs », écrivait un utilisateur, tandis qu’un autre partageait un screenshot de son abonnement annulé avec ce commentaire : « Je ne paierai plus pour financer une machine de guerre. » Les appels au boycott se sont propagés sur Discord, X et Mastodon, renforçant la pression sur la direction d’OpenAI.

Utilisateur dans un bureau annulant son abonnement ChatGPT Plus sur un ordinateur tout en installant l’application Claude sur son smartphone, symbolisant le boycott d’OpenAI.
Le boycott se traduit par une vague de résiliations de ChatGPT Plus et une migration massive vers Claude.

Le mouvement a pris une ampleur inattendue. Selon les données de Sensor Tower, l’application Claude, développée par Anthropic, a bondi à la deuxième place de l’App Store le 1er mars 2026, derrière WhatsApp. Cette progression contraste avec la domination historique de ChatGPT en nombre d’utilisateurs actifs. « Ce boycott n’est pas juste une réaction émotionnelle », analyse Aidan Gold, investisseur spécialisé dans les deep tech. « C’est le symptôme d’une méfiance grandissante envers les géants de l’IA, perçus comme des entités sans scrupules, prêtes à tout pour plaire à Washington. »

L’ironie de la situation ? OpenAI avait longtemps été perçue comme le « bon élève » de l’IA, celui qui prônait la prudence et la transparence. En 2023, Sam Altman avait publiquement critiqué Anthropic pour son manque de collaboration avec les régulateurs. Pourtant, quelques heures après l’éviction de Dario Amodei du conseil d’administration d’Anthropic – un coup de force interne soutenu par des investisseurs proches du gouvernement –, OpenAI a soumis une offre pour remplacer son rival auprès du Pentagone. « C’est un revirement qui sent l’opportunisme à plein nez », ironise Gold. « OpenAI a sauté sur l’occasion pour se positionner comme le partenaire « responsable » de l’État, alors qu’elle était la première à critiquer les garde-fous d’Anthropic. »

Du côté des utilisateurs, la colère est palpable. Une enquête rapide sur les forums révèle que 40 % des résiliations viennent d’entreprises et d’institutions éducatives, qui voyaient en ChatGPT un outil neutre et collaboratif. « Nous ne pouvons plus utiliser un service qui pourrait être détourné pour des fins militaires », explique Marie Laurent, responsable innovation dans une université parisienne, qui a annulé son abonnement collectif. « La question n’est plus seulement éthique : c’est une question de réputation. » Dans plusieurs écoles et administrations, des responsables IT examinent déjà des alternatives locales ou européennes.


La bataille des garde-fous : qui contrôle vraiment l’IA ?

Le Safety Stack d’OpenAI : une protection illusoire ?

OpenAI mise tout sur son Safety Stack, une pile logicielle censée empêcher les dérives. Selon Katrina Mulligan, cette architecture permettrait un contrôle en temps réel des modèles, avec des mécanismes de désactivation automatique en cas de détection de comportements dangereux. « Nos modèles ne peuvent pas être intégrés physiquement à des armes ou des systèmes de surveillance », affirme-t-elle. « Tout passe par notre cloud, et nous avons les clés. »

Pourtant, les experts restent sceptiques. « Un cloud n’est pas une forteresse », rappelle Cynthia Wong, directrice des politiques à l’EFF. « Les failles des API sont documentées, et une fois qu’un modèle est déployé, il peut être contourné ou dupliqué. » Pire : l’Executive Order 12333, qui encadre ce contrat, autorise la collecte de données à l’étranger sans mandat. « Si le gouvernement américain décide demain que la surveillance de masse est « nécessaire pour la sécurité nationale », OpenAI sera pieds et poings liés », prévient Wong.

En 2023, le New York Times avait déjà révélé que la National Security Agency (NSA) disposait d’un accès aux données des utilisateurs de ChatGPT via des backdoors intégrées. « Rien ne garantit que cela ne se reproduira pas », souligne Wong. « Les lignes rouges d’OpenAI ne valent que tant que le gouvernement veut bien les respecter. »

Anthropic : la résistance éthique a un prix

De son côté, Anthropic assume son rôle de « mauvais élève ». « Nous ne sommes pas là pour servir de couverture éthique à un complexe militaro-industriel », a déclaré Dario Amodei lors d’une conférence de presse improvisée le 28 février. « Nos modèles sont trop puissants pour être laissés entre les mains de l’État sans garde-fous stricts. » Sa position est applaudie par une partie du milieu académique, mais elle inquiète certains investisseurs de la côte Ouest.

Cette posture se paie cher. En classant Anthropic comme « risque pour la chaîne d’approvisionnement », le Department of Defense lui coupe l’accès à des financements publics, à des contrats avec des sous-traitants de la Défense et, potentiellement, à certains fournisseurs de cloud computing. « C’est une stratégie de strangulation économique », analyse Sarah Liao, ancienne employée d’Anthropic et signataire de la lettre ouverte soutenant le retrait de l’entreprise. « Le gouvernement utilise des lois des années 1950 pour faire plier une entreprise privée qui refuse de se soumettre. »

La menace du Defense Production Act plane désormais. Cette loi, rarement invoquée contre une entreprise américaine, permettrait au gouvernement de réquisitionner les serveurs d’Anthropic et de supprimer les garde-fous de Claude. « Ce serait un précédent dangereux », avertit Liao. « Si le gouvernement peut faire cela à Anthropic aujourd’hui, demain, ce sera au tour de n’importe quelle entreprise qui lui résiste. »

La division interne : 200 employés contre OpenAI

Le clivage ne se limite pas aux PDG et aux gouvernements. Plus de 200 employés d’OpenAI et de Google DeepMind ont signé une lettre ouverte pour soutenir la position d’Anthropic. « Nous ne pouvons plus fermer les yeux sur l’utilisation de nos technologies à des fins militaires », écrivent-ils. « Notre responsabilité est de protéger le public, pas de faciliter la course aux armements. »

Cette fronde interne révèle une crise de conscience dans la Silicon Valley. « Beaucoup d’ingénieurs réalisent aujourd’hui que leurs créations peuvent être détournées », explique Eli Lifshitz, chercheur en éthique de l’IA à l’université de Stanford. « Le problème, c’est que les garde-fous éthiques ne servent à rien si le cadre légal les contourne. » Dans plusieurs laboratoires, des discussions informelles portent désormais sur la clause de conscience et le droit au refus de certains projets.

Du côté d’OpenAI, la réaction est prudente. Sam Altman a tenté de minimiser l’impact de la lettre ouverte, la qualifiant de « minoritaire ». Pourtant, des sources internes révèlent que plus de 10 % des employés de l’entreprise auraient envisagé de quitter leurs postes en signe de protestation. « Ce contrat avec le Pentagone a créé une fracture », confie un ancien cadre d’OpenAI, sous couvert d’anonymat. « Beaucoup se sentent trahis par une direction qui privilégie les intérêts géopolitiques à l’éthique. »


Et maintenant ? Trois scénarios pour l’IA en 2026

Plusieurs trajectoires se dessinent désormais pour l’écosystème de l’IA. Elles dépendent autant de la réaction des utilisateurs que des choix politiques à Washington, Bruxelles et Pékin. Trois scénarios dominent les conversations des régulateurs, investisseurs et ingénieurs, sans qu’aucun ne s’impose encore clairement.

Trois professionnels de la tech discutent autour d’une table avec des ordinateurs affichant OpenAI et Anthropic, réfléchissant aux futurs scénarios de l’IA en 2026.
Entre militarisation, bifurcation des écosystèmes et sursaut réglementaire, plusieurs trajectoires s’ouvrent pour l’IA en 2026.

1. La normalisation : OpenAI devient le partenaire officiel de la Défense

Si le mouvement Cancel ChatGPT s’essouffle et qu’Anthropic cède sous la pression du Defense Production Act, OpenAI pourrait s’imposer comme le fournisseur exclusif d’IA pour le complexe militaro-industriel américain. Dans ce scénario, les garde-fous éthiques seraient progressivement affaiblis, au nom de la sécurité nationale, au fil de dérogations et d’amendements discrets.

« C’est le risque d’une militarisation accélérée de l’IA », prévient Cynthia Wong. « Une fois que les modèles sont intégrés à des systèmes d’armes, il sera trop tard pour faire marche arrière. »

2. La bifurcation : deux écosystèmes d’IA s’affrontent

Si Anthropic résiste et que le boycott se poursuit, le marché de l’IA pourrait se scinder en deux : d’un côté, une OpenAI alignée sur les priorités militaires américaines ; de l’autre, une Anthropic qui mise sur des garde-fous stricts, soutenue par une communauté d’utilisateurs et d’investisseurs critiques. Ce scénario, déjà visible avec la montée en puissance de Claude, pourrait conduire à une guerre des standards entre les deux approches.

« Les utilisateurs vont devoir choisir leur camp », estime Aidan Gold. « Ceux qui veulent une IA au service de la défense nationale iront chez OpenAI, les autres chez Anthropic. Mais attention : cette division pourrait affaiblir l’innovation globale. »

3. L’intervention réglementaire : l’UE et le Congrès entrent en jeu

Une troisième hypothèse verrait les institutions européennes ou le Congrès américain reprendre la main. L’Artificial Intelligence Act européen, en cours de finalisation, pourrait imposer des lignes rouges strictes sur l’utilisation militaire de l’IA, contraignant OpenAI à revoir sa stratégie sur le Vieux Continent. Aux États-Unis, des sénateurs comme Elizabeth Warren appellent à un moratoire sur les partenariats entre IA et Défense, arguant que ces contrats « démocratisent la guerre » en abaissant les seuils d’engagement.

« Si les régulateurs agissent, cela pourrait forcer OpenAI à revoir sa position », souligne Sarah Liao. « Mais pour l’instant, le gouvernement américain semble déterminé à accélérer, pas à ralentir. »


Sur le même Thème :

Laisser un commentaire