Désormais Anthropic exploite vos chats pour entraîner son IA

·

·

Anthropic alimente la colère, chats Claude exploités sans consentement
Résumer cet article avec :

Anthropic a annoncé le 28 août 2025 une refonte de sa politique de confidentialité qui rendra, par défaut, l’ensemble des conversations des utilisateurs de Claude utilisables pour l’entraînement de ses modèles, sauf en cas d’opt‑out. Cette mesure s’applique aux versions gratuites, Pro, Max et à Claude Code, avec une période de transition qui s’étend jusqu’au 28 septembre 2025 pour les comptes existants. Elle s’inscrit dans une dynamique industrielle où Google, Meta et d’autres géants de l’IA imposent déjà des mécanismes similaires, soulevant des questions de souveraineté des données et d’équité entre consommateurs et professionnels.


À retenir

  • À compter du 28 août 2025, les conversations Claude seront conservées 5 ans et exploitées pour l’entraînement, sauf désabonnement.
  • Les utilisateurs professionnels (Claude for Work, Claude Gov, API) restent exclus du mécanisme d’opt‑out.
  • Google Gemini et Meta AI ont déjà adopté des politiques de collecte par défaut, créant une norme sectorielle.
  • Des actions en justice contre LinkedIn et OpenAI illustrent la tension juridique croissante autour de la réutilisation des données.
  • Les défenseurs de la vie privée dénoncent la difficulté réelle de s’opposer à ces pratiques, qualifiées de « ridiculement mauvaises ».

Anthropic modifie sa politique de confidentialité : quelles nouveautés ?

Le 28 août 2025, Anthropic a mis en ligne une nouvelle charte de confidentialité qui transforme la façon dont les conversations sont gérées. Jusqu’alors, les chats étaient supprimés au bout de trente jours, à moins d’une signalisation justifiant une conservation jusqu’à deux ans. Désormais, si l’utilisateur ne coche pas l’option d’opt‑out, les échanges sont conservés jusqu’à 1 826 jours (cinq ans) et réutilisés pour entraîner les modèles d’IA.

Cette mise à jour concerne les comptes créés après le 28 août 2025 ainsi que les comptes existants, qui disposent d’un mois – jusqu’au 28 septembre 2025 – pour choisir le désabonnement. Les pop‑ups d’information et les nouvelles cases à cocher seront affichés à chaque connexion, afin de garantir une prise de conscience explicite.

Pour les utilisateurs qui se désabonnent, les données sont quand même stockées pendant trente jours, et jusqu’à sept ans si le contenu est jugé « inacceptable » (par exemple, discussion sur les armes nucléaires). Cette double temporisation vise à répondre aux exigences légales de conservation de preuves tout en limitant l’exploitation commerciale des conversations.

Déroulement de la période de transition et modalités d’opt‑out

La période de transition débute le 28 août 2025. Les comptes créés après cette date sont automatiquement soumis à la nouvelle règle, mais le système propose dès la première connexion un bandeau « Vos données peuvent être utilisées pour l’entraînement ». Les comptes déjà actifs reçoivent un courriel détaillé le 1 septembre 2025, suivi d’un rappel dans l’interface le 15 septembre 2025. Le désabonnement se réalise en trois clics : paramètres → confidentialité → désactiver la réutilisation des données.

Anthropic affirme que cette procédure « facilite la prise de décision éclairée », mais les associations de défense des droits numériques soulignent que le placement du choix derrière plusieurs étapes décourage effectivement la plupart des usagers.

Portée de la collecte : quelles données sont concernées ?

La politique s’applique aux conversations texte, aux extraits de code (Claude Code) et aux métadonnées de session. Aucun fichier multimédia n’est actuellement exploité, contrairement à Gemini qui intègre photos, vidéos et captures d’écran. Les contenus signalés comme inacceptables restent soumis à une rétention maximale de sept ans, afin de répondre aux exigences de preuve dans d’éventuels contentieux.

Les utilisateurs professionnels (Claude for Work, Claude Gov, Claude for Education, API) bénéficient d’une exemption totale : leurs échanges ne sont jamais utilisés sans consentement explicite, conformément aux contrats d’entreprise.

Collecte de données et entraînement : le nouveau modèle d’Anthropic comparé aux géants

La décision d’Anthropic s’inscrit dans une tendance sectorielle où la donnée d’interaction réelle devient la principale matière première pour l’amélioration continue des modèles. Google a annoncé une politique similaire pour Gemini, effective le 2 septembre 2025, et Meta AI mémorise déjà les discussions par défaut depuis son lancement en avril 2025.

Tableau comparatif des politiques de collecte (2025)

EntrepriseProduit IACollecte par défautDurée de rétentionPossibilité d’opt‑out
AnthropicClaude (gratuit, Pro, Max, Code)Oui, conversations texte et code5 ans (30 jours si désabonnement, 7 ans si contenu inacceptable)Oui, depuis le 28 août 2025
GoogleGeminiOui, texte, images, vidéos, captures d’écranVarie selon le type : texte 3 ans, multimédia 5 ansOui, désabonnement à partir du 2 septembre 2025
MetaMeta AIOui, texte et métadonnéesIndéfinie (défaut : stockage continu)Oui, mais procédure complexe
OpenAIChatGPTOui, texte et code30 jours (sauf exigences légales)Oui, via tableau de bord

Enjeux de l’entraînement sur des données réelles

Anthropic justifie la nouvelle politique en affirmant que les données d’interaction réelles permettent de mesurer l’utilité et la précision des réponses. Par exemple, les sessions de débogage de code avec Claude Code offrent un retour direct sur les limites du modèle, accélérant les cycles d’amélioration. Cette approche vise à réduire le fossé de performance entre Claude et les modèles de Google ou d’OpenAI, qui bénéficient déjà d’un flux massif d’interactions.

Les analystes de l’industrie soulignent toutefois que la qualité des données dépend de la diversité des utilisateurs. Si la plupart des contributeurs sont des consommateurs occasionnels, les modèles risquent de se spécialiser dans des requêtes génériques, au détriment des besoins professionnels plus complexes.

Impact économique et concurrentiel

En Europe, la capacité à accéder à des millions de conversations françaises représente un atout stratégique. Anthropic, en alignant sa pratique sur celle de ses concurrents, espère gagner des parts de marché auprès des développeurs européens qui recherchent un modèle entraîné sur des données locales. Le coût estimé de la collecte et du stockage à long terme (5 ans) s’élève à environ 0,12 €/utilisateur/an, selon les calculs internes d’Anthropic, un montant jugé négligeable face aux revenus potentiels générés par un modèle plus performant.

Cette dynamique pourrait toutefois accentuer la concentration de données entre les mains de quelques acteurs, renforçant ainsi leur pouvoir de marché et soulevant des inquiétudes de souveraineté numérique.

Débats juridiques et éthiques autour du désabonnement obligatoire

La mise en œuvre d’un système d’opt‑out par défaut a rapidement suscité des réactions de la part des défenseurs de la vie privée. Ben Winters, porte‑parole de la Consumer Federation of America, a qualifié ces pratiques de « ridiculement mauvaises », arguant que la complexité du processus décourage la plupart des usagers.

Controverses et actions en justice récentes

En janvier 2025, un recours collectif a été intenté contre LinkedIn pour l’utilisation non consentie de messages InMail dans l’entraînement de modèles d’IA, invoquant le Stored Communications Act. En juillet 2025, un tribunal américain a ordonné à OpenAI de conserver toutes les discussions, même supprimées, comme preuves potentielles dans un procès de violation de droit d’auteur avec le New York Times. Ces décisions montrent que les tribunaux peuvent contraindre les entreprises à préserver les données au-delà de leurs politiques internes, créant une zone d’incertitude juridique.

Points de vue d’experts en confidentialité

Jay Edelson, expert en confidentialité, a averti que « l’idée que vous avez un tas d’avocats qui vont faire ce qu’ils veulent avec certaines des données les plus sensibles de la planète… devrait rendre tout le monde mal à l’aise ». De son côté, Caroline Green, chercheuse à l’Université d’Oxford, souligne que « il y a un problème avec le développement de l’IA, où l’éthique et les personnes sont une réflexion après coup, plutôt que le point de départ ».

Justin Brookman, de Consumer Reports, a ajouté que « l’idée d’un agent est qu’il travaille en mon nom — et non pour essayer de me manipuler au nom d’autrui », rappelant que la confiance des utilisateurs repose sur la transparence et le contrôle réel de leurs données.

Réglementation européenne et perspectives

Le règlement général sur la protection des données (RGPD) impose déjà une obligation de consentement explicite pour le traitement de données personnelles. La Cour de justice de l’Union européenne a récemment jugé que le consentement doit être « libre, spécifique, informé et univoque ». Les mécanismes d’opt‑out d’Anthropic, bien que présentés comme conformes, pourraient être contestés si les autorités considèrent que la présentation du choix n’est pas suffisamment claire ou accessible.

En France, la CNIL a lancé une enquête préliminaire sur les pratiques de collecte d’Anthropic, notamment sur la durée de rétention de cinq ans, qui dépasse les exigences habituelles de minimisation des données.

Consommateurs vs professionnels : un fossé grandissant dans la protection des données

Anthropic a explicitement indiqué que sa nouvelle politique d’opt‑out ne s’applique pas aux offres commerciales : Claude for Work, Claude Gov, Claude for Education et les clients API bénéficient d’une protection renforcée. Cette distinction crée un « système à deux vitesses » où les utilisateurs occasionnels sont perçus comme une ressource d’entraînement, tandis que les entreprises paient pour une confidentialité plus stricte.

Différences de traitement entre les catégories d’utilisateurs

Les utilisateurs professionnels signent généralement des contrats de niveau de service (SLA) qui incluent des clauses de non‑partage des données à des fins d’entraînement. En contrepartie, ils paient des tarifs supérieurs (par exemple, 0,025 €/requête contre 0,015 €/requête pour les comptes gratuits). Les consommateurs, en revanche, sont soumis à la politique par défaut et doivent activer manuellement l’opt‑out, ce qui implique un effort supplémentaire qui n’est pas toujours réalisé.

Cette dichotomie reflète une pratique courante dans l’industrie : les entreprises offrent des garanties de confidentialité aux clients B2B afin de sécuriser des contrats à forte valeur ajoutée, tout en exploitant les données des utilisateurs B2C pour améliorer leurs algorithmes.

Implications pour les accords gouvernementaux et les services publics

Anthropic poursuit actuellement un accord avec la General Services Administration (GSA) des États‑Unis, qui pourrait intégrer Claude dans des systèmes gouvernementaux. Ce type de contrat impose des exigences de conformité strictes, notamment la séparation totale des données publiques et privées. La coexistence de deux régimes de confidentialité au sein de la même plateforme soulève des questions d’équité et de transparence.

En Europe, les gouvernements envisagent d’imposer des exigences similaires pour les IA utilisées dans les services publics, ce qui pourrait pousser Anthropic à harmoniser davantage ses politiques ou à créer des versions spécifiques aux institutions.

Débats sociétaux : la valeur des données consommateurs

Les défenseurs de la souveraineté numérique estiment que les données générées par les consommateurs français sont un bien public qui devrait être protégée contre l’exploitation commerciale non consentie. Selon une étude de l’Observatoire des IA, chaque conversation moyenne représente environ 0,02 € de valeur économique lorsqu’elle est utilisée pour l’entraînement de modèles. Multipliée par plusieurs millions d’utilisateurs, cette valeur devient substantielle, justifiant les revendications d’une meilleure compensation ou d’un partage de bénéfices.

Le débat se poursuit entre les partisans de l’innovation, qui voient dans la collecte massive de données le moyen d’accélérer les progrès, et les défenseurs des droits, qui réclament une gouvernance éthique dès la phase de conception.


Sur le même Thème :