Les éditeurs de presse et les géants de l’IA s’affrontent sur deux fronts opposés : tandis que des poursuites judiciaires se multiplient pour violation du droit d’auteur, des accords de licence record se signent pour monétiser le contenu journalistique. Entre concurrence déloyale et partenariats stratégiques, l’équilibre économique du secteur se joue en 2025, avec des enjeux estimés à plusieurs centaines de millions d’euros. Qui sortira gagnant de cette bataille pour la valeur de l’information ?
À retenir
- En 2025, plus de 20 poursuites majeures opposent des éditeurs (New York Times, BBC, Folha, Yomiuri Shimbun) à des entreprises d’IA (OpenAI, Perplexity, Microsoft, Google) pour utilisation non autorisée de contenu et détournement de trafic.
- Les dommages réclamés atteignent des sommets : le Yomiuri Shimbun exige 9,9 millions de livres sterling (11,6 millions d’euros) pour 119 467 articles utilisés sans permission par Perplexity.
- À l’inverse, des accords de licence se multiplient, comme celui entre News Corp et OpenAI (250 millions de dollars sur 5 ans) ou The New York Times et Amazon (20 à 25 millions de dollars/an).
- L’enjeu central : le modèle économique des médias, menacé par la baisse de trafic et de revenus publicitaires due aux réponses directes des modèles linguistiques.
- La régulation européenne (directive droit d’auteur, article 15) et américaine (débat sur le fair use) pourrait redéfinir les règles du jeu d’ici 2026.
Presse contre IA : la guerre des contenus s’intensifie en 2025
Depuis décembre 2023, les tensions entre les éditeurs de presse et les entreprises d’IA générative ont basculé dans une phase judiciaire et commerciale sans précédent. D’un côté, les plaintes pour violation de droits d’auteur et concurrence déloyale se multiplient. De l’autre, des partenariats lucratifs émergent, révélant une stratégie duale : résister ou collaborer. Tour d’horizon des affrontements et des alliances qui façonnent l’avenir du journalisme.
Les poursuites judiciaires : des dommages records et des accusations ciblées
Les éditeurs attaquent sur deux fronts : l’utilisation illégale de leurs archives pour entraîner les modèles linguistiques, et le détournement de trafic causé par les réponses directes des chatbots. Voici les affaires les plus marquantes de 2024-2025 :
| Éditeur | Entreprise d’IA visée | Montant réclamé (estimé) | Accusations principales | Date de dépôt |
|---|---|---|---|---|
| Yomiuri Shimbun (Japon) | Perplexity | 9,9 millions de livres (11,6 M€) | Utilisation de 119 467 articles sans licence, perte de revenus publicitaires | Août 2025 |
| Folha (Brésil) | OpenAI | Non précisé | Concurrence déloyale, scraping massif de contenu payant | Août 2025 |
| Encyclopedia Britannica & Merriam-Webster (États-Unis) | Perplexity | Non précisé | Copie illégale de contenu, free riding | Septembre 2025 |
| News Corp (incluant Wall Street Journal) | Perplexity | Non précisé | Violation de droits d’auteur et de marques, hallucinations attribuées à ses titres | Octobre 2024 |
| New York Times | OpenAI & Microsoft | Millions de dollars (montant confidentiel) | Utilisation non autorisée d’articles, risque de désabonnement | Décembre 2023 |
| BBC (Royaume-Uni) | Perplexity | Non précisé (compensation + suppression des données) | Entraînement du modèle sur du contenu protégé, citations non autorisées | Juin 2025 |
Les arguments des plaignants reposent sur trois piliers :
- L’absence de consentement : les éditeurs dénoncent un scraping massif de leurs sites, y compris pour du contenu derrière paywall, sans négociation préalable.
- La concurrence déloyale : les modèles linguistiques comme ChatGPT ou Gemini fournissent des réponses directes aux utilisateurs, réduisant les visites sur les sites originaux. Selon une étude citée par la News/Media Alliance, cela pourrait entraîner une baisse de 20 à 50 % du trafic d’ici 2027.
- Les hallucinations et la désinformation : des erreurs factuelles attribuées à des médias (comme des fausses recherches médicales citées par ChatGPT sous le nom du Centre for Investigative Reporting) nuisent à leur crédibilité.
Réactions des entreprises d’IA : entre dénégation et contre-attaque
Les géants de l’IA répondent par des stratégies variées. OpenAI a contre-attaqué en accusant le New York Times d’avoir « piraté » ses produits pour générer des exemples biaisés. Perplexity, visé par plusieurs plaintes, qualifie les accusations de la BBC de « manipulatrices », arguant que son modèle cite systématiquement les sources originales via des liens cliquables. Google, de son côté, mise sur des projets pilotes pour rémunérer les éditeurs dont le contenu est utilisé par Gemini.

Les partenariats stratégiques : quand la presse monétise son contenu
Parallèlement aux procès, une autre tendance se dessine : la signature d’accords de licence juteux, souvent accompagnés d’un accès privilégié à la technologie. Ces partenariats visent à compenser les pertes de revenus publicitaires tout en explorant de nouveaux modèles économiques.
| Éditeur | Partenaire IA | Type d’accord | Valeur estimée | Bénéfices pour l’éditeur |
|---|---|---|---|---|
| News Corp | OpenAI | Licence de contenu (5 ans) | 250 M$ (213 M€) | Utilisation des archives, développement de produits IA internes |
| The New York Times | Amazon | Licence pour Rufus et Alexa | 20-25 M$/an (17-21 M€) | Monétisation des archives, intégration dans les assistants vocaux |
| Axel Springer (Allemagne) | OpenAI & Microsoft | Syndication de contenu (y compris payant) | Non divulguée | Accès à la technologie ChatGPT, développement de nouveaux formats |
| Associated Press | OpenAI & Google | Licence d’archives (depuis 1985) + flux temps réel | Non divulguée | Utilisation des archives pour entraîner Gemini, partage de revenus |
| The Guardian | OpenAI | Partenariat technologique | Non divulguée | Accès à l’API d’OpenAI pour optimiser la production de contenu |
| Axios | OpenAI | Financement + technologie | 5 M$ (4,3 M€) en crédits API | Ouverture de 4 rédactions locales, outils d’IA pour la distribution |
Ces accords intègrent souvent des clauses innovantes :
- Partage de revenus : Prorata.ai, qui collabore avec 500 titres (The Atlantic, Fortune, Time), reverse 50 % des revenus générés par les réponses de son moteur de recherche Gist.ai aux éditeurs.
- Accès technologique : Gannett utilisera l’API Sonar de Perplexity pour développer ses propres outils, tandis que Vox Media et The Atlantic testent des fonctionnalités d’OpenAI pour personnaliser l’expérience utilisateur.
- Soutien financier : OpenAI et Microsoft ont versé 10 millions de dollars (8,5 M€) à The Lenfest Institute pour financer des projets d’IA dans cinq rédactions locales.
Un modèle à double tranchant
Si ces partenariats offrent des revenus immédiats, ils soulèvent des questions sur la durabilité du modèle. Certains éditeurs, comme Le Monde ou Prisa Media, y voient une opportunité de moderniser leurs outils. D’autres, comme la News/Media Alliance, craignent une dépendance accrue aux géants technologiques, reproduisant les déséquilibres observés avec Google et Facebook dans les années 2010.
Droit d’auteur vs. fair use : le cœur du débat juridique
Au centre des tensions se trouve une question légale complexe : l’entraînement des modèles linguistiques sur des contenus protégés relève-t-il du fair use (usage équitable) ou constitue-t-il une violation du droit d’auteur ? Les tribunaux américains et européens devront trancher dans les mois à venir, avec des implications majeures pour l’industrie.
Le fair use à l’épreuve des modèles linguistiques
Les entreprises d’IA, comme OpenAI ou Google, défendent leur pratique en invoquant le fair use, un principe du droit américain autorisant l’utilisation de matériaux protégés à des fins de transformation, d’analyse ou d’innovation. Leurs arguments :
- Les modèles linguistiques ne régurgitent pas le contenu original, mais génèrent des réponses nouvelles à partir de patterns appris.
- Les données utilisées sont publiquement accessibles (même derrière paywall, selon eux).
- Les citations et liens vers les sources originales (quand ils existent) respectent les standards du web.
Les éditeurs rétorquent que cette interprétation est abusive. Pour Encyclopedia Britannica, « l’IA ne crée pas de valeur ajoutée, elle copie et reformule sans ajouter de travail journalistique ». La News/Media Alliance souligne que les hallucinations (fausses informations attribuées à des médias) prouvent que les modèles ne transforment pas le contenu, mais le détournent.
L’Europe en pointe sur la protection des éditeurs
Contrairement aux États-Unis, où le débat reste ouvert, l’Union européenne a déjà posé des garde-fous :
- L’article 15 de la directive droit d’auteur (2019) impose aux plateformes (comme Google News) de négocier des licences pour utiliser des extraits d’articles. Ce texte a permis à la France de condamner Newsday.fr en mai 2025 pour plagiat via IA, un précédent juridique.
- Le Règlement sur l’IA (RIA), entré en vigueur en 2024, encadre l’utilisation des données personnelles et protégées dans les systèmes d’IA, avec des sanctions pouvant atteindre 6 % du chiffre d’affaires mondial.
- Les initiatives sectorielles : la WAN-IFRA (association mondiale des éditeurs) a lancé avec OpenAI le programme Newsroom AI Catalyst, visant à aider 128 rédactions à adopter l’IA éthiquement.
En France, l’Alliance de la presse d’information générale (Apig) et Reporters Sans Frontières (RSF) ont développé Spinoza, un prototype d’IA conçu pour promouvoir un journalisme transparente et sourcé, en opposition aux boîtes noires des géants américains.
Vers une régulation mondiale ?
Aux États-Unis, le Congrès est sous pression pour clarifier la loi. En juillet 2025, une coalition de 2 000 éditeurs a appelé à une « action immédiate » pour garantir que les créateurs de contenu soient rémunérés lorsque leur travail sert à entraîner des IA. Le sénateur Chris Coons a proposé un projet de loi pour étendre les droits voisins (comme en Europe) aux contenus utilisés par les modèles linguistiques.
En Asie, le Japon et la Corée du Sud étudient des mécanismes similaires, tandis que l’Inde, où une coalition de médias a poursuivi OpenAI en janvier 2025, pourrait durcir sa législation d’ici 2026.

L’impact économique : trafic, revenus et survie des médias
Derrière les batailles juridiques se cache une réalité brutale : les modèles linguistiques menacent le modèle économique des éditeurs en captant une partie croissante de leur audience. Entre 2023 et 2025, plusieurs études (citées dans les plaintes) estiment que les pertes pourraient atteindre 30 % des revenus publicitaires et 15 % des abonnements d’ici 2030 si rien ne change.
La menace sur le trafic et les revenus
Le mécanisme est simple : lorsqu’un utilisateur pose une question à ChatGPT, Gemini ou Perplexity, il obtient une réponse synthétique, souvent accompagnée de sources. Résultat :
- Le taux de clics vers les sites originaux chute. Une analyse de Chartbeat (2025) montre que les articles référencés par les IA reçoivent 40 % de visites en moins que ceux partagés via les réseaux sociaux.
- Les revenus publicitaires, liés au nombre de pages vues, s’effritent. Folha (Brésil) estime avoir perdu 12 % de ses recettes publicitaires en 2024 à cause des chatbots.
- Les abonnements sont menacés : pourquoi payer pour un article si son résumé est disponible gratuitement via une IA ? Le New York Times a cité ce risque dans sa plainte contre OpenAI.
Pour Jim Mullen, PDG de Reach (Royaume-Uni), « si nous ne trouvons pas un moyen de monétiser notre contenu auprès des plateformes d’IA, des centaines de titres disparaîtront d’ici cinq ans ».
Les solutions envisagées : entre taxation et innovation
Face à ce défi, trois stratégies émergent :
- La taxation des IA : inspirée du droit voisin européen, cette approche vise à imposer une redevance sur l’utilisation des contenus. En Allemagne, Axel Springer milite pour un système similaire à celui appliqué à Google News.
- Les partenariats technologiques : en intégrant des outils d’IA dans leurs workflows, certains éditeurs espèrent réduire leurs coûts. Axios, par exemple, utilise des algorithmes d’OpenAI pour automatiser la production de newsletters locales.
- La différenciation par la qualité : des titres comme The Atlantic ou Le Monde misent sur des contenus premium (enquêtes, analyses) que les IA ne peuvent pas reproduire, couplés à des paywalls dynamiques.
Le cas français : entre protectionnisme et innovation
En France, les éditeurs adoptent une approche prudente. Si Le Monde et Prisa Media ont signé des accords avec OpenAI, la majorité des titres restent méfiants. L’Apig a lancé en 2025 un fonds commun pour financer des actions en justice contre le scraping illégal. Parallèlement, des médias comme Libération ou Mediapart testent des outils d’IA open source (comme Mistral AI) pour limiter leur dépendance aux géants américains.
Pour Christophe Deloire, secrétaire général de RSF, « l’enjeu n’est pas seulement économique, mais démocratique : si les IA deviennent les principaux diffuseurs d’information, qui contrôlera les algorithmes ? »
Vers un journalisme augmenté par l’IA ? Les scénarios pour 2030
Si le conflit entre presse et IA domine l’actualité de 2025, des voix appellent à une troisième voie : faire de l’intelligence artificielle un levier pour renforcer le journalisme, plutôt qu’un concurrent. Plusieurs pistes sont explorées, des rédactions automatisées aux nouveaux formats hybrides.
L’IA comme outil éditorial : gains de productivité et nouveaux formats
Des expériences pilotes montrent comment l’IA peut assister les journalistes :
- Automatisation des tâches répétitives : The Washington Post utilise un outil interne pour générer des comptes-rendus sportifs ou boursiers, libérant du temps pour les enquêtes. Résultat : une réduction de 30 % du temps passé sur ces contenus.
- Personnalisation de l’information : The Guardian teste un système qui adapte la longueur et le ton des articles en fonction du profil du lecteur (abonné occasionnel vs. régulier).
- Vérification des faits : des médias comme AFP ou Reuters emploient des IA pour croiser les sources et détecter les hallucinations dans les déclarations publiques.
- Nouveaux formats : Axios développe des newsletters audio générées par IA à partir de ses articles, tandis que Bloomberg propose des résumés interactifs où le lecteur peut poser des questions en temps réel.
Pour Martha Stone, CEO de la World Newsmedia Network, « l’IA ne remplacera pas les journalistes, mais ceux qui ne l’utilisent pas seront remplacés par ceux qui le font ».
Les risques persistants : désinformation et dépendance technologique
Malgré ces avancées, deux dangers majeurs subsistent :
- L’amplification des hallucinations : en mai 2025, ChatGPT a attribué à Le Figaro une fausse interview du président français, reprise par des milliers d’utilisateurs avant d’être démentie. Les éditeurs réclament des garde-fous, comme un système de watermarking (filigrane numérique) pour tracer l’origine des contenus.
- La concentration du pouvoir : si quelques géants (OpenAI, Google, Microsoft) contrôlent à la fois les outils et les données, les médias pourraient devenir des fournisseurs de contenu sans maîtrise de leur diffusion. La WAN-IFRA alerte sur un risque de « colonisation algorithmique » du débat public.
Les initiatives pour un journalisme éthique et souverain
Pour contrer ces risques, des alternatives émergent :
- Les IA européennes : des projets comme Spinoza (France) ou Aleph Alpha (Allemagne) visent à créer des modèles linguistiques respectueux des droits d’auteur et transparents.
- Les coalitions d’éditeurs : la News/Media Alliance aux États-Unis et l’Apig en France négocient des accords collectifs pour éviter la fragmentation.
- Les standards ouverts : des médias comme The Guardian ou El País collaborent avec des universités pour développer des protocoles de citation automatique et de rémunération équitable.
En 2025, une certitude s’impose : l’IA ne disparaîtra pas. La question n’est plus de savoir si les médias doivent s’adapter, mais comment – en victimes, en partenaires, ou en acteurs d’un écosystème rééquilibré.
















