Amazon a ajouté six nouveaux crawlers d’intelligence artificielle à son fichier robots.txt le 21 août 2025, bloquant ainsi les agents de Meta, Google, Huawei, Mistral, Anthropic et Perplexity. Cette mesure s’inscrit dans une stratégie visant à protéger un chiffre d’affaires publicitaire de 48 milliards d’euros et à conserver la maîtrise de la découverte produit. Le conflit entre le géant du commerce en ligne et les acteurs de l’IA soulève des questions de souveraineté des données et d’avenir du commerce agentique.
À retenir
- Six nouveaux agents IA sont exclus du crawling Amazon depuis le 21 août 2025.
- Le blocage vise à protéger une activité publicitaire estimée à 48 milliards d’euros annuels.
- Amazon développe ses propres outils d’achat IA, dont le chatbot Rufus et la fonction « acheter pour moi ».
- Les concurrents (Shopify, Walmart, eBay) adoptent des approches variées, certaines favorisant la collaboration avec les IA.
- Les analystes divergent : certains y voient une défense efficace, d’autres une bataille perdue qui accélérera le commerce agentique.
Amazon renforce le contrôle des bots IA via le fichier robots.txt
Le géant du commerce électronique a publié une mise à jour de son fichier robots.txt le 21 août 2025, inscrivant explicitement six nouveaux crawlers d’IA parmi les agents interdits d’accès. Cette décision s’appuie sur une politique déjà en place depuis juillet 2025, lorsqu’Amazon avait commencé à bloquer les agents de Claude (Anthropic), Perplexity et Project Mariner (Google).
Chronologie des restrictions et extensions successives
Le premier blocage majeur d’IA a eu lieu en juillet 2025, ciblant trois agents externes. Un mois plus tard, le fichier a été élargi pour inclure les bots de Meta, Huawei, Mistral et d’autres services Google. Cette progression montre une volonté de créer un périmètre de protection grandissant, même si les directives robots.txt restent consultatives et dépendent de la coopération volontaire des crawlers.
Nature et portée des restrictions techniques
Les fichiers robots.txt sont des instructions standard destinées aux robots d’exploration. Ils indiquent les zones à ne pas parcourir, mais ne constituent pas une barrière technique contraignante. Ainsi, le succès du blocage repose sur la conformité éthique des entreprises d’IA. Amazon a choisi de rendre publiques ces restrictions afin de mettre la pression morale sur les acteurs qui ne respecteraient pas les règles.
Définitions clés pour comprendre la lutte
Un crawler IA est un programme automatisé qui extrait massivement des données de sites afin d’alimenter les modèles de langage. Le commerce agentique décrit le phénomène où des agents intelligents effectuent des achats autonomes pour les consommateurs. Enfin, le jardin clos désigne un écosystème numérique où la plateforme contrôle l’accès aux données et la relation client, ce qu’Amazon cherche à préserver.

Motivations commerciales et souveraineté des données d’Amazon
Au‑delà du simple aspect technique, la décision d’Amazon s’enracine dans la protection d’un modèle économique fortement dépendant de la publicité et de la maîtrise des données de première partie.
Préservation d’un revenu publicitaire de plusieurs dizaines de milliards
Le chiffre d’affaires publicitaire d’Amazon a atteint 56 milliards de dollars (environ 48 milliards d’euros) l’an dernier, issu de listes de produits sponsorisés, d’affichages et de contenus vidéo. Un accès illimité aux catalogues par des IA tierces pourrait réduire le trafic vers la vitrine d’Amazon et, par conséquent, diminuer ces revenus.
Développement interne d’outils d’achat IA : le projet Rufus
Amazon teste actuellement le chatbot Rufus, qui intègre des fonctions publicitaires et propose une expérience d’achat conversationnelle. Parallèlement, la fonction « acheter pour moi » vise à commander des produits sur des sites externes au nom du client, renforçant ainsi le rôle d’Amazon comme intermédiaire centralisé.
Contrôle de la relation client et des données de première partie
Les données générées par les interactions directes avec les clients constituent le cœur de la stratégie d’Amazon. En limitant l’accès aux crawlers externes, la société conserve la capacité de monétiser ces informations via la publicité ciblée et d’éviter que des tiers ne créent des services concurrents basés sur les mêmes jeux de données.
Enjeux de souveraineté numérique et de compétition globale
En restreignant les agents de géants technologiques comme Meta ou Google, Amazon affirme son indépendance dans un contexte où les juridictions américaines et européennes intensifient la surveillance des pratiques de collecte de données. Le contrôle des flux d’information devient un levier stratégique pour rester compétitif face à des plateformes qui pourraient autrement exploiter les mêmes données pour développer leurs propres solutions d’achat IA.
Réactions de l’industrie et perspectives du commerce agentique
La communauté analyste et les concurrents d’Amazon ont réagi de manière contrastée, soulevant des doutes quant à l’efficacité à long terme du blocage et évoquant des scénarios de transformation du paysage publicitaire.

Opinions d’experts sur l’efficacité du blocage
L’analyste indépendant Juozas Kaziukėnas estime que le blocage arrive trop tard, les données d’Amazon étant déjà intégrées dans les ensembles d’entraînement de modèles comme ChatGPT. Eric Seufert, de Mobile Dev Memo, voit dans cette mesure un moyen pour Amazon de garder le contrôle de la relation client et de monétiser ses données de première partie. En revanche, Karsten Weide prédit que la défense contre les bots d’achat sera « une bataille défensive perdue », entraînant une transition vers la publicité de marque au détriment de la publicité de réponse directe.
Approches divergentes des concurrents
Shopify a choisi une stratégie hybride, ajoutant des avertissements dans les robots.txt de ses marchands et imposant une validation humaine pour les agents « buy‑for‑me ». La plateforme explore également des partenariats avec Perplexity et OpenAI. À l’inverse, Walmart et eBay n’ont pas instauré de blocage similaire, privilégiant une ouverture qui pourrait attirer des flux d’IA tierces et diversifier leurs canaux de vente.
Impact potentiel sur le paysage publicitaire
Si les agents d’achat continuent de gagner en popularité, les modèles publicitaires actuels d’Amazon pourraient être remis en cause. Les analystes anticipent une hausse de la publicité de marque au détriment de la publicité de réponse directe, les consommateurs s’appuyant davantage sur les recommandations d’agents autonomes que sur les annonces sponsorisées.
Scénarios futurs pour le commerce agentique
Le rapport de McKinsey 2025 place le commerce agentique comme la tendance dominante qui redéfinit le marketing. Selon Keaton G de Criteo, bloquer les agents IA pourrait entraîner une perte de parts de marché pour Amazon, les acheteurs étant redirigés vers des plateformes plus permissives. D’un autre côté, la protection des données de première partie pourrait permettre à Amazon de créer des services premium basés sur l’IA, renforçant son statut de « jardin clos » et offrant une nouvelle source de revenus.
















