Anthropic quintuple la capacité mémoire de Claude Sonnet 4 en passant de 200 000 à 1 million de tokens le 12 août 2025. Cette évolution permet aux développeurs de traiter des bases de code de 75 000 lignes ou des dizaines d’articles scientifiques en une seule requête. L’API Anthropic et Amazon Bedrock proposent cette fonctionnalité en bêta publique dès aujourd’hui.
À retenir
- 1 million de tokens = 750 000 mots
- Support technique via API Anthropic et Amazon Bedrock
- Coût d’entrée : 6 USD par million de tokens
- Coût de sortie : 22,50 USD par million de tokens
- Disponible pour les clients niveau 4 ou débit personnalisé
- Google Cloud Vertex AI à venir
Claude Sonnet 4 passe à l’échelle du million de tokens
Anthropic transforme radicalement la manière dont les développeurs interagissent avec l’intelligence artificielle. La fenêtre de contexte de Claude Sonnet 4 atteint désormais 1 million de tokens, soit l’équivalent de 750 000 mots. Cette progression divise par cinq l’ancienne limite de 200 000 tokens partagée entre Sonnet 4 et Opus 4.
Une capacité technique démultipliée
Les 1 million de tokens représentent une base de code complète de plus de 75 000 lignes incluant fichiers sources, tests et documentation. Un seul prompt suffit pour analyser l’architecture d’un projet complet, identifier les dépendances entre fichiers et proposer des optimisations systémiques. En contexte académique, l’IA traite simultanément des dizaines d’articles de recherche tout en conservant les liens conceptuels entre documents.

Accès bêta via API et cloud
L’API d’Anthropic déploie cette fonctionnalité en bêta publique pour les clients disposant d’un niveau d’utilisation 4 ou de limites de débit personnalisées. Amazon Bedrock intègre cette mise à jour dès aujourd’hui. Google Cloud Vertex AI prévoit le support prochainement sans date précise. Les développeurs européens accèdent à ces ressources via les régions AWS et Google Cloud existantes.
Des cas d’usage révolutionnaires émergent
L’élargissement de la fenêtre de contexte supprime la nécessité de techniques complexes comme la génération augmentée par récupération (RAG) pour de nombreux cas d’usage. Les développeurs concentrent leurs efforts sur la logique métier plutôt que sur l’optimisation de la gestion de contexte.
Analyse complète de codebases massives
Les équipes techniques chargent des bases de code complètes incluant documentation, tests unitaires et intégration continue. Claude comprend l’architecture globale, détecte les vulnérabilités de sécurité et propose des refactorisations impactant l’ensemble du système. Cette capacité s’étend aux projets legacy complexes nécessitant des mises à jour majeures.
Traitement de documents juridiques et techniques
Les cabinets d’avocats analysent des ensembles de contrats de centaines de pages en identifiant automatiquement les clauses contradictoires. Les laboratoires de recherche synthétisent des corpus de documents techniques en maintenant la cohérence conceptuelle malgré la volumétrie. Les spécifications techniques de plusieurs années de développement se traitent dans leur intégralité.
Agents IA autonomes et multi-étapes
Les agents IA maintiennent la cohérence sur des flux de travail complexes impliquant des centaines d’appels d’outils. L’historique complet des interactions et la documentation d’API restent accessibles en permanence. Cette persistance permet des automatisations sophistiquées sur des périodes prolongées sans perte de contexte.

Impact économique et positionnement stratégique
L’augmentation des capacités s’accompagne d’une restructuration tarifaire ciblée. Les prompts dépassant 200 000 tokens voient leurs coûts revus à la hausse mais restent compétitifs face aux alternatives technologiques complexes.
Structure tarifaire réajustée
Le coût d’entrée passe à 6 USD par million de tokens contre 3 USD précédemment. Le coût de sortie atteint 22,50 USD par million de tokens contre 15 USD auparavant. Anthropic propose le caching des prompts et le traitement par lots pour réduire les coûts jusqu’à 50%. Ces mécanismes restent cruciaux pour les applications à grande échelle.
| Service | Prix entrée | Prix sortie |
|---|---|---|
| 0-200k tokens | 3 USD/million | 15 USD/million |
| 200k-1M tokens | 6 USD/million | 22,50 USD/million |
Position face à Google et OpenAI
Google propose déjà 1 million de tokens avec Gemini et annonce 2 millions prochainement. OpenAI maintient GPT-4.1 à 1 million de tokens mais ramène GPT-5 à 400 000 tokens. Anthropic se distingue par une précision de 100% dans les tests de récupération internes, positionnant Claude comme la solution la plus fiable pour les applications sensibles.
Adoptions précoces validées
Bolt.new intègre Claude dans sa plateforme de développement basée sur navigateur. iGent AI exploite l’agent Maestro pour convertir les conversations en code. Ces premiers utilisateurs rapportent des flux de travail plus vastes, plus précis et plus autonomes que les solutions alternatives.
L’écosystème Claude évolue vers l’autonomie
Cette mise à jour majeure s’inscrit dans une stratégie globale d’Anthropic pour positionner Claude comme l’IA d’entreprise la plus avancée du marché.
Mémoire persistante et sécurité renforcée
Claude acquiert une fonction de mémoire permettant de référencer des conversations passées pour des réponses personnalisées. Cette fonctionnalité se déploie progressivement pour les plans Max, Team et Enterprise. Un outil de sécurité en temps réel pour le codage détecte automatiquement les risques potentiels et suggère des corrections immédiates.
Roadmap technique ambitieuse
Anthropic prévoit d’étendre le raisonnement à 128 000 tokens d’ici 2026. La collaboration multi-agents et la recherche autonome avec validation croisée des sources seront les prochaines étapes majeures. Ces développements s’inscrivent dans une course à l’IA où Google et OpenAI investissent massivement.
















