Anthropic a lancé mercredi 15 octobre 2025 son modèle Claude Haiku 4.5, présenté comme le plus rapide et le plus économique de la famille Claude. Ce LLM léger surpasse les attentes en matière de performance, avec une vitesse doublée par rapport à Claude Sonnet 4 et des scores aux benchmarks d’ingénierie logicielle supérieurs à ceux de GPT-5. Disponible gratuitement pour les utilisateurs de base, il démocratise l’accès à une intelligence artificielle fiable et sécurisée.
À retenir
- Claude Haiku 4.5, lancé le 15 octobre 2025, est le modèle par défaut gratuit sur Claude.ai.
- Vitesse : plus de deux fois supérieure à celle de Claude Sonnet 4 pour les tâches de codage.
- Score SWE-bench Verified : 73,3 %, devant Claude Sonnet 4 (72,7 %) et GPT-5 (72,8 %).
- Coût API : 1 $ par million de tokens en entrée, 5 $ en sortie, soit environ 0,86 € et 4,30 €.
- Capacité de contexte : jusqu’à 200 000 tokens en entrée, multimodal.
- Sécurité renforcée : niveau AI Safety Level 2, le plus sûr des LLM d’Anthropic à ce jour.
Ce lancement marque un tournant dans la démocratisation des LLM performants, en rendant accessible une IA de haute qualité à un coût minimal pour les développeurs et les entreprises. Alors que les modèles avancés comme Claude Opus 4.1 exigent des ressources importantes, Haiku 4.5 cible l’efficacité et la praticité, idéal pour les applications en temps réel. Pour les entreprises européennes confrontées à des contraintes budgétaires et réglementaires, ce modèle léger ouvre des opportunités d’automatisation sans compromettre la sécurité, au moment où l’IA s’intègre massivement dans les flux de travail quotidiens.
Lancement de Claude Haiku 4.5 : une avancée en efficacité
Anthropic positionne ce nouveau modèle comme un pilier de sa stratégie pour des IA légères et fiables. Soutenue par Amazon, l’entreprise met l’accent sur l’innovation accessible, avec Haiku 4.5 conçu pour des tâches quotidiennes sans sacrifier la qualité.
Chronologie et disponibilité immédiate
Le modèle a été dévoilé le 15 octobre 2025, juste avant la fin de semaine, pour une adoption rapide. Il est déjà accessible via l’interface Claude.ai sur web, iOS et Android, ainsi que par l’API d’Anthropic, Amazon Bedrock et Google Cloud Vertex AI. Pour les utilisateurs gratuits, Haiku 4.5 devient le choix par défaut, facilitant l’entrée en matière sans frais initiaux.
Cette disponibilité multiplateforme répond à la demande croissante des développeurs pour des outils intégrables. Contrairement à des lancements phasés, Anthropic opte pour une mise en ligne globale, alignée sur les besoins d’automatisation immédiate en Europe.
Philosophie des modèles légers chez Anthropic
Haiku 4.5 incarne l’approche d’Anthropic pour des LLM hybrides, ajustant dynamiquement la puissance de calcul aux requêtes. Mike Krieger, Chief Product Officer, souligne son rôle pivot.
« Il surpasse largement sa catégorie de poids et est conçu pour tous ceux qui veulent l’intelligence supérieure, la fiabilité et le partenariat créatif de Claude dans un ensemble léger. »
– Mike Krieger, Chief Product Officer d’Anthropic.
Ce positionnement cible les non-spécialistes, démocratisant l’IA au-delà des géants comme OpenAI.
Sécurité au cœur du design
Haiku 4.5 affiche le plus bas taux de désalignement parmi les LLM d’Anthropic, avec un AI Safety Level 2 global. Ce niveau, moins restrictif que le 3 des modèles Sonnet 4.5 et Opus 4.1, permet une flexibilité accrue sans compromettre la fiabilité. Les ingénieurs soulignent une réduction significative des comportements indésirables, essentielle pour les applications européennes soumises au RGPD.

Performances techniques : rapidité et précision au premier plan
Les métriques de Haiku 4.5 démontrent une efficacité remarquable, combinant vitesse et intelligence pour des usages pratiques en automatisation.
Comparaison avec Claude Sonnet 4
Haiku 4.5 excelle en vitesse, traitant les tâches de codage plus de deux fois plus rapidement que Sonnet 4, lancé en mai 2025. Sur des opérations complexes, cette avance peut atteindre 4 à 5 fois, réduisant la latence pour les chatbots ou copilotes. Sa qualité de raisonnement égale celle du modèle moyen, frôlant la frontière des performances IA actuelles.
Cette parité en intelligence, malgré une taille réduite, optimise les systèmes multi-agents où Haiku gère les sous-tâches.
Résultats aux benchmarks d’ingénierie
Au SWE-bench Verified, test clé pour l’automatisation logicielle, Haiku 4.5 score 73,3 %, devançant Sonnet 4 à 72,7 % et GPT-5 à 72,8 %. Il surpasse aussi Sonnet 4 sur trois benchmarks, incluant codage et mathématiques secondaires, ainsi que Gemini 2.5 Pro en ingénierie. Ces chiffres valident son rôle en agentique, pour refactorisation ou migrations automatisées.
Pour les développeurs, ces performances signifient une coût-efficacité accrue sans perte de précision.
Capacités de contexte et multimodalité
Le modèle ingère jusqu’à 200 000 tokens en entrée, traitant longs documents ou fichiers d’entreprise en mode multimodal – texte, images et données. Les sorties atteignent 64 000 tokens, adaptées à des réponses détaillées. Cette ampleur de contexte supporte l’analyse de littérature ou de flux de données multiples.

Implications pour les entreprises : impact économique et usages concrets
Haiku 4.5 transforme l’automatisation en rendant viable des déploiements à grande échelle, avec un focus sur la praticité pour les secteurs analytiques.
Structure des coûts et économies réalisées
Le tarif API fixe le traitement à 1 $ par million de tokens en entrée (environ 0,86 €) et 5 $ en sortie (4,30 €), un tiers du coût de Sonnet 4. Par rapport à Haiku 3.5 d’octobre 2024 (0,80 $/4 $), cette hausse mineure est compensée par des gains : jusqu’à 90 % d’économies via cache d’invite et 50 % avec l’API Message Batches. Les entreprises européennes bénéficient ainsi d’une tarification alignée sur des budgets contraints.
Ces mécanismes réduisent les dépenses en automatisation, favorisant l’adoption massive.
Rôle dans les systèmes agentiques et applications sectorielles
En tant que sous-agent, Haiku 4.5 exécute tâches routinières planifiées par Sonnet 4.5, comme la refactorisation de code ou surveillances en arrière-plan. Pour le service client, il anime des chatbots à faible latence, intégrables aux niveaux gratuits. Dans l’analyse financière, il monitore des milliers de flux, tracke régulations et risques de portefeuille.
La recherche s’enrichit via synthèse de sources multiples, boostant la productivité sans surcharge infrastructurelle.
Un contrepoint : limites en complexité avancée
Bien que performant, Haiku 4.5 reste optimisé pour des tâches légères, avec un ASL 2 potentiellement moins vigilant que le 3 des modèles supérieurs sur des scénarios extrêmes. Cette approche équilibrée, loyale à la philosophie d’Anthropic, invite les entreprises à combiner sous-agents et modèles principaux pour une couverture complète, évitant une dépendance exclusive à la légèreté.
















