Code Mode de Cloudflare améliore l’usage des MCP par les agents IA

·

·

Code mode renforce l’efficacité des agents IA via MCP
Résumer cet article avec :

Le 26 septembre 2025, Cloudflare a dévoilé le Code Mode, une innovation qui permet aux grands modèles de langage (LLM) d’interagir avec des outils externes en écrivant du code TypeScript plutôt qu’en utilisant des appels directs. Cette approche, basée sur le Model Context Protocol (MCP), vise à surmonter les limites des méthodes traditionnelles en exploitant les forces des LLM sur les bases de code réelles. Elle promet des agents IA plus efficaces et sécurisés, particulièrement pour les développeurs et entreprises.


À retenir

  • Cloudflare introduit le Code Mode le 26 septembre 2025 pour améliorer l’interaction des agents IA avec le MCP.
  • Les LLM génèrent du code TypeScript pour appeler des outils, évitant les appels directs inefficaces.
  • Exécution dans un bac à sable sécurisé via les isolats V8 de Cloudflare Workers.
  • Avantages en efficacité pour les chaînes d’appels et en sécurité contre les fuites de clés API.
  • Disponible en développement local ; beta fermée pour la production.
  • MCP, norme de facto en 2025, adoptée par Anthropic, OpenAI et Microsoft.

Cette innovation arrive à un moment clé où les agents IA, capables d’exécuter des tâches autonomes, peinent à s’intégrer de manière fluide et sécurisée avec des outils externes. Le Code Mode, centré sur l’innovation et la sécurité, répond aux besoins des ingénieurs en IA et des entreprises européennes confrontées à des défis de performance et de protection des données. En exploitant le function calling via du code réel, il démocratise l’accès à des workflows complexes, renforçant la souveraineté numérique face à des écosystèmes de plus en plus interconnectés.

Le défi de l’intégration des outils pour les agents IA

Les agents IA, propulsés par des LLM, dépendent du Model Context Protocol (MCP) pour accéder à des outils externes et accomplir des tâches concrètes au-delà de la simple génération de texte. Introduit par Anthropic, ce protocole standardise les interactions via des fonctions RPC, gérant la connectivité, l’autorisation et la documentation de manière uniforme. En 2025, il est devenu une norme de facto, adoptée par OpenAI, Cursor et Copilot, facilitant les intégrations dans des frameworks agentiques.

Les limites des appels d’outils directs

Les LLM, entraînés sur des données synthétiques pour le function calling, produisent des tokens spéciaux et des messages JSON pour invoquer des outils. Cette méthode expose directement les outils au LLM, ce qui s’avère sous-optimal face à un grand nombre d’outils ou à leur complexité. Les appels en chaîne consomment du temps, de l’énergie et des tokens, car chaque sortie doit être réintégrée dans le réseau neuronal du modèle.

Des cas concrets montrent des échecs : des agents IA interprètent mal les réponses d’API conformes à OpenAI, traitant les appels comme du texte brut. Malgré cela, le MCP conserve sa valeur par son uniformité, agissant comme un USB-C pour les intégrations agent/outil, indépendant de la connaissance préalable entre agent et serveur.

Bénéfices attendus du Code Mode

Présenté par Kenton Varda et Sunil Pai, le Code Mode convertit les outils MCP en une API TypeScript, demandant au LLM d’écrire du code pour les appeler. Cela exploite l’entraînement des LLM sur des bases de code réelles, améliorant la gestion d’outils complexes. L’objectif : renforcer la fiabilité et l’efficacité des agents IA pour les développeurs et équipes d’entreprise.

En Europe, où la souveraineté des données prime, cette approche optimise les ressources sans compromettre la sécurité, positionnant Cloudflare comme un pilier de l’infrastructure IA.

Code Mode illustre l’appel d’outils via TypeScript et MCP

Fonctionnement technique du Code Mode

Le Code Mode transforme radicalement l’interaction des agents IA avec les serveurs MCP en remplaçant les appels directs par de la génération de code. Le SDK Agents de Cloudflare, étendu avec un helper codemode, enveloppe les outils et les invites pour cette exécution. Cela permet une intégration plus intuitive, adaptée aux environnements multi-tenants comme Cloudflare Workers.

Conversion en API TypeScript et exécution contrôlée

Lors de la connexion à un serveur MCP en Code Mode, le SDK récupère le schéma et le convertit en interface TypeScript avec documentation. Par exemple, une connexion à https://gitmcp.io/cloudflare/agents génère des fonctions comme fetch_agents_documentation ou search_agents_code. L’agent reçoit un unique outil exécutant du code TypeScript arbitraire.

Ce code s’exécute dans un bac à sable isolé, sans accès direct à Internet, via des invocations RPC distribuées par le SDK. Les résultats reviennent via console.log(), optimisant les boucles d’agent.

Le rôle des isolats V8 pour la sécurité

Cloudflare utilise les V8 isolates, instances légères du moteur JavaScript de Chrome, pour des bacs à sable efficaces. Ils démarrent en quelques millisecondes et consomment quelques mégaoctets, surpassant les conteneurs en rapidité et légèreté. Un nouvel isolat par exécution assure une sécurité par destruction rapide.

L’API Worker Loader charge dynamiquement le code Worker, comme avec env.LOADER.get(id, async () => { ... }). Les bindings dans l’environnement env fournissent un accès autorisé aux serveurs MCP, évitant les requêtes réseau et les fuites de clés via OAuth 2.0. L’isolement des processus protège contre des vulnérabilités comme Spectre, via des cordons par niveau de confiance.

Isolation via V8 et exécution sandboxée pour Code Mode

Avantages et défis pour l’adoption des agents IA

Le Code Mode élève les performances des agents IA en alignant les interactions sur les compétences natives des LLM. Il s’inscrit dans l’expansion du MCP, intégré par Microsoft à Windows et utilisé par Vercel pour l’automatisation front-end. Pour l’Europe, cela favorise une IA plus pratique et sécurisée, alignée sur le RGPD.

Améliorations en efficacité et fiabilité

Les agents gèrent plus d’outils complexes via du code TypeScript, sautant les rétroactions intermédiaires dans les chaînes d’appels. Cela économise temps, énergie et tokens. Les LLM exploitent leur entraînement sur du real-world code, rendant les workflows plus robustes pour des tâches agentiques complexes.

Les intégrations ad-hoc ne suffisent plus ; le MCP émerge comme la colonne vertébrale des interactions agent-à-agent.

Selon des discussions entre Anthropic, Cloudflare et d’autres acteurs.

Sécurité renforcée et limites persistantes

Les bindings empêchent les fuites de tokens, le superviseur gérant l’autorisation. Sans accès Internet, les Workers isolés minimisent les risques. Cependant, malgré ces avancées, les LLM restent vulnérables aux données synthétiques pour le function calling ; un contrepoint loyal réside dans la courbe d’apprentissage pour les développeurs non familiers avec TypeScript, potentiellement freinant l’adoption immédiate en production.

Disponible localement via Wrangler et workerd, l’API Loader est en beta fermée. Cloudflare offre des serveurs MCP gérés pour Durable Objects et l’edge compute, avec un niveau gratuit. Cette évolution soutient la mission de Cloudflare pour un Internet plus sûr, favorisant des agents IA démocratisés et fiables.

Perspectives d’expansion de l’écosystème

L’adoption du MCP croît, avec des catalogues publics et des intégrations pour KV/R2. Des variantes pour d’autres bibliothèques sont prévues, accélérant la tendance vers des agents autonomes en entreprise européenne.


Sur le même Thème :