Model Context Protocol devient le standard des agents Azure

·

·

Salle de serveurs Azure futuriste illustrant le Model Context Protocol comme standard universel connectant des agents d’IA via un câble USB‑C lumineux
Résumer cet article avec :

Microsoft a annoncé le 19 janvier 2026 que le protocole Model Context Protocol (MCP) est désormais disponible en Disponibilité générale dans Azure Functions. Positionné comme un « USB‑C pour l’IA », le MCP permet aux agents de se connecter à des données et outils externes de façon sécurisée et standardisée. Alors que la concurrence s’intensifie sur les plateformes d’IA agentique, Azure cherche à s’imposer comme un écosystème complet d’orchestration d’agents.


À retenir

  • La GA du MCP sur Azure Functions ouvre un déploiement self‑hosted via custom handlers sans changement de code.
  • Le protocole passe du Server‑Sent Events au streamable‑http à faible latence, améliorant la performance et la scalabilité.
  • Microsoft intègre On‑Behalf‑Of et OAuth 2.1 via Entra ID, assurant l’authentification par identité utilisateur et bloquant le Tool Poisoning.
  • Le MCP bénéficie d’une adoption rapide : 8 millions de téléchargements cumulés depuis fin 2024.
  • Les agents peuvent désormais exploiter Azure AI Foundry et le GitHub Copilot pour la découverte et l’appel d’outils.

Le passage en GA du MCP fait basculer un protocole expérimental, lancé par Anthropic en novembre 2024, vers un standard suffisamment mûr pour la production en entreprise. Au cours de la phase pilote, la communauté a téléchargé plus de 8 millions de serveurs MCP, contre environ 100 000 en fin 2024, illustrant la volonté de normaliser les interactions entre agents et ressources. Pour les développeurs, cela se traduit par la possibilité de concevoir, tester et déployer des agents d’IA sur Azure sans réécrire l’infrastructure réseau ni le code de traitement.

Un standard universel pour les agents d’IA

Le MCP se distingue par une approche modulaire, où chaque serveur expose des endpoints d’API décrits dans un fichier mcp.json. Grâce à l’extension Azure Functions, ces serveurs peuvent désormais fonctionner comme custom handlers, en étant configurés uniquement via un fichier host.json. Cette abstraction réduit la complexité opérationnelle et facilite la mise en production de nouveaux outils.

Équipe de développeurs en France travaillant sur Azure Functions et le protocole Model Context Protocol pour standardiser les agents d’IA
Cette scène illustre le MCP comme standard universel pour les agents d’IA, rendu possible grâce à son intégration modulaire dans Azure Functions.

Origine et croissance du MCP

L’idée a émergé chez Anthropic en novembre 2024 pour répondre à la fragmentation des agents d’IA entre fournisseurs et outils propriétaires. Depuis, le protocole est adopté par OpenAI et Google DeepMind, et son usage s’est accéléré, avec des téléchargements passés d’environ 100 000 à plus de 8 millions en cinq mois, entre décembre 2024 et avril 2025. Cette dynamique place le MCP parmi les principaux candidats pour un socle d’interopérabilité.

Intégration dans Azure Functions

La version GA introduit un modèle self‑hosted sur Azure Functions compatible avec .NET (worker isolé), Java, JavaScript, Python et TypeScript. Les développeurs peuvent démarrer un serveur MCP localement à l’aide de VS Code ou d’Azure Functions Core Tools 4.0.7030+ avant de le déployer sur le cloud. Cette continuité entre environnement local et production simplifie les tests et les mises à jour fréquentes.

Impacts sur la création d’agents

Azure AI Foundry permet désormais d’exposer des outils MCP sans configuration supplémentaire côté agent. Les agents consomment ces outils via un catalogue centralisé, ce qui réduit les frictions de développement et aligne les pratiques entre équipes. Des intégrations sectorielles apparaissent déjà : le consortium CAMARA publie des APIs télécoms, et Claude est intégré dans Foundry pour des cas d’usage santé, avec un contrôle renforcé des données sensibles.

Gouvernance et sécurisation des agents

La montée en puissance du MCP impose une architecture de sécurité renforcée pour protéger les données d’entreprise et identités. Microsoft mise sur l’Entra ID, la segmentation des serveurs et le contrôle centralisé des autorisations afin de garder la maîtrise des agents, même lorsqu’ils exécutent des actions critiques.

Architecte cybersécurité en France surveillant la gouvernance et la sécurisation des agents d’IA MCP dans un centre de contrôle Azure
L’image met en scène la gouvernance et la sécurisation des agents MCP sur Azure, avec authentification forte, allowlisting et contrôle centralisé des outils.

Authentification On-Behalf-Of et OAuth 2.1

Microsoft a introduit On‑Behalf‑Of (OBO), qui permet aux agents d’utiliser l’identité Entra ID de l’utilisateur final plutôt que des secrets techniques partagés. Cette authentification par délégation évite l’usage de comptes de service génériques, renforce la traçabilité des appels et facilite la conformité aux politiques internes. Couplé à OAuth 2.1, ce mécanisme s’intègre dans les architectures « zero trust » déjà déployées.

Lutte contre le Shadow AI et le Tool Poisoning

Les Shadow Agents désignent des instances non supervisées pouvant agir en dehors des règles de l’organisation et exposer des données sensibles. L’implémentation de l’OBO, combinée à un strict allowlisting des serveurs MCP autorisés, réduit fortement ce risque en imposant un périmètre d’exécution contrôlé. Par ailleurs, les attaques de Tool Poisoning, mises en évidence par Invariant Labs, sont atténuées grâce à l’usage du streamable‑http signé et à une validation stricte des outils avant leur inscription au catalogue.

Conformité et listes blanches

La gouvernance repose sur un modèle d’autorisation basé sur l’allowlisting de chaque serveur connecté. Tout serveur MCP doit être pré‑enregistré et approuvé afin de limiter l’exposition aux menaces externes et aux dérives internes. Ce mécanisme facilite également les audits, en offrant une vision consolidée des outils disponibles, des appels effectués et des données manipulées par les agents.

Déploiement pratique et performance

Les options d’hébergement d’Azure Functions sont alignées avec les besoins de scalabilité des agents d’IA, tout en gardant un contrôle fin sur les coûts. Les équipes peuvent ajuster le dimensionnement en fonction des pics de charge, sans gérer directement les serveurs sous‑jacents.

Modèles d’hébergement et scaling

Microsoft recommande les plans Dédiés ou Flex Consumption pour les environnements de production, afin de tirer parti de l’auto‑scaling géré tout en contrôlant la durée des sessions. Cette approche réduit les coûts pour les workloads intermittents, tout en maintenant une performance stable pour les agents fortement sollicités. Les organisations peuvent ainsi segmenter leurs usages entre environnements de test, pré‑production et production.

Custom handlers et host.json

Les serveurs MCP s’exécutent via des custom handlers, ce qui évite le modèle in‑process susceptible de restreindre la compatibilité entre langages et runtimes. Le fichier host.json suffit pour configurer et déployer le serveur sans réécriture de code métier, ce qui accélère le cycle de livraison. Cette séparation claire entre logique applicative et configuration facilite aussi les revues de sécurité et les changements de politique.

Optimisation du transport : streamable‑http vs SSE

Le passage à streamable‑http remplace l’ancien usage de Server‑Sent Events (SSE) pour la communication entre agents et serveurs MCP. Cette évolution améliore la latence, simplifie l’intégration avec les infrastructures HTTP existantes et permet aux agents de recevoir des réponses fragmentées en temps réel. Pour les tâches longues ou interactives, comme la génération de code ou l’analyse de grands volumes de données, ce mode de transport offre une expérience plus fluide aux utilisateurs finaux.

Critiques et limites

Malgré ces avancées, certains experts relèvent que la prise en main du MCP reste exigeante. La mise en place de l’allowlisting et le paramétrage des custom handlers supposent une bonne maîtrise de l’infrastructure cloud Azure, ce qui peut freiner les petites équipes. De plus, le coût des plans Azure Flex Consumption peut rapidement augmenter en cas de volumes élevés ou de charges imprévisibles.

Pour autant, la standardisation du MCP et son intégration profonde dans l’écosystème Microsoft dessinent un cadre de référence pour les prochaines générations d’agents. Les développeurs disposent désormais d’un socle commun pour bâtir, sécuriser et déployer des agents d’IA à grande échelle, que ce soit pour des cas d’usage internes ou pour des services exposés à leurs clients.


Sur le même Thème :

Laisser un commentaire