Google lance des serveurs MCP clé en main pour se connecter à Maps, BigQuery et Cloud

·

·

Salle de contrôle cloud moderne chez un fournisseur comme Google Cloud montrant des ingénieurs supervisant des serveurs MCP pour l’IA d’entreprise
Résumer cet article avec :

La semaine dernière, Google Cloud a annoncé un nouveau service qui, selon ses responsables, change la façon dont les agents d’IA interagissent avec les outils métier. En lançant des serveurs MCP gérés, l’entreprise promet un « zéro configuration » pour les développeurs et présente ses services comme « agent‑ready by design ». Cette initiative prolonge le Model Context Protocol (MCP) introduit par Anthropic en novembre 2024.


À retenir

  • Le MCP open‑source agit comme un « USB‑C pour l’IA », en unifiant les interfaces d’agents et d’outils.
  • Les serveurs MCP gérés de Google Cloud permettent de pointer un agent vers une seule URL, sans connecteurs manuels.
  • Les premiers services pris en charge incluent Google Maps Platform, BigQuery, GCE et GKE, avec une cadence d’ajout de 1 à 2 services par semaine.
  • Apigee étend le protocole aux API d’entreprise, avec gouvernance, IAM et Model Armor intégré pour la sécurité.
  • Le lancement est en Public Preview depuis le 10 décembre 2025, avec un cap affiché sur des intégrations d’agents fiables.

Le MCP a émergé pour résoudre le problème d’intégration N×M des agents qui a longtemps freiné les déploiements d’IA en entreprise. Avant sa mise en place, chaque nouvelle source de données ou outil imposait un connecteur spécifique, avec des coûts de maintenance élevés et une complexité croissante pour les équipes IT. En proposant un format de communication standardisé en JSON‑RPC, le protocole permet aux agents d’émettre des requêtes et de recevoir des réponses sans connaissance préalable de la structure interne de l’outil cible.

Un protocole universel pour les agents IA

En s’appuyant sur le Model Context Protocol, Google Cloud se positionne comme un pilier de l’écosystème d’agents IA, dans la continuité de l’approche défendue par Anthropic. Pour les entreprises, l’enjeu n’est plus de bâtir des connecteurs un par un, mais d’aligner leurs outils sur un socle technique partagé.

Architecte logiciel en France devant un ordinateur illustrant le protocole universel MCP qui connecte agents IA et outils via un endpoint unique
Le protocole MCP agit comme un « USB‑C pour l’IA », offrant un point de terminaison unique qui simplifie la connexion entre agents et outils métier.

Définition et rôle du MCP

Le MCP définit un format d’échange JSON‑RPC standardisé et un point de terminaison (endpoint) unique pour les agents IA. Il sépare explicitement le client (l’agent) de l’hôte (le système externe), ce qui renforce la modularité et facilite le remplacement ou l’ajout d’outils. Le protocole joue ainsi le rôle d’interface commune entre modèles de langage et services, en assurant une compatibilité technique durable entre différentes plateformes.

Résolution du problème d’intégration N×M

Les connecteurs personnalisés exigeaient jusqu’ici des compétences pointues et des cycles de déploiement parfois longs, surtout dans les environnements multi‑cloud. Avec le MCP comme couche d’abstraction, l’intégration se résume à configurer une URL unique exposant les capacités d’un service. La réduction de la complexité se traduit par un gain de productivité d’environ 60 % sur les projets d’IA internes, selon les premières estimations partagées par Google Cloud.

L’engagement de Google : « Agent‑Ready by Design »

Steren Giannini, directeur produit chez Google Cloud, affirme que l’objectif est de rendre chaque service agent‑ready dès la conception, plutôt que d’ajouter des intégrations a posteriori. Cette orientation implique un travail coordonné entre les équipes d’IA, d’infrastructure et de sécurité, afin de garantir que les agents puissent utiliser les services de manière fiable, traçable et conforme aux règles de l’entreprise.

Serveurs MCP gérés : simplifier l’implémentation

La mise à disposition de serveurs MCP distants, entièrement gérés, remplace les déploiements locaux fragiles souvent basés sur des projets communautaires. Cette évolution vise à donner aux entreprises une couche d’intégration prête pour la production, sans avoir à gérer l’infrastructure sous‑jacente.

Transition du local au distant

Avant le 10 décembre 2025, la plupart des développeurs s’appuyaient sur des serveurs MCP communautaires ou open‑source, qu’il fallait installer, sécuriser et mettre à jour. Désormais, le service fournit un point de terminaison MCP global, opéré par Google Cloud et intégré au reste de l’écosystème, ce qui réduit nettement la charge opérationnelle pour les équipes techniques.

Zéro configuration pour les développeurs

Avec la phase de Public Preview, la connexion d’un agent à un service devient une opération de moins de cinq minutes, là où elle prenait auparavant plusieurs heures. Il suffit de coller l’URL du serveur MCP géré, le protocole gère automatiquement l’authentification, la découverte des outils et la gestion des erreurs. Ce gain de temps se traduit par des cycles de développement plus courts, estimés à environ 30 % en moyenne sur les projets pilotes menés avec des clients.

Architecture et disponibilité

Les serveurs MCP s’appuient sur l’infrastructure API existante de Google Cloud, qui fournit déjà des garanties en matière de disponibilité et de scalabilité. Cette couche unifiée bénéficie du réseau global de l’éditeur, ce qui permet de maintenir une latence maîtrisée pour les agents et de répondre aux exigences locales de résidence et de protection des données sensibles.

Gouvernance et sécurité : la protection des données d’entreprise

Google affirme qu’il ne s’agit pas seulement de connecter les agents à ses services. Apigee, son produit de gestion des API, est déjà utilisé par de nombreuses sociétés pour émettre des clés API, définir des quotas et surveiller le trafic.

Centre de sécurité informatique en France où un ingénieur surveille les politiques IAM, Model Armor et l’audit logging pour les agents IA
Les fonctionnalités de gouvernance et de sécurité, comme IAM, Model Armor et le journal d’audit, renforcent la protection des données d’entreprise dans les déploiements d’agents IA basés sur MCP.

Apigee comme extension du MCP

Apigee permet aux clients de transformer leurs API internes en outils découvrables par les agents, directement depuis la console de gestion. En pratique, les équipes publient une API Apigee comme service MCP en quelques clics, sans écrire de code supplémentaire, ce qui ouvre progressivement l’ensemble du patrimoine applicatif de l’entreprise aux agents IA.

Contrôles IAM et Model Armor

Les appels aux API passent par les mêmes politiques IAM que les utilisateurs humains, avec un contrôle fin des droits accordés à chaque agent. Model Armor agit comme pare‑feu spécialisé pour les modèles, en interceptant les injections de prompt, les tentatives d’exfiltration de données ou les dérives comportementales. L’association d’IAM et de Model Armor vise à renforcer la sécurité sans pénaliser la performance ni la qualité des réponses.

Journal d’audit et conformité

Chaque interaction d’un agent est consignée dans un journal d’audit centralisé, offrant une visibilité complète sur les actions entreprises et les données consultées. Ces journaux facilitent les audits internes, la détection d’anomalies et la conformité avec les régulations européennes comme le RGPD, un point de vigilance majeur pour les secteurs régulés.

Limites et perspectives

Malgré cette simplification, l’adoption d’un standard ouvert suppose une coopération constante entre fournisseurs de modèles, éditeurs d’outils et grandes entreprises utilisatrices. Certains acteurs restent prudents face au rythme élevé des évolutions du protocole, par crainte de ruptures de compatibilité et de migrations fréquentes. Google Cloud met en avant une feuille de route publique, avec l’ajout de 1 à 2 nouveaux services chaque semaine et un objectif de couverture large de son portefeuille d’ici fin 2025.

Le lancement des serveurs MCP gérés de Google Cloud marque une étape importante vers un écosystème d’agents IA plus cohérent, sécurisé et opérationnel. Les entreprises disposent désormais d’un cadre structuré pour exposer leurs données et outils sans renoncer à la gouvernance, tout en profitant d’une vitesse de déploiement inédite. Les premiers retours de clients pilotes laissent entrevoir une automatisation plus fine des processus métiers, appuyée sur un protocole commun et des services intégrés de bout en bout.


Sur le même Thème :