Gemini CLI + FastMCP facilitent la création de serveurs MCP

·

·

Model Context Protocol MCP gagne en accessibilité grâce à Gemini CLI
Résumer cet article avec :

Gemini CLI et FastMCP s’allient pour simplifier le développement des serveurs MCP, un protocole clé pour les agents d’IA. Annoncée le 22 septembre 2025, cette intégration permet aux développeurs de connecter leurs outils personnalisés directement à l’interface en ligne de commande de Google. Une avancée qui réduit les frictions techniques et ouvre de nouvelles possibilités pour les workflows automatisés.


À retenir

  • L’intégration entre Gemini CLI et FastMCP est effective depuis le 22 septembre 2025, visant à simplifier la création de serveurs Model Context Protocol (MCP) en Python.
  • FastMCP utilise des décorateurs et annotations de type pour rendre le développement plus intuitif, tandis que Gemini CLI exécute des actions via des commandes slash (ex: /promptname).
  • Les serveurs MCP permettent aux LLMs d’accéder à des outils externes (API, bases de données, Git), des ressources statiques/dynamiques et des invites réutilisables.
  • La configuration se fait via fastmcp install gemini-cli server.py, avec une gestion automatique des dépendances et des connexions STDIO ou HTTP.
  • Des cas d’usage incluent l’analyse de code, la gestion de projets full-stack et la collaboration entre agents IA (protocole A2A).

Cette collaboration entre Google et les mainteneurs de FastMCP arrive à un moment où les développeurs cherchent à industrialiser l’intégration des grands modèles de langage (LLMs) dans des workflows concrets. Le Model Context Protocol (MCP), initié par Anthropic, agit comme une couche standardisée pour connecter les agents IA à des ressources externes – outils, données ou invites. Jusqu’ici, sa mise en œuvre nécessitait une expertise technique poussée. Avec cette intégration, les développeurs Python peuvent désormais déployer un serveur MCP fonctionnel en quelques commandes, sans gérer les complexités du protocole sous-jacent. L’enjeu est double : démocratiser l’accès aux capacités avancées des LLMs et accélérer le développement d’applications full-stack où l’IA interagit avec des systèmes existants (GitHub, Slack, bases de données).

Une intégration conçue pour les développeurs Python

FastMCP : un framework Pythonique pour les serveurs MCP

FastMCP est un framework open-source qui abstrait les détails techniques du protocole MCP, permettant aux développeurs de se concentrer sur la logique métier. Conçu autour de décorateurs Python (comme @tool ou @resource) et d’annotations de type, il rend la création d’outils et de ressources aussi simple que la définition de fonctions. Par exemple, un outil exposant une API externe se déclare en trois lignes :

from fastmcp import tool

@tool

def fetch_weather(city: str) -> dict:

"""Récupère la météo pour une ville donnée."""

return {"temp": 22, "unit": "celsius"}

Le framework gère automatiquement la conversion des endpoints en serveurs MCP compatibles, supportant les transports STDIO (pour un usage local) ou HTTP/JSON-RPC (pour des déploiements distants). Il s’appuie sur FastAPI en interne, ce qui permet une intégration fluide avec les écosystèmes Python existants.

Gemini CLI : un terminal étendu pour les workflows IA

Gemini CLI, l’interface en ligne de commande de Google, devient un hub central pour interagir avec les serveurs MCP. Après l’installation via npm install -g @google/gemini-cli@latest, les développeurs peuvent :

  1. Ajouter un serveur MCP en une commande :
    fastmcp install gemini-cli server.py
    Cette commande configure automatiquement le serveur dans le fichier settings.json de Gemini CLI et enregistre les outils disponibles.
  2. Utiliser des commandes slash pour déclencher des invites ou des outils :
    /météo Paris appellerait l’outil fetch_weather défini précédemment.
  3. Gérer le contexte éphémère : les interactions durant une session sont conservées (historique des prompts, résultats d’outils), mais réinitialisées au redémarrage.

La découverte des outils se fait dynamiquement via le protocole MCP, avec une validation des schémas JSON pour garantir la compatibilité.

Exemple de workflow type

Un développeur pourrait :

  1. Créer un outil MCP pour interagir avec une base de données PostgreSQL via FastMCP.
  2. Lier ce serveur à Gemini CLI avec fastmcp install.
  3. Utiliser une commande slash comme /db-query "SELECT * FROM users" directement dans le terminal.
  4. Intégrer les résultats dans un script Python ou un pipeline CI/CD.

Compatibilité et prérequis techniques

Pour bénéficier de cette intégration, les développeurs doivent disposer de :

  • FastMCP en version 2.12.3 ou supérieure (installable via pip install fastmcp ou uv pip install fastmcp pour une installation optimisée).
  • Gemini CLI en dernière version, requiring Node.js 18+.
  • Un environnement Python 3.9+ (recommandé : 3.11 pour les annotations de type avancées).

Les serveurs MCP peuvent être écrits en Python, tandis que les clients (comme Gemini CLI ou Claude Desktop) consomment ces services via des connexions STDIO, SSE (Server-Sent Events), ou HTTP streamable.

Des cas d’usage concrets pour les équipes techniques

Automatisation des tâches de développement

Les serveurs MCP permettent d’exposer des fonctionnalités de Gemini CLI à d’autres outils, comme :

  • L’analyse de code : un serveur MCP pourrait wrapper les capacités de Gemini pour auditer automatiquement des pull requests GitHub, en détectant des vulnérabilités ou des anti-patterns.
  • La génération d’applications : des invites MCP prêtes à l’emploi (ex: /generate-react-component) pourraient accélérer le prototypage.
  • L’assistance Git : des commandes slash pour commiter avec des messages générés par IA (/git-commit "Fix login bug") ou résoudre des conflits.

Des exemples open-source existent déjà pour des intégrations avec GitHub, Puppeteer (automatisation de navigateur), ou Google Maps (géocodage via MCP).

Collaboration entre agents IA et systèmes externes

Le protocole MCP facilite les interactions entre agents (via A2A, Agent-to-Agent Protocol) et systèmes tiers. Par exemple :

Cas d’usageImplémentation via MCP
Gestion de projets full-stackUn serveur MCP pourrait lier :
  • Un outil de suivi des tâches (ex: Jira).
  • Une base de données PostgreSQL pour les métadonnées.
  • Un dépôt Git pour le versioning.
  • Gemini CLI pour générer des rapports ou du code.
Automatisation DevOpsDes outils MCP pourraient :
  • Déclencher des builds CI/CD via des commandes slash.
  • Analyser les logs d’erreurs avec Gemini et suggérer des correctifs.
  • Interagir avec des APIs cloud (AWS, GCP) pour scaling dynamique.
Assistance multimodaleCombiner :
  • L’analyse d’images (via Gemini Vision).
  • La génération de texte (LLM).
  • Des outils externes (ex: OCR via un serveur MCP dédié).

Limites et considérations techniques

Malgré ses avantages, cette intégration présente des contraintes :

  • Contexte éphémère : Gemini CLI ne conserve pas l’historique entre les sessions, ce qui limite les workflows longs. Les développeurs doivent implémenter leur propre couche de persistance si nécessaire.
  • Latence réseau : Les serveurs MCP distants (via HTTP) introduisent un overhead par rapport aux outils locaux (STDIO).
  • Sécurité : Les outils MCP exécutent du code arbitraire. Une validation stricte des entrées/sorties est recommandée pour éviter les injections (ex: SQL via un outil de base de données).
  • Compatibilité : Certains outils nécessitent des adaptations pour fonctionner avec les schémas MCP (ex: conversion des types de données).

Jeremiah Lowin, créateur de FastMCP, souligne : L’objectif n’est pas de remplacer les APIs REST existantes, mais de fournir un protocole standardisé pour que les agents IA puissent découvrir et utiliser des outils de manière dynamique, sans configuration manuelle.

Une étape vers l’interopérabilité des agents IA

Le protocole MCP comme standard émergent

Initié par Anthropic, le Model Context Protocol se positionne comme une alternative aux solutions propriétaires pour connecter les LLMs à des ressources externes. Contrairement aux plugins (comme ceux de ChatGPT), MCP offre :

  • Une découverte dynamique : les outils sont listés et validés à la volée, sans installation préalable.
  • Une standardisation : les définitions d’outils suivent un schéma JSON commun, facilitant l’interopérabilité entre agents (ex: Gemini et Claude).
  • Une extensibilité : les serveurs peuvent exposer des ressources statiques (fichiers), dynamiques (APIs), ou des invites paramétrables.

Jack Wotherspoon, défenseur des développeurs chez Google, compare MCP à la couche TCP/IP des agents IA : un protocole invisible mais essentiel pour que les systèmes communiquent.

FastMCP et l’écosystème Python

L’adoption de FastMCP pourrait accélérer la création de serveurs MCP en Python, un langage dominant dans les communautés data et backend. Ses atouts :

  • Intégration avec FastAPI : réutilisation des routes existantes pour exposer des outils MCP.
  • Typage statique : les annotations Python améliorent la fiabilité et l’IDE support (autocomplétion).
  • Gestion des dépendances : compatible avec pip, uv, ou poetry.
  • Documentation automatique : les docstrings des fonctions deviennent des descriptions d’outils dans MCP.

Des projets comme MCP GitHub (non officiel) ou Puppeteer-MCP montrent déjà comment étendre les capacités des LLMs avec des outils open-source.

Comparaison avec d’autres solutions

SolutionAvantagesLimites
MCP + FastMCP
  • Standard ouvert (Anthropic).
  • Découverte dynamique des outils.
  • Intégration native avec Gemini CLI.
  • Écosystème jeune (peu de serveurs MCP publics).
  • Configuration initiale requise.
Plugins ChatGPT
  • Large catalogue existant.
  • Interface utilisateur intégrée.
  • Propriétaire (OpenAI).
  • Installation manuelle des plugins.
APIs REST personnalisées
  • Flexibilité totale.
  • Maturité des outils (Swagger, Postman).
  • Pas de découverte automatique.
  • Intégration moins fluide avec les LLMs.

Perspectives : vers une collaboration agent-humain augmentée

Cette intégration s’inscrit dans une tendance plus large : l’automatisation des tâches répétitives par des agents IA capables d’interagir avec des systèmes externes. À terme, les développeurs pourraient :

  • Déployer des agents spécialisés (ex: un « DevOps Agent » gérant CI/CD via MCP).
  • Combiner plusieurs LLMs via MCP pour des workflows hybrides (ex: Gemini pour le code, Claude pour la documentation).
  • Utiliser des invites chainées : une commande slash pourrait déclencher une séquence d’outils (ex: /deploy → build → test → push).

Jeremiah Lowin évoque un futur où les développeurs ne écrivent plus de scripts d’automatisation, mais décrivent des objectifs à des agents qui composent dynamiquement des outils MCP pour les atteindre.


Pour aller plus loin :

  • Documentation officielle : Gemini CLI | FastMCP
  • Tutoriel de démarrage : fastmcp create-template génère un squelette de serveur MCP.
  • Communauté : canal #mcp sur le Discord Anthropic.

Sur le même Thème :