Gemini CLI et FastMCP s’allient pour simplifier le développement des serveurs MCP, un protocole clé pour les agents d’IA. Annoncée le 22 septembre 2025, cette intégration permet aux développeurs de connecter leurs outils personnalisés directement à l’interface en ligne de commande de Google. Une avancée qui réduit les frictions techniques et ouvre de nouvelles possibilités pour les workflows automatisés.
À retenir
- L’intégration entre Gemini CLI et FastMCP est effective depuis le 22 septembre 2025, visant à simplifier la création de serveurs Model Context Protocol (MCP) en Python.
- FastMCP utilise des décorateurs et annotations de type pour rendre le développement plus intuitif, tandis que Gemini CLI exécute des actions via des commandes slash (ex:
/promptname).- Les serveurs MCP permettent aux LLMs d’accéder à des outils externes (API, bases de données, Git), des ressources statiques/dynamiques et des invites réutilisables.
- La configuration se fait via
fastmcp install gemini-cli server.py, avec une gestion automatique des dépendances et des connexions STDIO ou HTTP.- Des cas d’usage incluent l’analyse de code, la gestion de projets full-stack et la collaboration entre agents IA (protocole A2A).
Cette collaboration entre Google et les mainteneurs de FastMCP arrive à un moment où les développeurs cherchent à industrialiser l’intégration des grands modèles de langage (LLMs) dans des workflows concrets. Le Model Context Protocol (MCP), initié par Anthropic, agit comme une couche standardisée pour connecter les agents IA à des ressources externes – outils, données ou invites. Jusqu’ici, sa mise en œuvre nécessitait une expertise technique poussée. Avec cette intégration, les développeurs Python peuvent désormais déployer un serveur MCP fonctionnel en quelques commandes, sans gérer les complexités du protocole sous-jacent. L’enjeu est double : démocratiser l’accès aux capacités avancées des LLMs et accélérer le développement d’applications full-stack où l’IA interagit avec des systèmes existants (GitHub, Slack, bases de données).
Une intégration conçue pour les développeurs Python
FastMCP : un framework Pythonique pour les serveurs MCP
FastMCP est un framework open-source qui abstrait les détails techniques du protocole MCP, permettant aux développeurs de se concentrer sur la logique métier. Conçu autour de décorateurs Python (comme @tool ou @resource) et d’annotations de type, il rend la création d’outils et de ressources aussi simple que la définition de fonctions. Par exemple, un outil exposant une API externe se déclare en trois lignes :
from fastmcp import tool
@tool
def fetch_weather(city: str) -> dict:
"""Récupère la météo pour une ville donnée."""
return {"temp": 22, "unit": "celsius"}
Le framework gère automatiquement la conversion des endpoints en serveurs MCP compatibles, supportant les transports STDIO (pour un usage local) ou HTTP/JSON-RPC (pour des déploiements distants). Il s’appuie sur FastAPI en interne, ce qui permet une intégration fluide avec les écosystèmes Python existants.
Gemini CLI : un terminal étendu pour les workflows IA
Gemini CLI, l’interface en ligne de commande de Google, devient un hub central pour interagir avec les serveurs MCP. Après l’installation via npm install -g @google/gemini-cli@latest, les développeurs peuvent :
- Ajouter un serveur MCP en une commande :
fastmcp install gemini-cli server.py
Cette commande configure automatiquement le serveur dans le fichiersettings.jsonde Gemini CLI et enregistre les outils disponibles. - Utiliser des commandes slash pour déclencher des invites ou des outils :
/météo Parisappellerait l’outilfetch_weatherdéfini précédemment. - Gérer le contexte éphémère : les interactions durant une session sont conservées (historique des prompts, résultats d’outils), mais réinitialisées au redémarrage.
La découverte des outils se fait dynamiquement via le protocole MCP, avec une validation des schémas JSON pour garantir la compatibilité.

Exemple de workflow type
Un développeur pourrait :
- Créer un outil MCP pour interagir avec une base de données PostgreSQL via FastMCP.
- Lier ce serveur à Gemini CLI avec
fastmcp install. - Utiliser une commande slash comme
/db-query "SELECT * FROM users"directement dans le terminal. - Intégrer les résultats dans un script Python ou un pipeline CI/CD.
Compatibilité et prérequis techniques
Pour bénéficier de cette intégration, les développeurs doivent disposer de :
- FastMCP en version 2.12.3 ou supérieure (installable via
pip install fastmcpouuv pip install fastmcppour une installation optimisée). - Gemini CLI en dernière version, requiring Node.js 18+.
- Un environnement Python 3.9+ (recommandé : 3.11 pour les annotations de type avancées).
Les serveurs MCP peuvent être écrits en Python, tandis que les clients (comme Gemini CLI ou Claude Desktop) consomment ces services via des connexions STDIO, SSE (Server-Sent Events), ou HTTP streamable.
Des cas d’usage concrets pour les équipes techniques
Automatisation des tâches de développement
Les serveurs MCP permettent d’exposer des fonctionnalités de Gemini CLI à d’autres outils, comme :
- L’analyse de code : un serveur MCP pourrait wrapper les capacités de Gemini pour auditer automatiquement des pull requests GitHub, en détectant des vulnérabilités ou des anti-patterns.
- La génération d’applications : des invites MCP prêtes à l’emploi (ex:
/generate-react-component) pourraient accélérer le prototypage. - L’assistance Git : des commandes slash pour commiter avec des messages générés par IA (
/git-commit "Fix login bug") ou résoudre des conflits.
Des exemples open-source existent déjà pour des intégrations avec GitHub, Puppeteer (automatisation de navigateur), ou Google Maps (géocodage via MCP).
Collaboration entre agents IA et systèmes externes
Le protocole MCP facilite les interactions entre agents (via A2A, Agent-to-Agent Protocol) et systèmes tiers. Par exemple :
| Cas d’usage | Implémentation via MCP |
|---|---|
| Gestion de projets full-stack | Un serveur MCP pourrait lier :
|
| Automatisation DevOps | Des outils MCP pourraient :
|
| Assistance multimodale | Combiner :
|
Limites et considérations techniques
Malgré ses avantages, cette intégration présente des contraintes :
- Contexte éphémère : Gemini CLI ne conserve pas l’historique entre les sessions, ce qui limite les workflows longs. Les développeurs doivent implémenter leur propre couche de persistance si nécessaire.
- Latence réseau : Les serveurs MCP distants (via HTTP) introduisent un overhead par rapport aux outils locaux (STDIO).
- Sécurité : Les outils MCP exécutent du code arbitraire. Une validation stricte des entrées/sorties est recommandée pour éviter les injections (ex: SQL via un outil de base de données).
- Compatibilité : Certains outils nécessitent des adaptations pour fonctionner avec les schémas MCP (ex: conversion des types de données).
Jeremiah Lowin, créateur de FastMCP, souligne : L’objectif n’est pas de remplacer les APIs REST existantes, mais de fournir un protocole standardisé pour que les agents IA puissent découvrir et utiliser des outils de manière dynamique, sans configuration manuelle.

Une étape vers l’interopérabilité des agents IA
Le protocole MCP comme standard émergent
Initié par Anthropic, le Model Context Protocol se positionne comme une alternative aux solutions propriétaires pour connecter les LLMs à des ressources externes. Contrairement aux plugins (comme ceux de ChatGPT), MCP offre :
- Une découverte dynamique : les outils sont listés et validés à la volée, sans installation préalable.
- Une standardisation : les définitions d’outils suivent un schéma JSON commun, facilitant l’interopérabilité entre agents (ex: Gemini et Claude).
- Une extensibilité : les serveurs peuvent exposer des ressources statiques (fichiers), dynamiques (APIs), ou des invites paramétrables.
Jack Wotherspoon, défenseur des développeurs chez Google, compare MCP à la couche TCP/IP des agents IA : un protocole invisible mais essentiel pour que les systèmes communiquent.
FastMCP et l’écosystème Python
L’adoption de FastMCP pourrait accélérer la création de serveurs MCP en Python, un langage dominant dans les communautés data et backend. Ses atouts :
- Intégration avec FastAPI : réutilisation des routes existantes pour exposer des outils MCP.
- Typage statique : les annotations Python améliorent la fiabilité et l’IDE support (autocomplétion).
- Gestion des dépendances : compatible avec
pip,uv, oupoetry. - Documentation automatique : les docstrings des fonctions deviennent des descriptions d’outils dans MCP.
Des projets comme MCP GitHub (non officiel) ou Puppeteer-MCP montrent déjà comment étendre les capacités des LLMs avec des outils open-source.
Comparaison avec d’autres solutions
| Solution | Avantages | Limites |
|---|---|---|
| MCP + FastMCP |
|
|
| Plugins ChatGPT |
|
|
| APIs REST personnalisées |
|
|
Perspectives : vers une collaboration agent-humain augmentée
Cette intégration s’inscrit dans une tendance plus large : l’automatisation des tâches répétitives par des agents IA capables d’interagir avec des systèmes externes. À terme, les développeurs pourraient :
- Déployer des agents spécialisés (ex: un « DevOps Agent » gérant CI/CD via MCP).
- Combiner plusieurs LLMs via MCP pour des workflows hybrides (ex: Gemini pour le code, Claude pour la documentation).
- Utiliser des invites chainées : une commande slash pourrait déclencher une séquence d’outils (ex:
/deploy→ build → test → push).
Jeremiah Lowin évoque un futur où les développeurs ne écrivent plus de scripts d’automatisation, mais décrivent des objectifs à des agents qui composent dynamiquement des outils MCP pour les atteindre.
Pour aller plus loin :
- Documentation officielle : Gemini CLI | FastMCP
- Tutoriel de démarrage :
fastmcp create-templategénère un squelette de serveur MCP. - Communauté : canal #mcp sur le Discord Anthropic.
















