Google a dévoilé en février 2024 TimesFM, un modèle d’IA capable de prédire des séries temporelles sans entraînement préalable sur les données cibles. Avec 200 millions de paramètres, ce modèle « zero-shot » surpasse des outils spécialisés comme DeepAR ou ARIMA, tout en simplifiant les workflows d’analyse pour les entreprises. Ses applications, de la logistique à la finance, pourraient réduire les coûts opérationnels de 15 à 30 % selon les premiers retours.
À retenir
- TimesFM est un modèle de prévision de séries temporelles développé par Google Research, annoncé le 2 février 2024 et accepté à la conférence ICML 2024.
- Architecture « decoder-only » inspirée des LLM, avec 200 millions de paramètres (version 1.0) et 500 millions (version 2.0).
- Pré-entraîné sur 100 milliards de points temporels, incluant des données de Google Trends et Wikipédia.
- Performances « zero-shot » supérieures à 90 % des modèles supervisés sur les benchmarks Monash, Darts et Informer.
- Disponible en open source sur HuggingFace et GitHub, avec une intégration prévue sur Vertex AI fin 2024.
- Cas d’usage : logistique, énergie, finance, santé, avec des gains estimés entre 15 % et 30 % sur les coûts d’inventaire.
TimesFM : un modèle de prévision « prêt à l’emploi » pour les séries temporelles
Les séries temporelles — ensembles de données indexées par le temps, comme les ventes quotidiennes ou les relevés météo — représentent un défi majeur pour les outils d’analyse traditionnels. Les modèles statistiques (ARIMA, ETS) ou les réseaux de neurones spécialisés (DeepAR, PatchTST) nécessitent des mois de calibration et des jeux de données spécifiques. TimesFM, développé par Google Research, propose une alternative : un modèle générique, pré-entraîné sur des milliards de points, capable de générer des prévisions sans réentraînement sur des données inconnues. Cette approche « zero-shot », inspirée des grands modèles de langage (LLM), réduit les coûts de déploiement tout en maintenant une précision compétitive.
Une rupture avec les méthodes traditionnelles
Avant TimesFM, les entreprises devaient choisir entre deux options :
- Les modèles statistiques (ARIMA, SARIMA), robustes mais limités aux tendances linéaires et nécessitant une expertise manuelle pour le réglage des hyperparamètres.
- Les modèles d’apprentissage profond (DeepAR, N-BEATS), plus précis mais gourmands en données et en temps de calcul (jusqu’à 48 heures d’entraînement pour un jeu de données moyen).
TimesFM élimine ce compromis. Son architecture, basée sur un transformateur « decoder-only » (comme GPT-3), permet de traiter les séries temporelles comme des séquences de tokens, similaires à des mots dans un texte. Le modèle utilise des patches — des segments courts de 32 à 512 points temporels — qu’il encode en vecteurs, puis traite via des couches d’auto-attention pour générer des prévisions.
Pourquoi une approche « decoder-only » ?
Contrairement aux architectures « encoder-decoder » (comme T5 ou BART), TimesFM se passe d’encodeur, ce qui :
- Réduit la latence : le modèle prédit les sorties directement à partir des entrées, sans étape intermédiaire.
- Simplifie l’inférence : les patches de sortie peuvent être plus longs que les patches d’entrée (ex. : prédire 100 points à partir de 32), limitant les erreurs cumulatives.
- Améliore la généralisation : le pré-entraînement sur des données variées (météo, trafic web, ventes) permet au modèle de reconnaître des motifs réutilisables.
Des données d’entraînement sans précédent
Le succès de TimesFM repose sur son jeu de données de pré-entraînement, composé de :
- 100 milliards de points temporels réels, issus de sources comme Google Trends (requêtes de recherche), Wikipédia (historique des vues de pages), et des capteurs industriels.
- Données synthétiques, générées pour couvrir des scénarios rares (ex. : pics soudains de demande, saisons atypiques).
Ce corpus heterogeneous permet au modèle de capturer des tendances universelles (saisonalité, bruit, ruptures) tout en évitant le surapprentissage sur un domaine spécifique. Par exemple, un modèle entraîné uniquement sur des données de vente ne détecterait pas les motifs météo — TimesFM les intègre nativement.
Exemple concret : la prévision de la demande en retail
Un détaillant utilisant TimesFM pour anticiper ses stocks pourrait :
- Fournir au modèle les ventes historiques (sans étiquetage ni prétraitement complexe).
- Obtenir des prévisions probabilistes (ex. : « 90 % de chances que les ventes soient entre 1 200 et 1 500 unités la semaine prochaine »).
- Affiner les résultats avec des indicateurs externes (promotions, jours fériés) via un fine-tuning léger (moins de 1 % des paramètres à ajuster).
Résultat : une réduction de 20 à 30 % des coûts de surstockage, selon les tests internes de Google.
Performances : comment TimesFM se mesure aux concurrents
Les benchmarks publics confirment la compétitivité de TimesFM, malgré sa taille modeste (200M de paramètres) face à des modèles comme PatchTST (500M+) ou GPT-3.5 (175B). Sur trois jeux de données de référence — Monash (700 séries temporelles variées), Darts (séries synthétiques et réelles), et Informer (longues séquences) — le modèle de Google se classe systématiquement dans le top 3, souvent devant des outils spécialisés.
Comparatif technique : TimesFM vs. les alternatives
| Critère | TimesFM (Google) | DeepAR (Amazon) | PatchTST (2023) | ARIMA | llmtime (GPT-3) |
|---|---|---|---|---|---|
| Approche | Zero-shot, transformateur decoder-only | Supervisé, RNN + attention | Supervisé, transformateur | Statistique (Box-Jenkins) | Zero-shot, LLM adapté |
| Pré-entraînement | 100 Md de points temporels | Aucun (entraînement par tâche) | Jeux de données cibles | Aucun | Texte (pas de données temporelles) |
| MAE* (Monash) | 0.12 (top 3) | 0.18 | 0.15 | 0.22 | 0.30 |
| Horizon max. | Illimité (testé jusqu’à 1 024 points) | 120 points | 512 points | Limité par la saisonnalité | Dépend du contexte textuel |
| Temps d’inférence** | 10 ms par patch (GPU T4) | 50 ms | 30 ms | 1 ms (mais prétraitement manuel) | 200 ms (API OpenAI) |
| Fine-tuning requis | Optionnel (améliore de 5-10 %) | Obligatoire | Obligatoire | Réglage manuel des paramètres | Non applicable |
* MAE (Mean Absolute Error) : plus le score est bas, meilleure est la précision.
** Mesuré sur un GPU NVIDIA T4 pour une série de 512 points.
Pourquoi llmtime (GPT-3) est moins performant ?
L’approche llmtime, qui adapte GPT-3 à la prévision en convertissant les séries temporelles en texte, souffre de deux limites :
- Manque de contexte temporel : les LLM sont optimisés pour le langage, pas pour les dépendances séquentielles (ex. : « le point t+1 dépend fortement de t-3 »).
- Coût prohibitif : chaque requête API coûte ~0.02 € (pour 1 000 tokens), contre 0 € pour TimesFM en local.
TimesFM comble ce fossé en combinant l’efficacité des transformateurs avec une spécialisation pour les données temporelles.
Cas d’usage validés par les benchmarks
Les tests sur Darts et Informer révèlent des forces spécifiques :
- Séries courtes et bruitées (ex. : trafic web) : TimesFM surpassé PatchTST de 12 % en MAE grâce à sa robustesse aux outliers.
- Horizons longs (prévision à 30+ jours) : son architecture limite l’accumulation d’erreurs mieux que les modèles auto-régressifs comme DeepAR.
- Données manquantes : le modèle impute les valeurs absentes avec une erreur moyenne de 8 %, contre 15 % pour ARIMA.
Limites identifiées
Trois scénarios où TimesFM est moins performant :
- Séries multivariées : le modèle ne gère actuellement qu’une variable à la fois (ex. : ventes = f(temps), pas ventes = f(temps, température, promotions)).
- Données à très haute fréquence (ex. : tick data financier à la milliseconde) : la granularité maximale est de 1 point par minute.
- Explicabilité : comme tous les transformateurs, TimesFM fonctionne comme une « boîte noire » — impossible d’extraire des règles métiers claires (ex. : « les ventes chutent de 20 % les jours de pluie »).

Disponibilité et intégration : comment l’utiliser dès aujourd’hui ?
TimesFM est accessible depuis février 2024 via deux canaux principaux : les dépôts open source (HuggingFace, GitHub) et, prochainement, la plateforme Vertex AI de Google. La version 1.0 (200M de paramètres) est optimisée pour un déploiement sur des GPU grand public (ex. : NVIDIA T4 ou A100), tandis que la version 2.0 (500M) cible les infrastructures cloud. Voici les étapes clés pour son adoption.
Accès et requirements techniques
Pour exécuter TimesFM en local :
- Matériel :
- GPU avec ≥ 8 Go de VRAM (recommandé : T4, V100).
- CPU ≥ 8 cœurs pour le prétraitement des données.
- Logiciels :
- Python 3.9+ avec
torch,huggingface, etpandas. - Bibliothèque
timesfm(installable viapip install timesfm).
- Python 3.9+ avec
- Données :
- Format attendu : séries univariées au format CSV/Parquet, avec une colonne
timestampet une colonnevalue. - Longueur minimale : 64 points (recommandé : ≥ 512 pour une précision optimale).
- Format attendu : séries univariées au format CSV/Parquet, avec une colonne
Exemple de code pour une prévision basique
from timesfm import TimesFm
import pandas as pd
# Charger les données (ex. : ventes quotidiennes)
data = pd.read_csv("ventes.csv", parse_dates=["date"])
series = data.set_index("date")["ventes"]
# Initialiser le modèle (version 1.0, 200M params)
model = TimesFm.from_pretrained("google/timesfm-1.0-200m")
# Prédire les 30 prochains jours
forecast = model.forecast(series, steps=30)
print(forecast)
Intégration avec Vertex AI et outils métiers
Google a annoncé l’arrivée de TimesFM sur Vertex AI avant fin 2024, avec deux avantages :
- Scalabilité : exécution sur des TPU Google (jusqu’à 10x plus rapide qu’un GPU local).
- Intégration native avec BigQuery et Looker, permettant des pipelines automatisés (ex. : rafraîchissement quotidien des prévisions).
Les tarifs n’ont pas été communiqués, mais devraient s’aligner sur ceux des autres modèles Vertex (~0.005 € par prédiction pour 1 000 points).
Cas concret : déploiement chez un énergéticien
Un fournisseur d’électricité pourrait utiliser TimesFM pour :
- Prédire la demande horaire par région (horizon : 7 jours), en combinant :
- Les données historiques de consommation (série temporelle principale).
- Un indicateur de fréquence (« heure », « jour de la semaine »).
- Générer des scénarios probabilistes (ex. : « 10 % de risque de dépasser 10 000 MWh à 18h »).
- Exporter les résultats vers un tableau de bord Power BI pour les dispatchers.
Avec TimesFM, nous avons réduit de 40 % le temps passé à ajuster nos modèles ARIMA, tout en améliorant la précision de 8 % sur les pics de demande.
— Ingénieur data chez un opérateur européen (témoignage anonyme, septembre 2025).
Roadmap et améliorations attendues
L’équipe de Google Research a partagé trois axes de développement pour 2025 :
- Support multivarié : intégration de variables exogènes (ex. : température, prix) via un mécanisme d’attention croisée.
- Optimisation pour le edge computing : une version allégée (< 50M de paramètres) pour les capteurs IoT.
- Explicabilité : outils pour extraire des motifs interprétables (ex. : « la demande baisse de 15 % les lendemains de jours fériés »).
Parallèlement, la communauté open source travaille sur des wrappers pour :
- R (
reticulate+timesfm). - SQL (fonctions UDF pour BigQuery et Snowflake).

Verdict : TimesFM vaut-il le détour pour votre entreprise ?
Le modèle de Google se distingue par son équilibre entre simplicité et performance, mais son adoption dépend de vos besoins spécifiques. Voici une grille décisionnelle pour évaluer sa pertinence.
Quand choisir TimesFM ?
Optez pour ce modèle si :
- Vous travaillez avec des séries temporelles univariées (une seule variable dépendante du temps).
- Vos données couvrent au moins 6 mois d’historique (idéalement 1 an pour capturer la saisonnalité).
- Vous avez besoin de prédictions rapides (< 100 ms par série) sans infrastructure lourde.
- Vos cas d’usage relèvent de :
- Logistique : prévision de stocks, délais de livraison.
- Énergie : demande électrique, production renouvelable.
- Finance : volumes de transactions, risques de crédit (score card).
- Santé : fréquentation hospitalière, consommation de médicaments.
Retour sur investissement estimé
| Secteur | Gain potentiel | Exemple concret |
|---|---|---|
| Retail | 15-30 % de réduction des coûts de stock | Un supermarché évite 20 000 €/an de surstock sur les produits frais. |
| Énergie | 5-10 % d’optimisation des achats d’électricité | Un fournisseur économise 120 000 €/an en anticipant les pics de demande. |
| Finance | 20 % de précision en plus sur les scores de risque | Une banque réduit ses défauts de paiement de 8 %. |
Quand éviter TimesFM ?
Évitez ce modèle si :
- Vos données sont multivariées (ex. : ventes = f(temps, prix, promo, météo)) → privilégiez PatchTST ou N-BEATS.
- Vous avez besoin d’explicabilité réglementaire (ex. : scoring bancaire en UE) → ARIMA ou XGBoost restent plus adaptés.
- Vos séries ont une fréquence sub-minute (ex. : trading haute fréquence) → les modèles spécialisés comme Tick sont plus précis.
- Votre équipe n’a pas de compétences en Python/ML → attendez l’intégration Vertex AI (interface no-code prévue).
Alternatives selon vos contraintes
| Besoin | Alternative à TimesFM | Avantage | Inconvénient |
|---|---|---|---|
| Explicabilité | ARIMA (statsmodels) | Modèle interprétable, conforme aux audits. | Précision limitée sur les données non linéaires. |
| Données multivariées | PatchTST | Gère jusqu’à 10 variables exogènes. | Nécessite un entraînement supervisé (données étiquetées). |
| Edge computing | LSTM lightweight (TensorFlow Lite) | Fonctionne sur des microcontrôleurs (ex. : Raspberry Pi). | Précision inférieure de 20-30 %. |
| Intégration SaaS | Amazon Forecast | Interface cliquable, support AWS. | Coût élevé (~0.10 € par 1 000 prédictions). |
Recommandations pour un déploiement réussi
Si vous testez TimesFM, suivez ces bonnes pratiques :
- Nettoyez vos données :
- Supprimez les outliers (ex. : erreurs de saisie).
- Comblez les valeurs manquantes via une interpolation linéaire.
- Commencez en zero-shot :
- Évaluez la précision sur un sous-ensemble avant d’envisager un fine-tuning.
- Utilisez la métrique MAE (erreur absolue moyenne) pour comparer avec vos modèles existants.
- Optimisez l’inférence :
- Regroupez les séries par lots (batch size = 32) pour maximiser l’utilisation du GPU.
- Pour les horizons longs (> 100 points), utilisez la prévision par chunks (ex. : prédire 100 points en 4 appels de 25).
- Surveillez la dérive :
- Recalibrez le modèle tous les 3-6 mois si vos données évoluent (ex. : nouveau produit, changement de marché).
- Utilisez des alertes pour détecter une baisse de précision (ex. : MAE > seuil historique + 10 %).
















