Groq lève 620 M€ pour mieux concurrencer Nvidia

·

·

Groq s’attaque à Nvidia avec 10x de vitesse et 90 % d’économie d’énergie
Résumer cet article avec :

Avec une levée de fonds de 633 millions d’euros en poche et une valorisation multipliée par deux en un an, Groq s’impose comme le challenger le plus sérieux face à Nvidia sur le marché des puces dédiées à l’inférence d’IA. Alors que les géants du cloud et les entreprises du Fortune 500 cherchent à réduire leurs coûts énergétiques, la technologie LPU de l’entreprise américaine promet des performances dix fois supérieures aux GPU traditionnels, sans surcoût d’infrastructure. Une promesse qui séduit déjà plus de deux millions de développeurs.


À retenir

  • 633 millions d’euros levés le 17 septembre 2025, portant la valorisation de Groq à 5,8 milliards d’euros (contre 2,4 milliards en 2024).
  • Technologie LPU : des puces conçues pour l’inférence IA, revendiquant 10 fois plus d’efficacité énergétique que les GPU pour certains modèles.
  • 2 millions de développeurs utilisateurs, contre 356 000 il y a un an, avec des clients comme Meta et Bell Canada.
  • 500 millions d’euros de revenus projetés en 2025 (contre 76 millions en 2024), soutenus par un contrat de 1,2 milliard d’euros avec l’Arabie Saoudite.
  • GroqRack : une solution clé en main pour les centres de données, sans besoin de refroidissement liquide.

Une levée de fonds stratégique pour accélérer l’adoption des LPU

L’inférence IA – cette phase où un modèle déjà entraîné génère des prédictions ou des réponses – représente aujourd’hui 80 % des coûts computationnels des entreprises déployant des solutions d’intelligence artificielle. Pourtant, la majorité des infrastructures reposent encore sur des GPU conçus à l’origine pour le gaming ou l’entraînement de modèles. Groq, fondé en 2016 par Jonathan Ross (ex‑responsable du TPU chez Google), mise sur une approche radicalement différente : des puces LPU (Language Processing Units) optimisées pour l’exécution ultra‑rapide et sobre en énergie. Avec une levée de fonds record et une croissance fulgurante, l’entreprise s’attache désormais à démocratiser une alternative aux solutions dominantes de Nvidia, tout en répondant à une demande mondiale en explosion.

Pour les entreprises européennes, l’enjeu est double : réduire la facture énergétique des déploiements IA, tout en limitant la dépendance aux acteurs historiques.

Des investisseurs lourds et une valorisation multipliée par deux

Le tour de table de 633 millions d’euros, bouclé le 17 septembre 2025, a été mené par Disruptive, un fonds texan spécialisé dans les infrastructures technologiques, qui a injecté à lui seul 295 millions d’euros. Parmi les nouveaux entrants figurent des géants comme BlackRock, Neuberger Berman, ou encore Deutsche Telekom Capital Partners, tandis que des investisseurs historiques – Samsung, Cisco, ou Altimeter – ont renforcé leur participation. Cette opération porte la valorisation de Groq à 5,8 milliards d’euros, contre 2,4 milliards lors de sa précédente levée en août 2024.

« L’inférence est en train de définir cette ère de l’IA, et nous construisons l’infrastructure américaine qui la fournit à grande vitesse et à faible coût », a déclaré Jonathan Ross, fondateur et PDG de l’entreprise.

Le montant total levé par Groq depuis sa création dépasse désormais 2,5 milliards d’euros. Une manne financière qui arrive à point nommé : selon les projections internes, les revenus de l’entreprise devraient atteindre 500 millions d’euros en 2025 (contre 76 millions en 2024), portés par un contrat de 1,2 milliard d’euros avec l’Arabie Saoudite. Ce partenariat, annoncé en 2024, devrait générer à lui seul 420 millions d’euros de revenus cette année, soit 84 % du chiffre d’affaires projeté.

Une croissance portée par l’explosion de la demande en inférence

En un an, la base d’utilisateurs de Groq est passée de 356 000 à plus de 2 millions de développeurs, dont une partie significative issue d’entreprises du Fortune 500. Cette adoption massive s’explique par deux facteurs clés : la vitesse d’exécution et le coût réduit par rapport aux solutions GPU. Selon les benchmarks internes de l’entreprise, ses puces LPU permettraient d’exécuter des modèles comme Llama 4 (de Meta) ou Gemma (de Google) avec une latence divisée par dix et une consommation énergétique inférieure de 90 % pour certaines charges de travail.

Cette performance a séduit des acteurs majeurs comme Bell Canada, qui a signé en mai 2025 un accord exclusif pour déployer l’infrastructure Groq dans ses réseaux télécoms, ou Meta, qui collabore depuis avril 2025 avec l’entreprise pour accélérer l’inférence de son modèle Llama 4.

Groq s’attaque à Nvidia avec 10x de vitesse et 90 % d’économie d’énergie
Groq s’attaque à Nvidia avec 10x de vitesse et 90 % d’économie d’énergie

Des LPU conçues pour dépasser les limites des GPU

Contrairement aux GPU, conçus pour des calculs massivement parallèles (comme l’entraînement de modèles), les LPU de Groq sont spécialisées dans le traitement séquentiel et parallèle des requêtes IA. Leur architecture élimine la surcharge de coordination entre les cœurs du processeur, un goulot d’étranglement courant dans les systèmes traditionnels. Résultat : une sortie de tokens (les unités de base des modèles de langage) jusqu’à dix fois plus rapide que sur des GPU comme les Nvidia H100, selon les tests internes de l’entreprise.

Autre avantage clé : la compression des modèles via RealScale, une technique de quantification avancée qui réduit la taille des réseaux neuronaux sans perte de précision. Cela permet aux LPU de gérer des modèles comptant jusqu’à 1 000 milliards de paramètres – une échelle comparable aux systèmes les plus avancés de Google ou OpenAI – tout en limitant les besoins en mémoire et en énergie. Groq revendique ainsi un coût par token inférieur de 70 % à celui des solutions concurrentes pour des modèles open‑source comme Llama 4 ou Mistral.

Des solutions cloud et on‑premise pour s’adapter aux besoins

Groq propose deux formats principaux :

  • GroqCloud : une plateforme accessible via API, permettant aux développeurs de déployer des modèles sans gérer d’infrastructure physique.
  • GroqRack : un système modulaire composé de neuf serveurs, chacun équipé de plusieurs LPU, conçu pour une intégration simplifiée dans les centres de données existants.

Contrairement aux racks de GPU, qui nécessitent souvent un refroidissement liquide et des mises à niveau électriques coûteuses, le GroqRack peut être installé sans modification majeure des infrastructures, selon l’entreprise. Cette dualité cloud/on‑premise répond à deux enjeux critiques pour les entreprises européennes : la souveraineté des données (avec des centres de données locaux en Finlande et en Allemagne) et la réduction de l’empreinte carbone des déploiements IA.

Un marché de l’inférence en ébullition, mais des défis persistants

Le succès de Groq s’inscrit dans un contexte de demande exponentielle pour l’inférence IA. Selon les estimations du secteur, ce marché pourrait atteindre 400 milliards d’euros par an d’ici 2030, tiré par l’adoption massive des modèles génératifs dans les entreprises. Face à cette opportunité, les concurrents se multiplient : Nvidia a annoncé en 2025 une nouvelle gamme de puces dédiées à l’inférence (GH200), tandis que des startups comme Rivos (qui lève 420 millions d’euros à une valorisation de 1,7 milliard) ou Cerebras misent aussi sur des architectures alternatives.

Cependant, Groq bénéficie d’un avantage structurel : son expertise historique dans l’optimisation des modèles séquentiels, un point faible des GPU traditionnels. Les problèmes de production de tokens séquentiels dans l’IA générative nécessitent des puces capables de gérer à la fois des composants parallèles et séquentiels. C’est là que notre technologie excelle, explique un porte‑parole de l’entreprise. Un atout qui lui a permis de signer des partenariats stratégiques, comme celui avec Meta pour accélérer Llama 4, ou avec Deutsche Telekom pour des applications télécoms.

Des obstacles logistiques et géopolitiques

Malgré ses atouts technologiques, Groq doit relever trois défis majeurs :

  1. La production à grande échelle : contrairement à Nvidia, qui s’appuie sur TSMC pour fabriquer ses puces, Groq dépend de fonderies moins expérimentées dans les nœuds avancés. Un risque potentiel de retards de livraison si la demande continue de croître aussi vite.
  2. La guerre des talents : l’entreprise, basée en Californie, doit attirer des ingénieurs spécialisés dans un marché où Nvidia, Google et Microsoft captent une grande partie des experts en hardware IA.
  3. Les tensions géopolitiques : bien que Groq soit positionné comme un acteur clé de l’American AI Stack (un écosystème soutenu par la Maison Blanche), ses contrats internationaux – comme celui avec l’Arabie Saoudite – pourraient soulever des questions sur l’exportation de technologies sensibles.

Enfin, la question de la compatibilité avec les modèles propriétaires (comme ceux d’OpenAI ou Anthropic) reste un point d’interrogation. Pour l’instant, Groq se concentre sur les modèles open‑source (Llama, Gemma, Mistral), mais une extension à des systèmes fermés serait nécessaire pour séduire davantage d’entreprises.

620 M€ de financement booste Groq pour concurrencer Nvidia
620 M€ de financement pour Groq afin de concurrencer Nvidia

Vers une démocratisation de l’inférence sobre ?

Pour les entreprises françaises et européennes, les solutions de Groq présentent deux avantages clés :

  • La réduction des coûts énergétiques : avec une consommation divisée par dix sur certains cas d’usage, les LPU pourraient permettre aux data centers européens de limiter leur empreinte carbone, un enjeu critique dans un contexte de régulation stricte (comme le Green Deal ou la taxonomie verte de l’UE).
  • L’indépendance technologique : en proposant une alternative aux GPU de Nvidia (qui représentent aujourd’hui 95 % du marché), Groq offre une voie pour diversifier les fournisseurs et réduire les risques de dépendance.

En France, des acteurs comme OVHcloud ou Scaleway pourraient tirer parti de ces solutions pour proposer des offres d’IA sovereign plus compétitives. Groq a d’ailleurs annoncé des discussions avec des hébergeurs européens pour déployer des GroqRack dans des data centers locaux d’ici 2026.

Les limites d’une technologie encore jeune

L’écosystème logiciel : contrairement aux GPU Nvidia, qui bénéficient de bibliothèques optimisées comme CUDA, les LPU nécessitent des adaptations spécifiques des modèles. Groq a développé son propre compilateur, mais son adoption reste limitée aux développeurs familiers avec son environnement.

Le manque de benchmarks indépendants : les performances annoncées par Groq (10× plus rapide, 90 % moins énergivore) reposent sur des tests internes. En l’absence de comparatifs neutres, comme ceux réalisés par MLPerf, certains experts appellent à la prudence. Les gains varient énormément selon les modèles et les cas d’usage. Il faut attendre des évaluations tierces pour y voir plus clair, tempère un chercheur du CNRS spécialisé en hardware IA.

Reste que la dynamique est lancée. Avec une croissance annuelle de 500 % et des partenariats stratégiques en Europe et au Moyen‑Orient, Groq pourrait bien devenir le premier vrai contrepoids à Nvidia sur le marché de l’inférence. Pour les entreprises, le message est clair : l’ère des GPU tout‑puissants touche à sa fin. Place désormais à une diversification des architectures, où vitesse, sobriété et souveraineté deviennent les nouveaux critères de choix.


Sur le même Thème :