Nvidia rachète Groq pour 20 milliards

·

·

Cadre dirigeant serrant la main dans une salle de réunion vitrée surplombant une ville nocturne, avec hologrammes de puces IA symbolisant le rachat de Groq par Nvidia pour l’inférence en temps réel.
Résumer cet article avec :

Le 24 décembre, alors que les feux de la ville s’allumaient dans une effervescence cosmopolite, Nvidia a annoncé le rachat des actifs de la startup Groq pour 20 milliards de dollars, un montant plus de trois fois supérieur à celui de l’acquisition de Mellanox en 2019. Cette transaction, décrite comme un « acqui‑hire » assorti d’une licence perpétuelle non exclusive, devient la plus importante de l’histoire du géant des semi‑conducteurs. Le prix, équivalent à près de 18 milliards d’euros, préfigure un nouveau rapport de force sur le marché stratégique de l’inférence en temps réel.


À retenir

  • Nvidia a acquis les actifs de Groq pour 20 milliards de dollars via un montage licence + acqui‑hire.
  • La technologie LPU de Groq offre jusqu’à 10× plus de performance que les GPU Blackwell, avec 300–750 tokens/s.
  • L’opération place Nvidia en position dominante sur un marché d’inférence évalué à 255 milliards de dollars en 2030.
  • La structure de la transaction permet à GroqCloud de rester indépendant, limitant les risques de contrôle antitrust américain.
  • Le projet Vera Rubin, prévu pour 2026, intégrera les LPUs afin de diffuser la faible latence dans les LLM.
  • Simon Edwards, ancien CFO de Groq, dirigera le cloud de l’ancienne start‑up tout en restant sous la gouvernance de Nvidia.

Cette acquisition intervient alors que le marché de l’inférence dépasse désormais celui de l’entraînement, et que les acteurs capables de maîtriser la latence ultra‑faible deviennent centraux dans la diffusion de l’IA. Pour les entreprises, les gouvernements et les laboratoires de recherche, la promesse d’une puissance de calcul plus rapide et moins énergivore se transforme en enjeu industriel et politique. Combinée à la montée en puissance des Large Language Models (LLM), l’opération marque un tournant pour la souveraineté, le coût et l’efficacité des systèmes d’intelligence artificielle.

Le deal record et ses modalités

L’achat de Groq a été conclu en moins de trois mois après une levée de 750 millions de dollars en septembre 2025, à une valorisation de 6,9 milliards. Plutôt qu’une fusion complète, Nvidia a opté pour un accord de licence non exclusive sur la propriété intellectuelle de la LPU, combiné à un « acqui‑hire » de ses ingénieurs clés. Jonathan Ross, co‑créateur du TPU de Google, ainsi que Sunny Madra, président de Groq, rejoignent désormais l’équipe exécutive de Nvidia, tandis que leur noyau d’ingénierie pilotera une nouvelle division dédiée à l’inférence en temps réel.

Réunion d’affaires dans une salle vitrée à La Défense avec dirigeants signant un accord de licence et d’acqui-hire autour de schémas de puces IA, illustrant le deal record entre Nvidia et Groq.
La mise en place d’un montage combinant licence non exclusive et acqui‑hire structure le deal record entre Nvidia et Groq.

Ce montage juridique permet à GroqCloud de conserver une certaine indépendance, en continuant à exploiter les contrats existants, notamment celui de 1,5 milliard de dollars signé avec l’Arabie saoudite. Les actifs cloud et les contrats gouvernementaux sont exclus de la transaction principale, ce qui garantit la continuité opérationnelle de la start‑up tout en évitant un examen approfondi au titre de la loi Hart‑Scott‑Rodino. L’écosystème de deux millions de développeurs utilisant GroqCloud devient un levier majeur pour Nvidia face aux puces maison des hyperscalers, comme Amazon Trainium ou Microsoft Maia.

La LPU, la nouvelle ère de l’inférence

Architecture et performance

La LPU (Language Processing Unit) de Groq repose sur une mémoire SRAM déterministe, une configuration qui supprime le « memory wall » typique des GPU. Contrairement aux puces de Nvidia basées sur la mémoire HBM3e, plus exposée à la latence, la LPU offre une bande passante interne de 80 To/s contre 8 To/s pour les GPU classiques. Dans les usages concrets, cette architecture se traduit par des performances de 300 à 750 tokens par seconde, quand les configurations Blackwell dépassent rarement les 100 tokens par seconde.

Ingénieur dans un data center en France installant une carte accélératrice de type LPU dans une baie de serveurs illuminée de LED vertes et bleues, représentant la nouvelle ère de l’inférence IA.
L’intégration des LPUs de Groq dans l’architecture Vera Rubin de Nvidia ouvre une nouvelle ère pour l’inférence IA à faible latence.

Intégration dans Vera Rubin

Nvidia prévoit d’intégrer la LPU dans sa prochaine architecture « Vera Rubin », annoncée pour 2026. Cette convergence de technologies devrait permettre aux LLM de bénéficier d’une latence ultra‑faible, en réduisant le coût énergétique de l’inférence d’un facteur 10. Concrètement, elle ouvre la voie à des agents IA autonomes capables de réagir quasi instantanément dans des applications critiques, de la santé aux jeux vidéo, en passant par la défense et les systèmes industriels.

Les enjeux stratégiques et la régulation

Domination du marché de l’inférence

L’acquisition de Groq place Nvidia en position de force sur un marché de l’inférence estimé à 255 milliards de dollars d’ici 2030. Le prix de 20 milliards de dollars se justifie par l’avantage technologique de la LPU et par la sécurisation de ressources clés : talents et développeurs. Le mouvement répond aussi à la demande croissante de solutions d’IA dites « souveraines », notamment au sein des gouvernements européens et du Golfe, à la recherche de chaînes d’approvisionnement maîtrisées.

Réponse aux obstacles antitrust

Pour éviter les blocages que la FTC et le DOJ avaient opposés au projet de rachat d’ARM, Nvidia a conçu un accord de licence « non exclusive » assorti d’un transfert ciblé de personnel. Cette stratégie, combinée à la poursuite de GroqCloud sous la direction de Simon Edwards, limite l’exposition réglementaire en laissant la start‑up officiellement indépendante. Elle soulève toutefois des interrogations sur la transparence des flux de données et la réalité de la souveraineté technologique, dans un contexte où une seule entreprise contrôle la propriété intellectuelle clé.

Le point de vue critique

Certains analystes considèrent la transaction comme un signe d’« influence excessive » de Nvidia sur le marché de l’inférence, avec un risque de consolidation supplémentaire dans un secteur déjà concentré. D’autres estiment au contraire que le modèle acqui‑hire, associé à une licence non exclusive, peut préserver l’innovation en laissant la porte ouverte à d’autres implémentations de LPU. Le débat reste ouvert sur l’impact à long terme pour l’accès à l’IA, notamment si cette technologie devient un standard de fait dans les grands clouds publics.

Dans un secteur où la vitesse de traitement et l’efficacité énergétique conditionnent les usages, l’alliance entre la LPU de Groq et l’architecture Vera Rubin de Nvidia pourrait redéfinir l’inférence à grande échelle. Pour les fournisseurs de cloud, les chercheurs et les décideurs publics, cette acquisition ouvre de nouvelles marges de manœuvre, tout en posant de front la question de la concentration du pouvoir technologique au sommet de la chaîne de valeur de l’IA.


Sur le même Thème :

Laisser un commentaire