Tout savoir sur NVIDIA dans l’IA

En mars 2026, NVIDIA ne vend plus “juste” des GPU : l’entreprise de Jensen Huang impose une pile complète — puces, serveurs, interconnexions et logiciels — devenue le moteur de l’IA industrielle et de l’automatisation. Derrière les annonces récentes autour de Blackwell (B200/B300), des microservices NIM et des jumeaux numériques Omniverse, une même promesse se dessine : produire plus vite des modèles, et surtout les faire tourner à grande échelle, au bon coût, au bon endroit (cloud, on‑prem, edge). Pour les entreprises françaises et européennes, l’enjeu dépasse la performance : il touche la sécurité, la souveraineté et la capacité à ne pas se retrouver enfermées dans un seul écosystème.


À retenir

  • Blackwell (B200/B300) succède à Hopper H100/H200 avec un design “monolithic dual-die”, 208 milliards de transistors et 192 Go de HBM3e (jusqu’à 8 To/s de bande passante mémoire).
  • FP4 Precision arrive en support matériel natif : jusqu’à 20 PetaFLOPS IA et une efficacité d’inférence annoncée 25× supérieure à Hopper, via les Tensor Core et Transformer Engine 2.0.
  • NVLink 5 monte à 1,8 To/s bidirectionnel : la performance devient aussi une question de tuyauterie entre puces, pas seulement de calcul brut.
  • Le trio Grace CPU (Arm), BlueField DPU (réseau/sécurité) et GPU Blackwell vise une “usine à IA” intégrée, typée GB200 NVL72.
  • CUDA et CUDA-X restent la colle du calcul accéléré (parallel computing) et du machine learning : l’avantage NVIDIA est autant logiciel que matériel.
  • NVIDIA AI Enterprise se positionne comme un socle “OS de l’IA” en entreprise (déploiement, inférence, vidéo, outils de prod).
  • NIM (NVIDIA Inference Microservices) pousse une IA “packagée” et déployable, y compris pour des LLM comme Nemotron.
  • NemoClaw (annoncé à GTC 2026) vise à standardiser l’IA agentique open‑source… mais optimisée pour le stack CUDA.
  • Omniverse et OpenUSD industrialisent le Digital Twin ; Isaac Robotics et Jetson poussent l’Edge AI sur le terrain.
  • En octobre 2025, NVIDIA a atteint 5 000 milliards $ de capitalisation (≈ 4 300 milliards €) et revendiquait environ 88% du marché des puces IA en 2025 : puissance technologique, mais aussi risque de dépendance.

Blackwell, ou l’inférence à la vitesse industrielle

La bataille de l’IA se joue désormais sur un point très concret : combien coûte, et à quelle vitesse, le passage du modèle au service utilisable — l’inférence — quand des millions d’utilisateurs, d’objets ou de robots demandent des réponses.

Technicien dans un datacenter examinant un rack de GPU NVIDIA Blackwell interconnectés, évoquant l’inférence IA à grande échelle.
Les GPU Blackwell de NVIDIA transforment l’inférence en un processus industriel où la vitesse et le coût par requête deviennent des variables critiques.

Du H100 à B200 : la mémoire devient le nerf de la guerre

Blackwell (B200/B300) succède à Hopper (H100/H200) avec une philosophie simple : nourrir les modèles plus vite que la génération précédente. Son design “monolithic dual-die” embarque 208 milliards de transistors et surtout 192 Go de mémoire HBM3e, avec une bande passante annoncée à 8 To/s. En pratique, pour les Large Language Models (LLM), cela se traduit par moins d’attente entre deux couches, moins de goulots d’étranglement et une exécution plus stable quand on augmente la taille de contexte ou le nombre de requêtes.

Concrètement, c’est comme passer d’une petite cuisine où un seul commis coupe les ingrédients à une brigade où tout arrive déjà préparé au poste. Le “chef”, ici le GPU, passe moins de temps à attendre et consacre davantage de cycles au calcul.

FP4, Tensor Core et Transformer Engine 2.0 : quand “moins précis” devient plus utile

Le marqueur fort de Blackwell, c’est le support matériel natif du FP4 Precision. Dit autrement : le GPU accepte des calculs en très faible précision, adaptés à une partie de l’inférence, sans dégrader la qualité perçue dans des scénarios maîtrisés. NVIDIA annonce jusqu’à 20 PetaFLOPS de performance IA et une efficacité d’inférence 25× supérieure à Hopper, portée par les Tensor Core et le Transformer Engine 2.0.

Pour un lecteur tourné vers l’automatisation, ce point est central. En production, l’inférence est le compteur qui tourne : si vous divisez la facture par requête, vous rendez viables des usages jusqu’ici trop coûteux : assistants internes, classification documentaire en continu, recommandations en temps réel, analyse vidéo à grande échelle. Le retour sur investissement dépend alors autant de la précision choisie et du pipeline que du modèle lui‑même.

NVLink 5 et GB200 NVL72 : l’IA factory à l’échelle du rack

À partir d’un certain volume, l’IA n’est plus un projet data : c’est une infrastructure, comme un datacenter ou une chaîne logistique. D’où l’importance de l’interconnexion. Avec NVLink 5 (1,8 To/s bidirectionnel), NVIDIA envoie un message clair : la performance se joue aussi entre les puces. Le système GB200 NVL72 illustre cette logique “AI Factory”, où l’on assemble des briques de calcul et de mémoire comme on assemble des lignes de production.

Dans cette usine, le GPU fait le travail “lourd”, mais il n’est plus seul. Le Grace CPU (architecture Arm) vise le calcul serveur efficace, tandis que le BlueField DPU décharge les tâches réseau et sécurité. Résultat : plus de cycles GPU consacrés au machine learning, moins de cycles perdus dans la logistique informatique.

Le vrai verrou : le logiciel qui rend le matériel incontournable

Dans l’IA, la performance brute impressionne. Mais ce qui verrouille un marché, c’est la facilité à passer du notebook à la production — et à y rester sans friction.

CUDA et CUDA-X : la langue maternelle du calcul accéléré

CUDA reste la couche logicielle dominante qui relie les développeurs au matériel NVIDIA. Concrètement, c’est la “langue” du parallel computing appliqué au deep learning et au calcul accéléré. CUDA-X prolonge cette logique avec des bibliothèques optimisées pour des domaines précis. Pour une DSI, c’est un confort : plus de briques prêtes à l’emploi, une chaîne d’outils cohérente, des performances prévisibles.

En revanche, c’est aussi une dépendance. Plus votre stack est écrite, compilée, optimisée et observée dans cet univers, plus le coût de migration vers un autre monde (AMD ROCm, Intel, ASICs) augmente. La question stratégique n’est donc pas “CUDA ou pas”, mais “jusqu’où aller dans l’engagement”.

NVIDIA AI Enterprise : l’“OS” de l’IA, version entreprise

NVIDIA pousse NVIDIA AI Enterprise comme un “système d’exploitation de l’IA d’entreprise”. L’objectif est clair : standardiser les couches de déploiement, d’optimisation et d’exploitation, en s’appuyant sur des composants comme TensorRT pour l’inférence ou DeepStream pour l’analyse vidéo. Le bénéfice est tangible : réduire le temps entre prototype et production, mieux gérer la sécurité et les mises à jour, industrialiser des schémas récurrents.

Pour un lecteur orienté automatisation, c’est la différence entre bricoler des scripts et opérer une chaîne fiable : alertes, latence, versioning, conformité. En d’autres termes, l’IA devient un service continu, pas un coup d’éclat ponctuel.

NIM, Nemotron et NemoClaw : l’IA agentique arrive en kit

Avec NIM (NVIDIA Inference Microservices), NVIDIA propose des microservices pour déployer des modèles plus simplement, de manière sécurisée, sur plusieurs terrains : cloud, on‑prem et jusqu’à l’edge. Ces briques ciblent aussi des modèles maison comme Nemotron (déclinaisons annoncées entre 30B et 100B paramètres). L’approche est nette : transformer un modèle en produit déployable, avec des interfaces stables, des pratiques de sécurité et une performance optimisée pour GPU.

Vient ensuite la couche “comportement” : l’IA agentique, ces systèmes capables d’enchaîner des actions (lire, décider, appeler des outils, vérifier, recommencer). À GTC 2026, la plateforme NemoClaw vise à standardiser des agents d’IA open‑source, tout en restant optimisée pour le stack CUDA. L’ouverture est réelle. La question, elle, reste industrielle : qui façonne les standards de fait, et donc la vitesse d’adoption ?

Omniverse, robots, souveraineté : l’IA sort du cloud et entre dans les usines

La tendance 2026, c’est l’IA qui quitte les slides pour s’attaquer au réel : flux physiques, contraintes de sécurité, coûts énergétiques, délais de production et responsabilité opérationnelle.

Usine européenne moderne avec robots et véhicules autonomes, et un grand écran affichant un jumeau numérique réaliste de la ligne de production via NVIDIA Omniverse.
Avec Omniverse, le jumeau numérique devient le banc d’essai central pour simuler et optimiser usines et entrepôts avant toute modification physique.

Omniverse et OpenUSD : le digital twin comme banc d’essai universel

NVIDIA Omniverse pousse une idée forte : avant de modifier une usine, un entrepôt ou une ligne de production, on la simule. Le Digital Twin (jumeau numérique) permet de tester des scénarios, d’anticiper des collisions, d’optimiser des cadences, de réduire les arrêts. La normalisation via OpenUSD vise à faire du jumeau numérique un langage commun entre outils, équipes et fournisseurs.

Des acteurs industriels comme BMW sont cités pour avoir conçu des usines virtuelles complètes avant construction. Le message, lui, se transpose à des sites européens plus modestes : simuler pour éviter d’apprendre en cassant. Dans le monde physique, l’itération coûte vite plus cher qu’un cluster de GPU.

Isaac Robotics, GR00T, Jetson : l’IA physique et l’edge AI en première ligne

Quand NVIDIA parle d’IA Physique, l’idée est de combiner simulation haute fidélité et calcul en temps réel pour piloter des systèmes qui bougent : robots, véhicules, bras industriels. La plateforme Isaac Robotics et le modèle GR00T prolongent cette trajectoire, avec une ambition affichée autour de la robotique humanoïde et des systèmes autonomes.

Sur le terrain, l’Edge AI devient clé : traiter au plus près des capteurs, avec moins de latence, parfois hors connexion et avec des contraintes fortes de sécurité. C’est là que des solutions comme Jetson entrent en jeu. Un entrepôt n’a pas le luxe d’attendre 300 millisecondes de plus si un chariot autonome doit freiner, et une usine ne peut pas se permettre de “planter” parce qu’un service cloud est indisponible.

Domination, cloud et souveraineté : la facture cachée de l’accélération

La domination se mesure aussi en finance. NVIDIA a atteint une capitalisation record de 5 000 milliards de dollars en octobre 2025, soit environ 4 300 milliards d’euros au taux de conversion fourni. L’entreprise détenait alors environ 88% du marché des puces IA, portée par l’intégration verticale (chips, serveurs, logiciels, cloud) et par son avance sur l’interconnectivité et le logiciel.

Le service DGX Cloud illustre cette stratégie : louer de la puissance sur AWS, Azure ou Google Cloud, plutôt que vendre seulement du matériel. Une entreprise peut ainsi prototyper vite, monter en charge vite, et payer à l’usage. Cette facilité pose toutefois une question européenne très concrète : où sont les données, où sont les modèles, où se trouve la capacité de calcul, et quel niveau de dépendance crée-t-on à long terme ?

NVIDIA avance aussi sur les terrains de souveraineté via des partenariats (par exemple avec Orange Business) et des projets nationaux (comme Stargate UAE). Face à cela, la concurrence se structure : AMD via ROCm, Intel via Gaudi, et des ASICs personnalisés. Pour une entreprise française, l’arbitrage ne se résume pas à un concours de benchmarks : c’est une décision d’architecture. Quel mix accepter entre GPU Blackwell, alternatives et spécialisation, et surtout quel niveau de réversibilité juger acceptable quand l’IA devient une brique critique de l’automatisation.


Les actus IA de NVIDIA :

19 Mar 2026
Scène de conférence NVIDIA GTC avec écran géant mettant Mistral AI au centre d’une alliance d’IA ouverte devant un public de professionnels.

La Nemotron Coalition met Mistral AI au cœur de l’IA ouverte

Le 16 mars 2026, lors de la GTC 2026 à San José, NVIDIA a dévoilé la Nemotron Coalition, une alliance globale de huit laboratoires d’IA. Cette initiative veut produire des Open Frontier Models accessibles à tous tout en protégeant la souveraineté numérique. Elle place Mistral AI au centre d’un projet d’intelligence distribuée pensé…

18 Mar 2026
PC gamer haut de gamme équipé d’une carte NVIDIA RTX 5090 affichant un jeu vidéo au rendu photoréaliste en temps réel sur grand écran.

DLSS 5 de NVIDIA promet des jeux photoréalistes IA en temps réel

Lancée lors de la GTC 2026, la nouvelle version DLSS 5 promet de transformer chaque pixel en une scène photoréaliste, à la vitesse du temps réel. Jensen Huang présente cette technologie comme le « moment GPT » de l’infographie, un saut comparable à l’arrivée du ray tracing en 2018, mais la controverse enfle déjà…

13 Mar 2026
Scène de lancement de NVIDIA Nemotron 3 Super avec grand écran d’IA et logo NVIDIA dans une salle de conférence sombre.

NVIDIA lance son LLM Nemotron 3 Super

Alors que les systèmes d’IA agentique peinent encore à gérer des tâches complexes sans perdre de vue leur objectif, NVIDIA vient de lancer Nemotron 3 Super, un modèle de langage hybride qui vise à améliorer nettement l’efficacité des agents autonomes. Avec une fenêtre de contexte native d’1 million de jetons…

11 Mar 2026
Scène de conférence GTC 2026 à San Jose avec le logo NVIDIA et un visuel d’interface d’IA représentant NemoClaw devant un public professionnel.

NVIDIA lance NemoClaw, une riposte open source à OpenClaw

Alors que le phénomène OpenClaw a marqué un tournant dans l’adoption de l’IA agentique par les entreprises, NVIDIA s’apprête à contre-attaquer avec NemoClaw, une plateforme open source qui peut rebattre les cartes. Annoncée pour le GTC 2026 le 16 mars à San Jose, cette initiative marque un virage stratégique pour…

19 Fév 2026
Salle de contrôle de data center haute technologie illustrant la transition des semi-conducteurs vers des ASIC dédiés à l’inférence IA en 2026.

L’IA fait grimper la part des processeurs ASIC

À l’heure où la puissance de calcul devient un enjeu de souveraineté, le marché des semi‑conducteurs a franchi une étape décisive en 2026. Les serveurs dédiés à l’inférence, longtemps éclipsés par les besoins d’entraînement, dominent désormais la scène et tirent le secteur vers des architectures plus spécialisées, plus sobres et…

15 Jan 2026
Humanoid robot demonstrating physical AI reasoning with an engineer on stage at CES 2026, symbolizing the open source breakthrough Cosmos Reason 2.

Cosmos Reason 2 ouvre l’ère open source de l’IA physique

Le CES 2026 à Las Vegas a vu l’arrivée d’un véritable « moment ChatGPT » pour la robotique : Jensen Huang, DG de Nvidia, a présenté Cosmos Reason 2, un modèle de vision‑langage capable d’« apprendre à raisonner dans le monde physique ». Cette annonce replace l’IA dite « physique » au centre des débats industriels…

08 Jan 2026
Salle de contrôle IA avec ingénieur testant NVIDIA Nemotron pour la reconnaissance vocale en temps réel à 24 ms de latence sur plusieurs écrans GPU.

NVIDIA Nemotron réduit la latence des agents vocaux à 24 ms

Le 5 janvier 2026, NVIDIA a déployé NVIDIA Nemotron‑Speech‑Streaming‑en‑0.6b, un modèle open source qui bouscule le compromis historique entre vitesse et précision dans la reconnaissance vocale en temps réel. Conçu pour les besoins de production, il vise à rapprocher la transcription automatique du rythme d’une conversation humaine, même sur des charges…

03 Jan 2026
Mur de serveurs GPU dans un datacenter sombre symbolisant le mur des coûts de l’intelligence artificielle face aux lois d’échelle

L’IA et le mirage du plus c’est mieux

Le « mirage des lois d’échelle » est un gouffre financier (et environnemental) qui s’ouvre pour les géants de l’IA. En 2025, les dépenses d’infrastructure IA dépassent déjà les revenus réalisés, et chaque GPU supplémentaire ressemble davantage à un fardeau qu’à une promesse de croissance. Si l’IA reste porteuse d’opportunités, ses fondations…

27 Déc 2025
Dirigeant d’entreprise observant une skyline futuriste illuminée, symbolisant la levée de fonds record de 100 milliards de dollars et la valorisation historique d’OpenAI.

OpenAI prépare une méga levée de fonds de 100 milliards

OpenAI se prépare à lever 100 milliards de dollars, un montant qui ferait passer la société au rang des plus grandes entreprises privées du monde, rivalisant même avec SpaceX. Cette opération confirmerait la place d’OpenAI comme acteur central de l’IA générative et renforcerait sa capacité à financer ses propres infrastructures. À retenir…

26 Déc 2025
Cadre dirigeant serrant la main dans une salle de réunion vitrée surplombant une ville nocturne, avec hologrammes de puces IA symbolisant le rachat de Groq par Nvidia pour l’inférence en temps réel.

Nvidia rachète Groq pour 20 milliards

Le 24 décembre, alors que les feux de la ville s’allumaient dans une effervescence cosmopolite, Nvidia a annoncé le rachat des actifs de la startup Groq pour 20 milliards de dollars, un montant plus de trois fois supérieur à celui de l’acquisition de Mellanox en 2019. Cette transaction, décrite comme un « acqui‑hire »…

27 Nov 2025
Responsable informatique européen dans un data center moderne face à quatre baies de serveurs symbolisant les accélérateurs IA Google TPU v6e, AMD Instinct MI300X, NVIDIA H100 et B200 Blackwell.

Google TPU v6e, AMD MI300X, ou Nvidia H100 et B200, le match

En novembre 2025, les accélérateurs IA comme le Google TPU v6e Trillium, l’AMD Instinct MI300X, le NVIDIA H100 Hopper et le B200 Blackwell dominent le marché des hyperscalers et des fournisseurs de cloud pour l’entraînement et l’inférence de LLM. Lancées entre fin 2023 et 2025, ces puces se disputent la…

10 Nov 2025
La Chine impose les puces IA exclusivement nationales pour centres

La Chine impose les puces IA nationales à ses datacenters

Le gouvernement chinois vient d’imposer l’usage exclusif de puces d’intelligence artificielle nationales pour tous les nouveaux centres de données financés publiquement, excluant ainsi les technologies étrangères comme celles de Nvidia, AMD et Intel. Cette directive, transmise confidentiellement aux opérateurs publics, marque un durcissement spectaculaire de la politique d’autosuffisance technologique de…

05 Nov 2025
Nvidia et Deutsche Telekom lancent l'IA souveraine en Allemagne

Nvidia et Deutsche Telekom lancent un datacenter IA en Allemagne

Deutsche Telekom et Nvidia ont annoncé un partenariat stratégique pour lancer le premier Industrial AI Cloud souverain au monde, avec un investissement d’un milliard d’euros. Ce projet, basé à Munich, vise à renforcer l’indépendance européenne en matière d’intelligence artificielle en gardant les données sur le sol allemand. Prévu pour entrer…

27 Sep 2025
L'infrastructure IA unifiée attire les investissements mondiaux

Modular lève 250 millions pour détrôner CUDA de Nvidia

Modular, une startup spécialisée dans l’infrastructure pour l’intelligence artificielle, a levé 250 millions de dollars lors de son tour de financement série C, atteignant une valorisation de 1,6 milliard de dollars. Ce financement, mené par le fonds US Innovative Technology de Thomas Tull et DFJ Growth, porte le total des…

25 Sep 2025
Nvidia et OpenAI verrouillent l'avenir de l'intelligence artificielle

100 milliards $, c’est le montant fou que Nvidia investira pour OpenAI

Le 22 septembre 2025, NVIDIA et OpenAI ont scellé un partenariat historique de 100 milliards de dollars, le plus grand déploiement d’infrastructure d’intelligence artificielle (IA) jamais annoncé. Ce méga-contrat, structuré autour de gigawatts de data centers et de millions de GPU, vise à accélérer le développement de la prochaine génération…

21 Sep 2025
Nvidia investit dans Intel pour sécuriser l’infrastructure IA

Nvidia investit dans Intel et prépare des puces hybrides IA

Le 18 septembre 2025, Nvidia a injecté 5 milliards de dollars dans Intel, un partenariat qui propulse le pionnier des semi-conducteurs au cœur de l’infrastructure IA. L’annonce a fait bondir le cours de l’action Intel de 25 % en une journée, un record depuis 1987. Derrière cette alliance inattendue se…

18 Sep 2025
Groq s’attaque à Nvidia avec 10x de vitesse et 90 % d’économie d’énergie

Groq lève 620 M€ pour mieux concurrencer Nvidia

Avec une levée de fonds de 633 millions d’euros en poche et une valorisation multipliée par deux en un an, Groq s’impose comme le challenger le plus sérieux face à Nvidia sur le marché des puces dédiées à l’inférence d’IA. Alors que les géants du cloud et les entreprises du Fortune 500…

12 Sep 2025
OpenAI et Broadcom investissent 10 milliards pour créer une puce IA

OpenAI mise sur une puce IA Broadcom pour baisser de 35 % ses coûts

OpenAI et Broadcom viennent de sceller un partenariat historique de 10 milliards de dollars pour développer une puce IA sur mesure, marquant une étape clé vers l’autonomie technologique des géants de l’intelligence artificielle. Prévue pour 2026, cette puce (parfois appelée XPU « Titan ») vise à réduire la dépendance aux GPU de Nvidia,…

09 Sep 2025
Le gain AI act vise à bloquer les GPU, l’Europe redoute la dépendance

Washington menace d’interdire les GPU aux européens

En janvier 2025, les États-Unis ont annoncé un durcissement des règles d’exportation des puces d’intelligence artificielle, puis ont introduit le projet de loi « Gain AI Act », qui menace d’interrompre l’accès européen aux GPU les plus performants. Cette décision, présentée comme une mesure de sécurité nationale, risque de bouleverser…

30 Août 2025
Nvidia bat son record de revenu trimestriel sous la menace chinoise

Nvidia bat son record de revenu trimestriel malgré les restrictions d’exportation

Le géant américain des puces a annoncé un chiffre d’affaires record de 46,7 milliards de dollars (soit 40,1 milliards d’euros) au deuxième trimestre 2025, alors même que les tensions commerciales avec la Chine compliquent la commercialisation de ses produits phares H20 et Blackwell. Cette performance s’inscrit dans une vague d’investissements massifs des géants…

28 Août 2025
Nvidia coupe à 1/18 la consommation d’énergie avec le GPU Blackwell 6000

Nvidia propose le GPU Blackwell 6000 aux PME

Le 27 août 2025, Nvidia a mis en vente le GPU RTX Pro 6000 Blackwell Server Edition, destiné à équiper les petites et moyennes entreprises (PME) d’une puissance de calcul comparable à celle d’un datacenter, tout en restant compatible avec les racks 2U classiques. Cette offre vise à rendre l’IA locale accessible, à réduire la…

19 Août 2025
AWS annonce des innovations clés avec les instances P5 GPU et UltraServers P6e-GB200

AWS déploie ses instenses avec GPU NVIDIA H100 et Blackwell

Amazon Web Services déploie le 18 août 2025 une série d’innovations majeures visant à conserver son avance sur le marché du cloud. Les instances EC2 P5 à GPU unique ouvrent l’accès au GPU NVIDIA H100 pour 10 € l’heure en Europe, tandis que les UltraServers P6e-GB200 dépassent les 20 petaflops…

15 Août 2025
L'IA scientifique ouverte propulse la science américaine en avant

L’IA scientifique ouverte propulse la science américaine en avant

La National Science Foundation et NVIDIA annoncent un partenariat historique de 152 millions de dollars pour créer la plus grande infrastructure d’IA scientifique ouverte des États-Unis. Le projet OMAI, dirigé par l’Allen Institute for AI, mettra à disposition des chercheurs américains des modèles multimodaux open-source capables d’accélérer les découvertes scientifiques…

15 Août 2025
Nvidia lance Cosmos pour booster l’IA dans le monde physique

Cosmos de Nvidia pour entraîner les robots par simulation

Nvidia dévoile Cosmos, une plateforme d’intelligence artificielle physique capable de générer des mondes virtuels photoréalistes pour entraîner robots et véhicules autonomes sans recourir aux coûteux tests réels. Lancée ce 15 août 2025, Cosmos ambitionne de devenir le standard mondial de la robotique industrielle en reproduisant le succès de l’IA générative…

14 Août 2025
Nvidia s'impose dans l'IA physique avec une plateforme innovante de robotique

Nvidia dégaine une plateforme robotique innovante

Nvidia transforme l’industrie robotique en appliquant sa stratégie gagnante de l’IA générative au monde physique. Lors de SIGGRAPH 2025, le géant californien dévoile une plateforme complète qui connecte simulation 3D, modèles de monde et infrastructure cloud pour créer des robots capables d’interagir en toute sécurité avec l’environnement réel. Cette offensive…

Laisser un commentaire