Mes favoris

NVIDIA Vera : Le CPU Arm qui bouscule l'hégémonie d'Intel et AMD dans l'IA

NVIDIA Vera : Le CPU Arm qui bouscule l'hégémonie d'Intel et AMD dans l'IA
Topic Hubs
Résumé rapide
Click to expand
Table des matières

Le pari audacieux de NVIDIA : Le CPU Vera à l'assaut des serveurs

NVIDIA, entreprise jusqu'ici synonyme de domination absolue sur le marché des GPU, lance son offensive la plus directe contre le marché lucratif des processeurs haute performance. Le lancement du CPU NVIDIA Vera, un processeur basé sur l'architecture Arm désormais en pleine production depuis le premier trimestre 2026, n'est pas seulement un nouveau produit ; c'est une déclaration de guerre stratégique contre les géants établis que sont Intel (Xeon), AMD (EPYC) et même les puces Graviton d'Amazon. L'ambition de Jensen Huang de transformer NVIDIA en un fournisseur de CPU de premier plan est connue de tous, et le CPU Vera constitue la pierre angulaire de cette vision, propulsant NVIDIA vers un statut d'"écosystème informatique global".

Nommé en l'honneur de l'astronome américaine pionnière Vera Florence Cooper Rubin, ce processeur est conçu spécifiquement pour répondre aux exigences croissantes de l'intelligence artificielle. Si nous avions déjà vu le CPU Grace de NVIDIA au sein de "Superchips" Grace-Hopper étroitement intégrés, la disponibilité de Vera en tant qu'offre autonome marque un tournant majeur. Cela permet une plus grande flexibilité dans la conception des centres de données et des infrastructures d'IA. Cette annonce a immédiatement provoqué des remous sur le marché, entraînant une baisse de l'action d'Intel et d'AMD.

Une architecture conçue pour les centres de données "AI-Native"

À la base, le CPU Vera est conçu pour être l'unité centrale de traitement dans les architectures de centres de données IA full-stack. Sa mission principale est le "raisonnement agentique" (agentic reasoning) — une fonction critique pour coordonner les vastes mouvements de données, l'allocation de mémoire et les flux de travail complexes à travers les systèmes accélérés par GPU. L'objectif est de garantir que ces GPU coûteux soient utilisés au maximum de leurs capacités. Cette approche démontre que NVIDIA a compris que même les GPU les plus puissants peuvent être freinés par une orchestration CPU inefficace.

Voici pourquoi les points forts du CPU Vera sont cruciaux, tout en gardant une dose de scepticisme constructif :

  • Optimisé pour l'IA : NVIDIA promet une efficacité élevée tant pour l'entraînement que pour l'inférence, des agents IA multimodaux aux tâches de raisonnement à long contexte. Compte tenu de l'héritage de NVIDIA, cela n'est pas surprenant, mais les gains d'efficacité en conditions réelles seront le test ultime.
  • Saut de performance : L'annonce de performances et d'une efficacité deux fois supérieures dans le traitement des données, la compression et le CI/CD par rapport à la génération précédente (NVIDIA Grace) est impressionnante. Le CPU Grace, avec ses 72 cœurs Arm Neoverse V2, montrait déjà une forte compétitivité face aux Intel Xeon et AMD EPYC. Doubler cette performance avec Vera, qui dispose de 88 cœurs personnalisés "Olympus" Armv9.2, en fait un concurrent redoutable. Cependant, nous attendrons les benchmarks indépendants pour voir comment cela se traduit face aux derniers fleurons x86.
  • Efficacité énergétique : Une efficacité énergétique "leader du secteur" est vitale pour les centres de données à grande échelle. Grace excellait déjà sur ce point, offrant souvent deux fois plus de performance pour la même enveloppe énergétique que la concurrence. Si Vera confirme cet avantage, il pourrait s'agir d'une source d'économies majeure pour les hyperscalers.
  • Architecture monolithique : Selon NVIDIA, une conception de puce monolithique unifiée maximise le débit, l'efficacité énergétique et l'utilisation des GPU en évitant les communications inter-chiplets. Cela contraste avec les conceptions en "chiplets" privilégiées par AMD et Intel, qui offrent des avantages en termes de rendement de fabrication et de flexibilité. Si le monolithique peut réduire la latence, il s'accompagne traditionnellement de coûts de fabrication plus élevés. NVIDIA fait ici un pari audacieux sur l'intégration optimisée plutôt que sur la modularité.
  • Multithreading avancé (NVIDIA Spatial Multithreading) : Le partitionnement physique des ressources des cœurs pour une optimisation en temps réel entre performance et densité est une approche intrigante. Cela pourrait permettre aux centres de données d'ajuster l'allocation des ressources en fonction des charges de travail spécifiques.
  • Excellence pour les charges liées à la mémoire : Vera est conçu pour les tâches intensives en mémoire comme les pipelines d'IA agentique, la préparation de données, la gestion du cache KV et les simulations HPC. C'est une réponse claire aux goulots d'étranglement mémoire fréquents dans l'IA moderne.
  • Interconnexions haute vitesse : La deuxième génération de la NVIDIA Scalable Coherency Fabric (SCF) avec une bande passante de 3,4 To/s et le NVLink-C2C de deuxième génération offrant 1,8 To/s de bande passante cohérente sont essentiels. Ces liens assurent un partage de données fluide et rapide, résolvant l'un des problèmes majeurs des systèmes hautement accélérés.

Bien que le CPU Vera soit capable de fonctionner de manière autonome pour diverses charges de travail (analyse, cloud, stockage, HPC), son objectif final est clair : une intégration native avec les GPU NVIDIA Rubin au sein de la plateforme NVIDIA Vera Rubin. Une fois jumelés, le NVLink-C2C crée un système de mémoire unifié, une proposition puissante pour les systèmes d'IA étroitement couplés.

CPU Vera : Des spécifications qui imposent le respect

Les spécifications techniques du CPU Vera en disent long sur ses objectifs de conception.

Les 88 cœurs personnalisés "Olympus" représentent une mise à niveau significative par rapport aux 72 cœurs Neoverse V2 de Grace. Associés à 1,5 To de mémoire LPDDR5X offrant 1,2 To/s de bande passante, NVIDIA vise clairement les charges de travail IA gourmandes en données. La technologie LPDDR5X, notamment au format SOCAMM, est réputée pour sa consommation réduite par rapport aux barrettes DDR5 traditionnelles. Ce choix souligne l'accent mis par NVIDIA sur la performance par watt. Le nombre impressionnant de 227 milliards de transistors signale un design complexe, même si l'on peut se demander quelle part est dédiée à la logique pure du CPU par rapport aux fonctions d'interconnexion avec le GPU.

Le support natif du format FP8 est une fonctionnalité tournée vers l'avenir, répondant directement aux besoins de précision des modèles d'IA modernes, permettant à certaines tâches de s'exécuter directement sur le CPU avec une efficacité accrue.

L'écosystème : Adoption et vision Cloud IA de NVIDIA

Le CPU Vera est désormais en pleine production, et les premiers signes d'adoption sont déjà là. CoreWeave a été désigné comme l'un des premiers fournisseurs cloud à intégrer les systèmes basés sur NVIDIA Rubin, incluant le CPU Vera, d'ici le second semestre 2026. L'investissement massif de 2 milliards de dollars de NVIDIA dans CoreWeave renforce ce partenariat, suggérant une volonté d'accélérer le déploiement de l'infrastructure IA. Il ne s'agit pas seulement de vendre des puces, mais de bâtir un écosystème cloud complet dont le matériel NVIDIA est le socle.

Pour les déploiements à l'échelle hyperscale, le système NVIDIA DGX Vera Rubin NVL72 propose une solution d'infrastructure clé en main. Ce système en rack, intégrant 36 CPU Vera et 72 GPU Rubin avec un total colossal de 75 To de mémoire rapide, vise à offrir des performances inégalées pour les charges IA les plus exigeantes. NVIDIA ne vend plus uniquement des composants isolés, mais des solutions "full-stack" intégrées.

Il est important de préciser que le CPU Vera est conçu pour les centres de données, et non pour les PC de jeu ou l'informatique grand public à court terme. Bien que NVIDIA prépare un CPU Arm pour PC (nom de code N1X), Vera reste fermement ancré dans le secteur de l'entreprise.

Le marché des processeurs pour serveurs est en pleine ébullition. Les puces Arm gagnent du terrain et pourraient représenter 10 à 12 % des revenus CPU d'ici 2027, portées par les fournisseurs cloud en quête d'efficacité. Dell'Oro Group a rapporté qu'Arm avait capturé un quart du marché des serveurs au deuxième trimestre 2025, une hausse largement alimentée par les plateformes Grace-Blackwell de NVIDIA. Si l'objectif d'Arm d'atteindre 50 % de part de marché paraît ambitieux, l'entrée de NVIDIA avec le CPU Vera pèse lourd dans la balance. La compétition s'annonce féroce avec Intel et AMD, et le CPU Vera est un signal fort qui s'apprête à redéfinir le paysage de l'informatique d'IA.

Foire aux questions

Le CPU Vera offre deux fois plus de performances et d'efficacité dans le traitement des données, la compression et les tâches CI/CD par rapport à la génération Grace précédente. Cette amélioration est portée par ses cœurs Armv9.2 personnalisés (appelés « Olympus » dans certains rapports), offrant 88 cœurs contre les 72 cœurs présents dans le CPU Grace.

Le CPU Vera fait partie de la plateforme Vera Rubin de NVIDIA, annoncée officiellement en 2024 pour une sortie en 2026. En mars 2026, le processeur est entré en production de masse. CoreWeave devrait figurer parmi les premiers fournisseurs à proposer ces systèmes au sein de sa plateforme cloud d'IA à partir du second semestre 2026.

Le processeur utilise de la mémoire LPDDR5X, supportant une capacité maximale de 1,5 To. Cette configuration offre jusqu'à 1,2 To/s de bande passante tout en maintenant une efficacité énergétique élevée, le sous-système de mémoire consommant moins de 50 watts.

Le CPU Vera présente une conception à puce monolithique unifiée, qui diffère des architectures modulaires à chiplets actuellement privilégiées par Intel et AMD pour leurs processeurs serveur. Cette approche à puce unique vise à maximiser l'efficacité énergétique et le débit en éliminant le besoin de communication entre des chiplets de silicium séparés.

Bien qu'il soit conçu pour une intégration étroite avec les GPU Rubin via NVLink-C2C, le CPU Vera est disponible en tant que produit autonome pour des tâches telles que le stockage, l'orchestration cloud et l'analyse. Il prend en charge les interfaces standard, notamment PCIe Gen6 et CXL 3.1, pour garantir la compatibilité avec diverses infrastructures de centres de données.

Le CPU est optimisé pour le « raisonnement agentique » (agentic reasoning), qui implique la coordination de mouvements de données complexes et de l'allocation de mémoire dans les systèmes accélérés par GPU. Il inclut également une prise en charge native du FP8 pour traiter efficacement les charges de travail modernes d'entraînement et d'inférence d'IA directement sur le CPU si nécessaire.

Commentaires

Préférences de lecture
Taille de police
Tableau comparatif