Blackwell Ultra et Vera Rubin: Nvidia dévoile ses prochaines «superpuces» IA
Nvidia a levé le voile sur la prochaine génération de ses processeurs, Blackwell Ultra et Vera Rubin. Ces systèmes s’inscrivent dans une stratégie misant sur une demande en puissance de calcul toujours plus grande pour l’IA.

Lors de sa conférence annuelle pour développeurs (GTC), Nvidia a annoncé Blackwell Ultra et Vera Rubin, ses nouvelles «superpuces» dédiées à l’intelligence artificielle.
Blackwell Ultra sera disponible dès la seconde moitié de cette année. Lors de sa keynote, Jensen Huang, fondateur et CEO de Nvidia, a mis en avant les avancées de cette nouvelle architecture, capable d’effectuer davantage de calculs tout en consommant moins d’énergie que la génération précédente. Conçu pour optimiser à la fois l'entraînement des modèles et l'inférence à grande échelle, Blackwell Ultra repose sur l’architecture Blackwell dévoilée l’an dernier. Les performances seraient 40 fois plus élevées qu’avec les processeurs Nvidia Hopper.
Nvidia a aussi dévoilé le système GB300 NVL72, conçu à l’échelle d’un rack, qui intègre 72 GPU Blackwell Ultra et 36 processeurs Grace basés sur l’architecture Arm, le tout dans une conception refroidie par liquide. Cette génération promet une puissance 1,5 fois supérieure à celle du GB200 NVL72.
Jensen Huang a également annoncé l’architecture Vera Rubin, un hommage à l’astronome du même nom. Prévue pour la seconde moitié de 2026, cette nouvelle génération de puces vise à accroître l’efficacité des centres de données dédiés à l’IA.
La puissance des processeurs, clé du futur de l’IA selon Nvidia
Nvidia poursuit ainsi sa stratégie, misant sur la montée en puissance continue des processeurs pour soutenir le développement de l’intelligence artificielle. Jensen Huang a d’ailleurs déclaré que «le monde se trompe» en sous-estimant les ressources informatiques nécessaires aux systèmes d’IA avancés, notamment ceux impliquant des agents autonomes et des capacités de raisonnement. Selon lui, les besoins en calcul dépassent aujourd’hui de cent fois les estimations faites l’an dernier. Alors que certains experts plaident pour une réduction de la taille des modèles d’IA afin d’optimiser leur efficacité, Jensen Huang défend visiblement une approche inverse.