Nvidia a dévoilé lundi ses toutes nouvelles puces électroniques destinés à l’accélération des calculs liés à l’intelligence artificielle (IA). L’objectif est de consolider son avance en s’assurant d’une position dominante sur la concurrence.
Pour y parvenir la firme a présenté lors de la conférence GTC 2024 deux nouveaux processeurs graphiques IA « Blackwell », les B200 et GB200. Le groupe promet une augmentation des performances d’inférence IA d’un facteur 5 face à l’actuelle solution H100 « Hopper ».
De plus l’équipement comprend quatre fois plus de mémoire.
Le B200 « Blackwell » est aussi la plus grande puce physiquement possible en utilisant les technologies de gravure actuelles. Elle embarque 208 milliards de transistors et est composée de deux chiplets, qui sont à eux seuls les plus grandes puces possibles.
Le big boss de Nvidia n’a pas manqué de le préciser lors de son intervention en soulignant
Nous avons besoin de GPU plus grandes. Donc, mesdames et messieurs, je voudrais vous présenter une très, très grande GPU.
Chaque chiplet est issu d’un procédé de gravure N4P assuré par TSMC. Il se constitue de 104 milliards de transistors. Ces deux entités communiquent à l’aide d’une interconnexion personnalisée capable d’atteindre une bande passante de 10 To/s. Ils s’arment tous deux d’un bus mémoire 4096-bit et sont associés à 96 Go de HBM3E répartis sur quatre piles de 24 Go. Nous avons ainsi un total de 192 Go de HBM3E par B200 le tout exploité au travers d’une bande passante mémoire de 8 To/s. A cela s’ajoute une interface NVLink de 1,8 To/s.
GB200 BlackWell de Nvidia
De son côté le GB200 est une « super puce » Grace-Blackwell GB200. Il s’agit d’un module doté de deux GPU B200 câblés à un processeur Grace “maison”. Ce dernier est censé assurer des performances de traitement série supérieures à celles des processeurs x86-64 d’Intel ou d’AMD tout en s’équipent d’un ISA optimisé pour les GPU AI de la firme. Grace se distingue également des solutions Xeon Scalable ou EPYC par son interconnexion NVLink avec les GPU. Elle assure une bande passante plus élevée que les connexions PCIe.
Nvidia ne s’est pas attardé sur l’aspect technique (composants de chaque chiplet, cœurs CUDA, cœurs Tensor ou les tailles de cache ) mais promet que chaque puce B200 fournit une puissance de 20 PFLOPs (soit 20 000 TFLOPs) d’inférence IA. « Blackwell » exploite le moteur Transformer de 2e génération de NVIDIA et des cœurs Tensor de 6e génération prenant en charge FP4 et FP6.
En tant qu’accélérateur de calcul de haute précision (FP64), le B200 fournit une puissance de 90 TFLOPs, soit 3 fois plus que le GH200 « Hopper ».
Plateforme | GB200 | B200 | B100 | HGX B200 | HGX B100 |
Configuration | 2x B200 GPU, 1x Grace CPU | Blackwell GPU | Blackwell GPU | 8x B200 GPU | 8x B100 GPU |
FP4 Tensor Dense/Sparse | 20/40 petaflops | 9/18 petaflops | 7/14 petaflops | 72/144 petaflops | 56/112 petaflops |
FP6/FP8 Tensor Dense/Sparse | 10/20 petaflops | 4.5/9 petaflops | 3.5/7 petaflops | 36/72 petaflops | 28/56 petaflops |
INT8 Tensor Dense/Sparse | 10/20 petaops | 4.5/9 petaops | 3.5/7 petaops | 36/72 petaops | 28/56 petaops |
FP16/BF16 Tensor Dense/Sparse | 5/10 petaflops | 2.25/4.5 petaflops | 1.8/3.5 petaflops | 18/36 petaflops | 14/28 petaflops |
TF32 Tensor Dense/Sparse | 2.5/5 petaflops | 1.12/2.25 petaflops | 0.9/1.8 petaflops | 9/18 petaflops | 7/14 petaflops |
FP64 Tensor Dense | 90 teraflops | 40 teraflops | 30 teraflops | 320 teraflops | 240 teraflops |
Mémoire | 384GB (2x8x24GB) | 192GB (8x24GB) | 192GB (8x24GB) | 1536GB (8x8x24GB) | 1536GB (8x8x24GB) |
Bande passante | 16 TB/s | 8 TB/s | 8 TB/s | 64 TB/s | 64 TB/s |
Bande passante NVLink | 2x 1.8 TB/s | 1.8 TB/s | 1.8 TB/s | 14.4 TB/s | 14.4 TB/s |
Consommation | 2700W | 1000W | 700W | 8000W ? | 5600W ? |
Source : Tom’s Hardware
Toutes ces annonces assurent à Nvidia de l’avance et constituent l’un des principaux ingrédients de l’IA générative. Cette posture permet à la firme de battre des records en bourse. Son action atteint des sommets. Sa valeur a été multipliée par 2,5 depuis un an. Elle est en une hausse de 80% depuis le début de l’année. En matière de capitalisation boursière le géant a dépassé Amazon, arrivant juste derrière Microsoft et Apple.
Nvidia a également annoncé lundi d’autres innovations dans le domaine de l’intelligence artificielle. Par exemple le projet Gr00t . Il s’agit du “premier modèle au monde de fondation humaine“.
La firme a expliqué que des robots équipés de Gr00t seront apte à
- comprendre ce que disent les gens,
- à imiter les mouvements,
- et à apprendre de leur propre expérience sur la façon d’interagir avec le monde.
L’objectif sera d’assurer un apprentissage à partir de quelques démonstrations humaines et de l’observation.