Cartes graphiques

GPU IA Blackwell B200, Nvidia promet une envolée des performances face à Hopper

"La plus grande puce physiquement possible"

Nvidia a dévoilé lundi ses toutes nouvelles puces électroniques destinés à l’accélération des calculs liés à l’intelligence artificielle (IA). L’objectif est de consolider son avance en s’assurant d’une position dominante sur la concurrence.

Pour y parvenir la firme a présenté lors de la conférence GTC 2024 deux nouveaux processeurs graphiques IA « Blackwell », les B200 et GB200. Le groupe promet une augmentation des performances d’inférence IA d’un facteur 5 face à l’actuelle solution H100 « Hopper ».

De plus l’équipement comprend quatre fois plus de mémoire.

Le B200 « Blackwell » est aussi la plus grande puce physiquement possible en utilisant les technologies de gravure actuelles. Elle embarque 208 milliards de transistors et est composée de deux chiplets, qui sont à eux seuls les plus grandes puces possibles.

Le big boss de Nvidia n’a pas manqué de le préciser lors de son intervention en soulignant

Nous avons besoin de GPU plus grandes. Donc, mesdames et messieurs, je voudrais vous présenter une très, très grande GPU.

Chaque chiplet est issu d’un procédé de gravure N4P assuré par TSMC. Il se constitue de 104 milliards de transistors. Ces deux entités communiquent à l’aide d’une interconnexion personnalisée capable d’atteindre une bande passante de 10 To/s. Ils s’arment tous deux d’un bus mémoire 4096-bit et sont associés à 96 Go de HBM3E répartis sur quatre piles de 24 Go. Nous avons ainsi un total de 192 Go de HBM3E par B200 le tout exploité au travers d’une bande passante mémoire de 8 To/s. A cela s’ajoute une interface NVLink de 1,8 To/s.

GB200 BlackWell de Nvidia

De son côté le GB200 est une « super puce » Grace-Blackwell GB200. Il s’agit d’un module doté de deux GPU B200 câblés à un processeur Grace “maison”. Ce dernier est censé assurer des performances de traitement série supérieures à celles des processeurs x86-64 d’Intel ou d’AMD tout en s’équipent d’un ISA optimisé pour les GPU AI de la firme. Grace se distingue également des solutions Xeon Scalable ou EPYC par son interconnexion NVLink avec les GPU. Elle assure une bande passante plus élevée que les connexions PCIe.

Nvidia ne s’est pas attardé sur l’aspect technique (composants de chaque chiplet, cœurs CUDA, cœurs Tensor ou les tailles de cache ) mais promet que chaque puce B200 fournit une puissance de 20 PFLOPs (soit 20 000 TFLOPs) d’inférence IA. « Blackwell » exploite le moteur Transformer de 2e génération de NVIDIA et des cœurs Tensor de 6e génération prenant en charge FP4 et FP6.

GB200 GRACE Blackwell de Nvidia

En tant qu’accélérateur de calcul de haute précision (FP64), le B200 fournit une puissance de 90 TFLOPs, soit 3 fois plus que le GH200 « Hopper ».

PlateformeGB200B200B100HGX B200HGX B100
Configuration2x B200 GPU, 1x Grace CPUBlackwell GPUBlackwell GPU8x B200 GPU8x B100 GPU
FP4 Tensor Dense/Sparse20/40 petaflops9/18 petaflops7/14 petaflops72/144 petaflops56/112 petaflops
FP6/FP8 Tensor Dense/Sparse10/20 petaflops4.5/9 petaflops3.5/7 petaflops36/72 petaflops28/56 petaflops
INT8 Tensor Dense/Sparse10/20 petaops4.5/9 petaops3.5/7 petaops36/72 petaops28/56 petaops
FP16/BF16 Tensor Dense/Sparse5/10 petaflops2.25/4.5 petaflops1.8/3.5 petaflops18/36 petaflops14/28 petaflops
TF32 Tensor Dense/Sparse2.5/5 petaflops1.12/2.25 petaflops0.9/1.8 petaflops9/18 petaflops7/14 petaflops
FP64 Tensor Dense90 teraflops40 teraflops30 teraflops320 teraflops240 teraflops
Mémoire384GB (2x8x24GB)192GB (8x24GB)192GB (8x24GB)1536GB (8x8x24GB)1536GB (8x8x24GB)
Bande passante
16 TB/s8 TB/s8 TB/s64 TB/s64 TB/s
Bande passante NVLink
2x 1.8 TB/s1.8 TB/s1.8 TB/s14.4 TB/s14.4 TB/s
Consommation2700W1000W700W8000W ?5600W ?

Source : Tom’s Hardware

Toutes ces annonces assurent à Nvidia de l’avance et constituent l’un des principaux ingrédients de l’IA générative. Cette posture permet à la firme de battre des records en bourse. Son action atteint des sommets. Sa valeur a été multipliée par 2,5 depuis un an. Elle est en une hausse de 80% depuis le début de l’année.  En matière de capitalisation boursière le géant a dépassé Amazon, arrivant juste derrière Microsoft et Apple.

Nvidia a également annoncé lundi d’autres innovations dans le domaine de l’intelligence artificielle. Par exemple le projet Gr00t . Il s’agit du “premier modèle au monde de fondation humaine“.

La firme a expliqué que des robots équipés de Gr00t seront apte à

  • comprendre ce que disent les gens,
  • à imiter les mouvements,
  • et à apprendre de leur propre expérience sur la façon d’interagir avec le monde.

L’objectif sera d’assurer un apprentissage à partir de quelques démonstrations humaines et de l’observation.

Jérôme Gianoli

Aime l'innovation, le hardware, la High Tech et le développement durable. Soucieux du respect de la vie privée.

Partager
Publié par
Jérôme Gianoli

Article récent

Ventilateur UNI FAN TL, Lian li propose du sans fil 2,4 GHz

Lian Li dévoile sa gamme de ventilateurs UNI FAN TL Wireless. La technologie 2,4 GHz… Lire d'avantage

20/12/2024

Intel abandonne le projet x86S et forme un partenariat avec AMD

Intel abandonne son initiative x86S, un projet visant à rationaliser l'architecture x86 en supprimant les… Lire d'avantage

20/12/2024

L’Arc B570 d’Intel : un chanceux a déjà reçu sa carte

Un chanceux a reçu une carte graphique Arc B570 d'Intel. La carte en question est… Lire d'avantage

20/12/2024

Wildcat Lake : s’agit-il de la prochaine génération de processeurs d’entrée de gamme d’Intel ?

Intel semble prêt à renouveler son offre d’entrée de gamme avec une nouvelle série de… Lire d'avantage

20/12/2024

Core Ultra Arrow Lake-S et le microcode 0x114, les premiers tests confirment-ils une envolée des performances ?

Asus est le premier constructeur de carte mère à déployer le microcode 0x114 d’Intel censé… Lire d'avantage

20/12/2024

Le Ryzen AI 7 350M et son iGPU Radeon 860M dévoilent leurs performances

Les prochains APU Ryzen AI Kraken Point d’AMD se positionnent comme des solutions accessibles pour… Lire d'avantage

20/12/2024