Nvidia vient de présenter, à l’occasion de la GTC 2017, un tout nouveau GPU, le GV100. Cette solution vise le Deep Learning. Adressée au marché de l’intelligence artificielle, elle prend la forme d’un nouvel accélérateur, le Tesla V100.
Gravé à 12 nm, ce GPU GV100 est une offre très haut de gamme pour le marché professionnel des calculs intensifs. Orienté vers l’intelligence artificielle, l’engin propose une monté en puissance face au son prédécesseur, le GP100. Nvidia annonce ici son successeur direct.
GPU Volta GV100, détails
Le GPU s’accompagne de quatre modules de mémoire vive HBM2 et le tout est placé sur un interposer. Du coté chiffre, la puissance augmente avec du 7,5 téraflops en double précision, 15 téraflops en FP32 et 120 téraflops sur le Deep Learning.
Ceci est possible grâce à l’exploitation de l’architecture « Volta » gravés en 12 nm. La puce dispose de 5120 cœurs Cuda propulsés au maximum à 1455 MHz et se vante de 640 Tensor Cores pour répondre aux besoins des applications de Deep Learning.
Le Tesla V100, pour les calculs intensifs
Ce GPU GV100 donne naissance à un premier accélérateur, le Tesla V100. Il s’accompagne de 16 Go de mémoire vive HBM 2 à 900 Go/s et dispose d’une enveloppe thermique de 300 Watts. Nvidia a cependant prévu un second mode énergétique calibré à 150 Watts.
Le constructeur prévoit deux facteurs de forme avec une carte PCI Express classique et un module à bus NVLink à 300 Go/s.
Ces nouveauté vont donner naissance dans les prochains mois aux serveurs 3U DGX-1 disposant de 8 Tesla V100 (tarif aux alentours de 150 000 dollars) et la station de travail DGX Station équipée de 4 Tesla V100 (69 000 dollars).