Cartes graphiques

GeForce RTX 20 series et l’architecture Turing, bilan

Avec l’arrivée de ses GeForce RTX 20 series, Nvidia inaugure une nouvelle architecture GPU nommée Turing. Elle apporte des changements importants face à Pascal (GeForce GTX 1000 series) mais n’est pas totalement inconnue pour autant. Nvidia fait évoluer Volta lancée l’année dernière afin de s’attaquer au marché du gaming.

Avant de voir ses grandes avancées, Turing se distingue physiquement de Pascal avec des GPU bien plus imposants. Sur ce point Nvidia annonce une surface atteignant les 754 mm² pour la version la plus musclée, soit une belle progression face au GP102 de la GTX 1080 Ti et ses 471 mm² . Ce GPU, nommé TU102, se retrouve au cœur de la vitrine de cette nouvelle génération, la GeForce RTX 2080 Ti.

L’augmentation de la taille permet de loger bien plus de transistors soit de quoi atteindre les 18,6 milliards.

Tout ceci est mis à contribution pour revoir la distribution des calculs au cœurs de ses GPU. Nous avons des retouches aux niveau des caches, des calculs sur les entiers et les flottants ou encore l’arrivée d’unités dédiées à des tâches très spécifiques.

Turing, RT Core, Tensor Core et parallélisme

Nvidia continue d’organiser son architecture autour de la notion de SM (Streaming Multiprocessor). Elle rassemble les unités de calculs Cuda Core (entiers et les flottants) et dispose désormais de 8 Tensor Core et un RT Core.

Les Tensor Core assurent des calculs très spécifiques autour de l’IA et du deep learning tandis que les RT Core sont dédiés aux calculs autour du Ray Tracing.

Avec Turing, les unités Cuda Core sont désormais capables de traiter de manière concomitante des entiers et des réels.

Du coup selon Nvidia le débit en flottants progresse de 36%.

La grosse nouveautés concerne les RT Core, RT pour Ray-Tracing Core. Elle a été à la une de la présentation de Nvidia lors du lancement des GeForce RTX 2080 et 2080 Ti.

L’objectif est de faire progresser la qualité du rendu avec l’arrivée d’une méthode dite hybride. Elle s’appuie sur l’existant, connu sous le nom rasterisation, tout en apportant du Ray-tracing en temps réel.

Le Ray-Tracing ou encore le lancer de rayon offre un rendu bien plus réaliste. Il agit sur la qualité de l’éclairage, des ombres ou encore des reflets.  Ce câblage matériel permet à la GeForce RTX 2080 Ti d’être 10 fois plus performante que sa grande sœur, la GeForce GTX 1080 Ti pour réaliser ce type de calculs.

Nvidia joue une carte pour l’avenir car ce rendu hybride n’est pas issu de ses cartons mais de ceux de l’API DirectX RT (DXRT) de Microsoft. Du coup, n’importe quelle carte compatible prenant en charge cette API est aussi compatible. L’avantage se situe par contre sur la présence d’une accélération matérielle qui devrait assurer des performances de premiers plans face à la concurrence. Il n’est pas impossible qu’AMD opte également pour ce choix lors du lancement de sa prochaine génération de Radeon.

Ce Ray-Tracing n’est pas encore généralisé. L’API sera proposée lors du lancement de Windows 10 October 2018 Update tandis que les jeux devront intégrer cette technologie.

Pour revenir aux Tensor Core évoqués un peu plus haut, Nvidia a souhaité les exploités au travers d’un nouveau filtre antialiasing, le DLSS.

Il s’agit de la contraction de Deep Learning Super Sampling. La firme propose aux développeurs d’utiliser un réseau neuronal pour analyser le rendu de leurs titres afin de mettre sur pied un algorithme personnalisé à leur jeu.

Il est naturellement mis en place au travers des Tensor Core. Plus d’une dizaine de titres supportent ce DLSS.

Turing, bien d’autres nouveautés

Avec cette nouvelle génération de GeForce, Nvidia apporte la prise en charge du DisplayPort 1.4a avec DSC 1.2. Ce protocole permet d’exploiter un écran à la définition 8K en 60 Hz avec HDR.

A noter que ce dernier est géré nativement. Le moteur vidéo supporte de son côté 2 écrans 8K à 60 Hz. À cela, s’ajoute un port HDMI 2.0b avec la prise en charge de la protection HDCP 2.2.

La carte graphique propose un port USB-C afin de profiter du VirtualLink. Il s’agit de simplifier l’exploitation d’un casque virtuel en limitant le câblage. Nous avons droit à quatre lignes DisplayPort HBR3 (flux vidéos) et 2 canaux USB 3.1 Gen 2 (les données).

La technologie SLI évolue avec l’exploitation d’un lien NVlink déjà connu.

L’objectif est d’augmenter la bande passante.

Turing embarque un moteur d’encodage/décodage vidéo amélioré face à celui de Pascal.

Nous avons des accélérations dans le décodage du HEVC 444 et du VP9 (10/12 bit) ou encore un encodage en temps réel avec du HEVC 8K HDR à 30 images par seconde et des améliorations en HEVC et H.264

Turing s’accompagne d’une nouvelle mémoire vive, la GDDR6. Elle apporte des plus face à l’actuelle GDDR5X en particulier du côté de la bande passante et de l’efficacité énergétique.

Turing, des optimisations logicielles

L’amélioration des performances n’est pas seulement assurée par des changements matériels.

Nvidia propose différentes solutions pour optimiser le potentiel de ses nouveautés. Par exemple le VRS (Variable Rate Shading) s’adresse aux développeurs afin d’accélérer les calculs. Elles demandent d’être prises en charge par le jeu au travers du GameWorks.

Il s’agit de prioriser la précision du rendu dans une image en mettant en avant certaines zones.

A tout ceci s’ajoute d’autres petites choses comme un algorithme amélioré de compression des textures et le nouveau filtre anti aliasing DLSS dont nous avons parlé un peu plus haut.

Enfin terminons avec l’annonce du package API/DLL Scanner. Nvidia propose à ses partenaires d’implanter dans leurs logiciels maisons, une technologie d’overclocking automatique.

En sachant que chaque GPU ne dispose pas forcement du même potentiel de ce domaine, l’idée est d’accomplir des tests afin de déterminer une courbe optimale de fréquence et de tensions. Les capacités de la carte graphique sont analysées pour déterminer les meilleurs paramètres. A noter que Scanner ne sera pas exclusif aux RTX.

Voici pour finir, un bilan autour des caractéristiques de ces GeForce RTX 20 series.

GeForce RTX 2070GeForce RTX 2080GeForce RTX 2080 Ti
Architecture Turing – 12 nm FFNTuring – 12 nm FFNTuring – 12 nm FFN
GPUTU106TU104TU102
Nombre de transistors10.8 milliards13.6 milliards18.6 milliards
Surface du die445 mm²545 mm²754 mm²
Blocs SM364668
CUDA Core230429444352
Tensor Core288368544
RT Core364668
ROPs646488
TMU144184272
Fréquence de base 141015151350
Fréquence Boost 1620 / 1710 (FE)1710 / 18001545 / 1635
Mémoire GDDR68 Go8 Go11 Go
Fréquence mémoire14 Gbps
Bus mémoire256 bits256 bits352 bits
Jérôme Gianoli

Aime l'innovation, le hardware, la High Tech et le développement durable. Soucieux du respect de la vie privée.

Partager
Publié par
Jérôme Gianoli

Article récent

GeForce RTX 5070 Ti, VRAM augmentée et TDP plus élevé

Les premières informations sur la GeForce RTX 5070 Ti, prévue pour début 2025, indiquent des… Lire d'avantage

16/12/2024

SSD PCIe 5.0 x4 Platinum P51, SK hynix annonce du 14,7 Go/s !

Annoncé en mars dernier, le SK hynix Platinum P51 PCIe 5.0 est enfin lancé en… Lire d'avantage

16/12/2024

FA200, Acer dévoile un nouveau SSD PCIe 4.0 x4

Acer lève le voile sur sa gamme de SSD FA200 PCIe 4.0. Visant le milieu… Lire d'avantage

16/12/2024

Kioxia Exceria Plus G4 : Un SSD M.2 NVMe Gen 5 milieu de gamme prometteur

Kioxia a dévoilé l'Exceria Plus G4, un SSD M.2 NVMe qui promet des débits musclés… Lire d'avantage

16/12/2024

Mastic Putty de Thermal Grizzly : une alternative aux pads thermiques

Le mastic thermique de Thermal Grizzly se positionne comme une solution haut de gamme pour… Lire d'avantage

16/12/2024

Windows 11 et les PCs non pris en charge, il est temps de clarifier la situation

Un récent article de PCWorld, a semé une confusion en affirmant que Microsoft aurait assoupli… Lire d'avantage

16/12/2024