Avec l’arrivée de ses GeForce RTX 20 series, Nvidia inaugure une nouvelle architecture GPU nommée Turing. Elle apporte des changements importants face à Pascal (GeForce GTX 1000 series) mais n’est pas totalement inconnue pour autant. Nvidia fait évoluer Volta lancée l’année dernière afin de s’attaquer au marché du gaming.
Avant de voir ses grandes avancées, Turing se distingue physiquement de Pascal avec des GPU bien plus imposants. Sur ce point Nvidia annonce une surface atteignant les 754 mm² pour la version la plus musclée, soit une belle progression face au GP102 de la GTX 1080 Ti et ses 471 mm² . Ce GPU, nommé TU102, se retrouve au cœur de la vitrine de cette nouvelle génération, la GeForce RTX 2080 Ti.
L’augmentation de la taille permet de loger bien plus de transistors soit de quoi atteindre les 18,6 milliards.
Tout ceci est mis à contribution pour revoir la distribution des calculs au cœurs de ses GPU. Nous avons des retouches aux niveau des caches, des calculs sur les entiers et les flottants ou encore l’arrivée d’unités dédiées à des tâches très spécifiques.
Nvidia continue d’organiser son architecture autour de la notion de SM (Streaming Multiprocessor). Elle rassemble les unités de calculs Cuda Core (entiers et les flottants) et dispose désormais de 8 Tensor Core et un RT Core.
Les Tensor Core assurent des calculs très spécifiques autour de l’IA et du deep learning tandis que les RT Core sont dédiés aux calculs autour du Ray Tracing.
Avec Turing, les unités Cuda Core sont désormais capables de traiter de manière concomitante des entiers et des réels.
Du coup selon Nvidia le débit en flottants progresse de 36%.
La grosse nouveautés concerne les RT Core, RT pour Ray-Tracing Core. Elle a été à la une de la présentation de Nvidia lors du lancement des GeForce RTX 2080 et 2080 Ti.
L’objectif est de faire progresser la qualité du rendu avec l’arrivée d’une méthode dite hybride. Elle s’appuie sur l’existant, connu sous le nom rasterisation, tout en apportant du Ray-tracing en temps réel.
Le Ray-Tracing ou encore le lancer de rayon offre un rendu bien plus réaliste. Il agit sur la qualité de l’éclairage, des ombres ou encore des reflets. Ce câblage matériel permet à la GeForce RTX 2080 Ti d’être 10 fois plus performante que sa grande sœur, la GeForce GTX 1080 Ti pour réaliser ce type de calculs.
Nvidia joue une carte pour l’avenir car ce rendu hybride n’est pas issu de ses cartons mais de ceux de l’API DirectX RT (DXRT) de Microsoft. Du coup, n’importe quelle carte compatible prenant en charge cette API est aussi compatible. L’avantage se situe par contre sur la présence d’une accélération matérielle qui devrait assurer des performances de premiers plans face à la concurrence. Il n’est pas impossible qu’AMD opte également pour ce choix lors du lancement de sa prochaine génération de Radeon.
Ce Ray-Tracing n’est pas encore généralisé. L’API sera proposée lors du lancement de Windows 10 October 2018 Update tandis que les jeux devront intégrer cette technologie.
Pour revenir aux Tensor Core évoqués un peu plus haut, Nvidia a souhaité les exploités au travers d’un nouveau filtre antialiasing, le DLSS.
Il s’agit de la contraction de Deep Learning Super Sampling. La firme propose aux développeurs d’utiliser un réseau neuronal pour analyser le rendu de leurs titres afin de mettre sur pied un algorithme personnalisé à leur jeu.
Il est naturellement mis en place au travers des Tensor Core. Plus d’une dizaine de titres supportent ce DLSS.
Avec cette nouvelle génération de GeForce, Nvidia apporte la prise en charge du DisplayPort 1.4a avec DSC 1.2. Ce protocole permet d’exploiter un écran à la définition 8K en 60 Hz avec HDR.
A noter que ce dernier est géré nativement. Le moteur vidéo supporte de son côté 2 écrans 8K à 60 Hz. À cela, s’ajoute un port HDMI 2.0b avec la prise en charge de la protection HDCP 2.2.
La carte graphique propose un port USB-C afin de profiter du VirtualLink. Il s’agit de simplifier l’exploitation d’un casque virtuel en limitant le câblage. Nous avons droit à quatre lignes DisplayPort HBR3 (flux vidéos) et 2 canaux USB 3.1 Gen 2 (les données).
La technologie SLI évolue avec l’exploitation d’un lien NVlink déjà connu.
L’objectif est d’augmenter la bande passante.
Turing embarque un moteur d’encodage/décodage vidéo amélioré face à celui de Pascal.
Nous avons des accélérations dans le décodage du HEVC 444 et du VP9 (10/12 bit) ou encore un encodage en temps réel avec du HEVC 8K HDR à 30 images par seconde et des améliorations en HEVC et H.264
Turing s’accompagne d’une nouvelle mémoire vive, la GDDR6. Elle apporte des plus face à l’actuelle GDDR5X en particulier du côté de la bande passante et de l’efficacité énergétique.
L’amélioration des performances n’est pas seulement assurée par des changements matériels.
Nvidia propose différentes solutions pour optimiser le potentiel de ses nouveautés. Par exemple le VRS (Variable Rate Shading) s’adresse aux développeurs afin d’accélérer les calculs. Elles demandent d’être prises en charge par le jeu au travers du GameWorks.
Il s’agit de prioriser la précision du rendu dans une image en mettant en avant certaines zones.
A tout ceci s’ajoute d’autres petites choses comme un algorithme amélioré de compression des textures et le nouveau filtre anti aliasing DLSS dont nous avons parlé un peu plus haut.
Enfin terminons avec l’annonce du package API/DLL Scanner. Nvidia propose à ses partenaires d’implanter dans leurs logiciels maisons, une technologie d’overclocking automatique.
En sachant que chaque GPU ne dispose pas forcement du même potentiel de ce domaine, l’idée est d’accomplir des tests afin de déterminer une courbe optimale de fréquence et de tensions. Les capacités de la carte graphique sont analysées pour déterminer les meilleurs paramètres. A noter que Scanner ne sera pas exclusif aux RTX.
Voici pour finir, un bilan autour des caractéristiques de ces GeForce RTX 20 series.
GeForce RTX 2070 | GeForce RTX 2080 | GeForce RTX 2080 Ti | |
Architecture | Turing – 12 nm FFN | Turing – 12 nm FFN | Turing – 12 nm FFN |
GPU | TU106 | TU104 | TU102 |
Nombre de transistors | 10.8 milliards | 13.6 milliards | 18.6 milliards |
Surface du die | 445 mm² | 545 mm² | 754 mm² |
Blocs SM | 36 | 46 | 68 |
CUDA Core | 2304 | 2944 | 4352 |
Tensor Core | 288 | 368 | 544 |
RT Core | 36 | 46 | 68 |
ROPs | 64 | 64 | 88 |
TMU | 144 | 184 | 272 |
Fréquence de base | 1410 | 1515 | 1350 |
Fréquence Boost | 1620 / 1710 (FE) | 1710 / 1800 | 1545 / 1635 |
Mémoire GDDR6 | 8 Go | 8 Go | 11 Go |
Fréquence mémoire | 14 Gbps | ||
Bus mémoire | 256 bits | 256 bits | 352 bits |
La mise à jour Windows 11 KB5046633 introduit un bug perturbant. Suite à son installation… Lire d'avantage
La GeForce RTX 3050 est une carte graphique d’entrée de gamme et bien qu'elle soit… Lire d'avantage
Depuis plusieurs années le programme Windows Insider donne rendez-vous aux fans de l'OS de Microsoft.… Lire d'avantage
AMD a dévoilé des résultats intéressant autour de son processeur Ryzen AI 9 HX 370.… Lire d'avantage
Microsoft a publié la première image ISO de Windows 11 ARM. Elle permet de faire… Lire d'avantage
MSI élargit son offre de Watercooling AIO (All-in-One) avec l’introduction récente de la série CoreLiquid… Lire d'avantage