Nvidia a renouvelé son offre de cartes graphiques gaming avec l’annonce des GeForce RTX 3000 series dont une nouvelle vitrine la GeForce RTX 3090. Ces nouveautés profitent de l’architecture Ampere issue d’une gravure à 8 mm. Sur le papier, les promesses sont grandes sans toutefois annoncer de révolution. L’objectif d’Ampere est de consolider les avancées introduites par Turing. En parallèle, un nouveau palier de performances est promis. La gamme se compose pour le moment de trois solutions. La GeForce RTX 3090 incarne de son coté la vitrine de cette nouvelle offre. En réalité, il ne s’agit pas d’une carte graphique 100% gaming. Elle se positionne comme la remplaçante de la Titan mais sous l’appellation GeForce. Le marché visé est le haut de gamme, en particulier celui des joueurs exigeants et des créateurs de contenus. Nous vous proposons de découvrir en détail cette solution « ultime » au travers d’une version personnalisée signée Gigabyte, la GeForce RTX 3090 Eagle OC 24G. Architecture Ampere Deux ans après Turing, Nvidia revient sur le devant de la scène avec Ampere. Cette architecture GPU s’accompagne de changements, d’optimisations et d’améliorations. Comme nous l’avons souligné en introduction, Ampere ne propose pas de révolution. L’objectif est autre face à une concurrence qui s’arme en matière de Ray-Tracing et probablement de puissance. Nvidia retravaille des éléments clés tout en profitant d’une gravure plus fine. La gamme des GeForce RTX 3000 series se compose pour le moment de trois modèles exploitant deux GPU différents. Nous retrouvons un GA104 au cœur de la GeForce RTX 3070 et un GA102 dans les mécaniques des GeForce RTX 3080 et 3090. Ce dernier n’est naturellement pas identique car les deux cartes ne proposent pas les mêmes prestations et ne sont pas positionnées au même tarif. La GeForce RTX 3090 prend vie grâce à un GA102-300 tandis que sa petite sœur la GeForce RTX 3080 grâce à un GA102-200. La gravure est du 8 nm (technologie Samsung) tandis que la puce offre une surface de die de 628 mm2 pour un total de 28 milliards de transistors. La différence se fait au niveau de l’équipement activé ou non. Nous parlons des GPC et des SM. Nvidia fait en quelque sorte sa « petite salade » afin de calibrer chaque solution à un niveau de puissance particulier. Nous sommes un peu comme dans le monde de l’automobile avec un moteur en commun mais des puissances en sortie différente. Ainsi, la RTX 3080 dispose de 6 GPCs et 68 SMs là où la RTX 3090 dispose de 7 GPCs et 82 SMs. Ces choix architecturaux permettent de proposer au final 10 496 cœurs Cuda et 328 Cœurs Tensor et 82 cœurs RT pour la 3090 et 8 704 cœurs Cuda, 272 coeurs Tensor et 68 cœurs RT pour la 3080. A titre de comparaison, l’ancienne vitrine de Nvidia sur le segment « Mainstream », la GeForce RTX 2080 Ti, s’équipe de 6 GPcs, 68 SMs soit 4352 cœurs Cuda, 544 cœurs Tensor et 68 cœurs RT. Nous observons ainsi une montée en puissance de l’équipement avec Ampere, ce qui sur le papier se concrétise par une puissance en progression et de nouvelles opportunités en gaming, en particulier autour du 4K. Nous en reparlerons un peu plus bas dans cet article. Nvidia ne s’est pas contenté d’ajuster l’équipement. Nous avons aussi des améliorations et des optimisations autour des trois grands moteurs, à savoir les cœurs RT et Tensor et les SM (Streaming Multiprocessors). Sans trop entrer dans les détails, l’architecture Ampere s’équipe de cœurs Tensor de troisième génération. Exploités pour différents exercices dont la mise en œuvre de la technologie DLSS, ils profitent d’une efficacité plus importante afin d’accroitre d’un facteur 2 ou 4 la puissance de calcul tout en diminuant leur nombre par deux. Les cœurs RT en charge d’assurer une prise en charge matérielle du Ray-Tracing passent en deuxième génération. Nous n’avons pas beaucoup d’information autour de ce changement. Le constructeur évoque une efficacité plus importante et une accélération matérielle disponible en parallèle à l’application du Motion Blur (effet de flou). Enfin concernant les Streaming Multiprocessors, nous avons une organisation autour de quatre clusters équipés chacun de 32 unités de calculs dont 16 sont exclusivement dédiées aux opérations FP32. Ainsi chaque SM peut traiter simultanément 4 x 32 opérations FP32 ou 4 x 16 opérations FP32 et 4 x 16 opérations INT32 (entiers). A cela, le cache L1 grimpe à 128 Ko (64 Ko par SM avec Turing). Du coté des nouveautés, nous avons la prise en charge du codec AV1 en décompression. Il s’agit d’une avancée intéressante car ce format commence à prendre de l’importance dans le monde du streaming. Ses promesses de compression pour la diffusion de contenu permettent de réduire les besoins en bande passante tout en assurant une qualité de rendu en hausse. AV1 – Wikipedia AV1 est un codec vidéo ouvert et libre de droits1 créé en 2018 et conçu pour la diffusion de flux vidéo sur Internet et réseaux IP comme successeur de VP9. (…) il peut atteindre un taux de compression supérieur de 30 à 40 % en moyenne à VP9 et H.265/HEVC et supérieur de 50 % à H.264, le codec vidéo le plus répandu pour le streaming en 2019. AV1 permet donc de diviser par deux l’utilisation de la bande passante par rapport au H.264 mais, en contrepartie, l'implémentation de référence (libaom) consomme nettement plus de ressources de calcul que VP9 et H264, tant pour le codage que pour le décodage. Néanmoins, le développement de libaom a privilégié la correction et l’exhaustivité vis-à-vis du standard, au détriment de l’efficacité ; d’autres implémentations améliorent significativement les performances. Ampere reprend ainsi l’encodeur « maisons » de 7ème génération présent sur Turing mais s’enrichit d’un décodeur de 5ème génération assurant la prise en charge de l’AV2. Nous avons ainsi en encodage la prise en charge des Codecs H.264, H.265 et LossLess et le décodage des codecs AV1, MPEG-2, VC1, VP8, VP9, H.264, H.265 et Lossless. A cela s’ajoute un port HDMI 2.1 capable d’assurer un débit maximal de 48 Gbps, de quoi prendre ne charge un moniteur disposant d’une définition 8K à un taux de rafraichissement de 60 Hz en HDR. Nvidia a également évoqué d’autres axes de travail pour proposer une expérience « gaming » améliorée. L’un d’eux concerne les temps de chargement avec la présentation de la technologie RTX IO. Elle s’appuie sur l’API Directx Storage de Microsoft (2021). L’idée est d’éviter les goulots d’étranglement lors du transport des données de jeux compressées. La solution est de trouver un moyen de se passer du processeur (CPU). Ce dernier assure actuellement la décompression de ses données compressées puis leur envoi au processeur graphique, le GPU. Avec son RTX IO, Nvidia souhaite confier cette tâche de décompression au GPU directement. Cela limite les transports de données et le nombre d’intervenants (CPU et RAM) afin d’accélérer de manière importante le temps de chargement des jeux. Il faut dire que les titres AAA sont de plus en plus exigeants nécessitant le prétraitement d’énorme quantité de données. L’apport du RTX IO sera lié aux performances de l’unité de stockage. En clair pour profiter des meilleurs gains possibles, une unité SSD rapide est nécessaire. Elle permet des débits plus élevés et donc des temps de chargement plus courts. Du coup, il n’est pas impossible que dans un avenir proche les recommandations matérielles de jeux inclus des caractéristiques minimum pour les SSD. Cette technologie n’est pas propre à Ampere. Les GeForce RTX 2000 series seront aussi compatibles tout comme les GeForce GTX 1600 series. Son exploitation demandera une mise à jour des pilotes. Enfin, nous retrouvons un nouveau type de mémoire sur les GeForce RTX 3080 et 3080. La RTX 3070 s’équipe de classique GDDR6 et la GDDR6X est présente sur les deux autres modèles. Elle a été officialisée par Micron au début du mois de septembre 2020. Sa particularité est de profiter d’une modulation du signal P4M4. Sous ce terme savant se cache une solution pour doubler la quantité de données transportées soit de quoi annoncer un débit de 1 To/s et des vitesses dépassant les 19 Gbps contre du 16 Gbps pour la GDDR6. Appliqué à la mécanique des RTX 3080 et 3090 (bus mémoire de 320 et 385-bit), nous avons des bandes passantes mémoire respectives de 760 Go/s et 936 Go/s. GeForce RTX 3090 Eagle OC 24G de Gigabyte. La GeForce RTX 3090 incarne la vitrine de cette nouvelle gamme. Nous sommes sur une solution haut de gamme à la limite du marché « Mainstream ». Facturée 1549 € par Nvidia dans sa version Founders Edition, elle promet d’offrir les meilleures performances du marché tout en se vantant d’un équipement hors norme. Comme le montre le tableau ci-dessous, nous avons d’importantes évolutions mécaniques face à l’ancienne vitrine, la GeForce RTX 2080 Ti. La gravure passe de 12 nm à 8 nm ce qui permet de loger 28 milliards de transistors sur une surface de 628 mm2 contre 18,6 milliards sur 754 mm2 pour la RTX 2080 Ti. Le nombre de GPC grimpe de 6 à 7 et les SMs de 68 à 82. Du coup, les cœurs CUDA se multiplient en passant de 4352 à 10 496 tandis que les Tensor Core chutent de 544 à 328 grâce aux différentes optimisations. De leur côté, le nombre de cœurs RTX grimpe de 68 à 82. Tout ceci s’accompagne de fréquence GPU en légère hausse ce qui permet au final d’augmenter la puissance FP32 et FP15 de 13,5 à 35,6 TFLOPS et et de 26,9 à 35,6 TFLOPS. Nous avons aussi une carte équipée de 24 Go de GDDR6X calibrée à 19,5 Gb/s contre 11 Go de GDDR6 à 14 Gb/s. Modèle GeForce RTX 3090 GeForce RTX 3080 GeForce RTX 2080 Ti GPU GA102-300 GA102-200 TU102-300A Gravure 8 nm 8 nm 12 nm FFN Surface du die 628 mm² 628 mm² 754 mm² Transistors 28 milliards 28 milliards 18,6 milliards GPCs 7 6 6 SMs 82 68 68 CUDA Cores 10496 8704 4352 Tensor Cores 328 272 544 RT Cores 82 68 68 TMUs 656 544 272 ROPs 128 80 88 Fréquence de base du GPU 1395 MHz 1440 MHz 1350 MHz Fréquence Boost du GPU 1695 MHz 1710 MHz 1545 MHz FP32 TFLOPS 35,6 29,8 13,5 FP16 TFLOPS 35,6 29,8 26,9 Tensor TFLOPS (FP16) 285 238 108 RT TFLOPS 69 58 34 Mémoire 24 Go GDDR6X 10 Go GDDR6X 11 Go GDDR6 Interface mémoire 384-bit 320-bit 352-bit Bande Passante mémoire 936 Go/s 760 Go/s 616 Go/s TDP (Enveloppe thermique) 350 W 320 W 260 W Notre version est une solution revisitée par Gigabyte. Nommée la GeForce RTX 3090 Eagle OC 24G, elle s’équipe d’un imposant système de refroidissement. Nous retrouvons une mécanique renforcée, une ventilation semi-Fanless ou encore une plaque arrière. Il est nécessaire de faire attention à sa compatibilité car la belle demande de la place. Elle se présente avec une longueur de 336 mm et nécessite trois slots d’extension pour se loger dans un boitier. Cette gourmandise est due à son imposant système de refroidissement WindForce 3X. Il s’appuie sur trois ventilateurs en charge de propulser l’air au travers de fines ailettes en aluminium parcourues par plusieurs heatpipes. Nous avons deux ventilateurs de 90 et un modèle de 80 mm. Dans tous les cas, il s’agit de ventilateur à palier lisse épaulé d’un nano-lubrifiant au graphène. Leurs ailettes offrent un design triangulaire à leur extrémité tandis que des rainures courbées en surface guident l’air vers l’intérieur de la carte graphique. Ce trio profite de deux technologies. La première nommée 3D Active Fan permet d’avoir un refroidissement semi-fanless. En clair, les trois ventilateurs sont capables de se mettre totalement à l’arrêt si le GPU est à faible charge. Ses besoins en refroidissement sont dans ce cas limités. L’Alternate Spinning fait tourner les deux ventilateurs extérieurs dans la direction opposée de de celui du centre. Selon Gigabyte, ce choix « réduit la turbulence de l’air dégagée par les ventilateurs adjacents tout en augmentant la pression du flux d’air. Une large base en cuivre est en contact avec le GPU et la mémoire vidéo (VRAM). Un ensemble de sept caloducs assurent le transport de la chaleur vers le dissipateur thermique. De manière globale, le design de la carte est simple avec une robe grise en escalier. Une petite touche d’originalité est proposée avec une zone RGB personnalisable via l’application Fusion. Nous retrouvons aussi une plaque arrière jouant un double rôle. Elle vient renforcer la rigidité du PCB tout en proposant une surface supplémentaire de dissipation de la chaleur. Elle met aussi en avant le Screen Cooling. Il s’agit de la conception étendue du dissipateur de chaleur permettant ici un passage de l’air entre le haut et le bas de la carte. La carte embarque un circuit à 15 + 4 phases (14 + 4 pour la carte de référence de Nvidia). Elle puise ses besoins énergétiques d’un port PCIe 4.0 x16 et de deux connecteurs PCIe 8 broches. Une protection contre les surchauffes est présente tandis que plusieurs composants comme les bobines ou encore les condensateurs répondent aux critères de l’Ultra Durable du constructeur. L’équipement comprend trois sorties vidéo DisplayPort 1.4a et deux HDMI 2.1. Il permet aussi du 2-Way NVLink. Gigabyte annonce la présence de 24 Go de GDDR6X à 19 500 MHz exploités au travers d’un bus 384-bit. A l’heure d’écriture de cet article, aucune information n’est disponible concernant les fréquences GPU. Avec la mention OC, nous devrions avoir des valeurs supérieures à celles recommandées par Nvidia. L’application VGA Aorus Utility nous renvoie une fréquence boost à 1725 Mhz (1695 MHz recommandé par Nvidia). Protocole de test Nous avons utilisé des jeux, trois définitions (1080p, 1440P et 2160p), plusieurs benchmarks et un logiciel d’évaluation des prouesses GPGPU. Pour chaque titre, tous les paramètres de rendu sont au maximum. Les pilotes graphiques sont les derniers en date. Configuration Intel socket LGA 2011 Carte mère : Asus ROG Strix Z490-E Gaming Processeur : Intel Core i9-10900K, Mémoire vive : 4×8 Go Dominator Platinum DDR4-3200 CL14, Stockage : SSD Crucial BX300 480 Go + Aorus NVMe Gen 4 2 To Alimentation : Dark Power Pro 11 1200 Watts Dissipateur : Ventirad Noctua NH-U12A. Jeux vidéo Metro Exodus Far Cry Primal Shadow of Tom Raider Doom Eternal Far Cry 5 Total War : Warhammer Horizon Zero Dawn Benchmarks Valley 1.0 (Mode Extreme, Full HD, 1440p, AA 8X), Heaven 4.0 (Mode Extreme, Full HD, 1440p, AA 8X), 3DMark Fire Strike (Performance, Extreme, Ultra) 3DMark Time Spy 3DMark Port Royal 3DMark DSLL Feature Test en 2160P V-Ray Benchmark 4.1. V-Ray Benchmark est une application qui teste les performances d’un PC lors de rendus de plusieurs scènes V-Ray avec le processeur, le GPU ou les deux. OctaneBench 2020.1.5 Test de rendu 3D avec activation ou non du RTX. Blender v2.9 Puissant outil de développement pour créer des images et animations 3D. Cette version apporte la prise en charge de l’OptiX chez Nvidia soit une accélération matérielle avec une GeForce ou Quadro RTX. Cela concerne le rendu et le viewport. LuxMark 3.0 Cette application exploite l’API OpenCL pour exécuter des calculs de rendu 3D. Il est possible de travailler uniquement avec le GPU, le CPU ou encore les deux en même temps (idéal pour se rendre compte de la différence de performance qu’il existe entre un processeur et une solution graphique). Mieux encore, ce benchmark existe sur différents environnements comme Linux, OS X et Windows. Il livre un score et des indices de valeurs Samples/sec et Rays/sec. Vous retrouverez les scores avec Luxmark v3.1 et la scènes Luxball HDR. GeForce RTX 3090 Eagle OC 24G, refroidissement et nuisances sonores L’ensemble de monitoring est assuré par GPU-Z. Nous avons torturé cette solution durant 10 minutes en sollicitant au maximum son GPU. Les tests sont faits à l’air libre afin de faire abstraction des performances de refroidissement du boitier. Au repos, le GPU se stabilise à 50°C tandis que les trois ventilateurs de la carte sont à l’arrêt. Le mode Fanless est actif. Dès une forte sollicitation du GPU, la température grimpe et le système de refroidissement de la carte se met en route. Les trois ventilateurs augmentent leur vitesse pour se stabiliser au bout de 10 minutes à 76% de leur vitesse maximale. La température GPU est de son coté à 66°C ce qui n’est pas excessif. Le mode fanless avec un GPU au repos permet de rendre inaudible la carte. Aucun bruit mécanique est là. A 75% de leur vitesse maximale, les trois ventilateurs ne sont pas bruyants. Notre sonomètre enregistre une valeur de 40,3 dBA. Nous ne pouvons pas parler d’une carte silencieuse mais elle reste discrète du moins à l’air libre. GeForce RTX 3090 Eagle OC 24G, stabilité des fréquences. Nvidia utilise différentes technologies de protection comme un ajustement de la fréquence GPU afin de maintenir un bon fonctionnement de ses solutions graphiques. Des seuils d’alerte sont ainsi constamment sous surveillance comme la température GPU et le TDP. Voici un bilan des fréquences GPU et mémoire selon deux scénarios. Dans le premier, la limite TDP n’est jamais dépassée et la température GPU est à 66°C. Nous observons de petits ajustements de fréquences GPU mais de manière générale elle reste stable. Durant cet exercice de 10 minutes, nous avons une fréquence GPU moyenne de 1720 MHz contre 1220 MHz pour la mémoire. Dans le second cas, la limite TDP est dépassée à plusieurs reprises. Nous observons une courbe de fréquences GPU plus chaotique avec un écart plus important entre les valeurs maximale et minimale. Sur l’ensemble du test, nous avons ici une fréquence GPU moyenne de 944 MHz. La mémoire reste de son côté calibrée à 1220 MHz. Nous avons aucune fluctuation. GeForce RTX 3090 Eagle OC 24G, consommations électriques Voici les besoins énergétiques de cette GeForce RTX 3090 Eagle OC 24G et d’une GeForce RTX 2080 Ti. Dans le premier cas, nous avons une demande comprise entre 27,3 et 347,8 Watts contre 5,8 et 259,6 Watts dans le second. Nous parlons ici d’une consommation moyenne de la carte durant un test intensif. En réalité, notre plateforme avec son processeur Core i9-10900K est à l’origine de pics pouvant dépasser durant un court instant les 850 Watts. Nous parlons ici de la consommation de l'ensemble de notre configuration. Nous vous conseillons une alimentation puissante proposant une solide mécanique et répondant au label 80Plus Platinum ou Titanium. A nos yeux du 850 Watts est vraiment un minimum. GeForce RTX 3090 Eagle OC 24G, les performances gaming. Voici pour débuter un bilan face à sa grande sœur la GeForce RTX 2080 Ti. Cette référence est considérée dans notre graphique comme la référence. Elle dispose ainsi d’un indice 100. Nous avons fonctionné avec trois définitions, du 1080p, du 1440p et du 2160p. La GeForce RTX 2080 Ti est dépassée quel que soit la définition. Plus cette dernière est élevée et plus l’écart se creuse entre les deux solutions. En 4K, notre GeForce RTX 3090 Eagle OC 24G se montre 50% plus performante en moyenne. Il est important de noter que le niveau de puissance des cartes graphiques peut mettre en difficulté le processeur. Dans cette situation, il devient un goulot d’étranglement empêchant d’avoir la réelle différence entre ces deux solutions. Ces chiffres sont donc liés à notre configuration. Dans les détails, le bilan est clair. Avec des options graphiques au maximum, le framerate est musclé. Le record est probablement Doom Eternal avec 409 images par seconde contre 265 pour la RTX 2080 Ti. Le 4K est parfaitement exploitable avec 83 images par seconde au minimum. Par contre, Metro Exodus est un titre très gourmand. Nous enregistrons un framerate entre 40 et 85 images par seconde selon la définition. Il chute entre 28 et 61 images par seconde avec la RTX 2080 Ti. La différence entre les deux cartes avec l’activation des technologies RTX et DLSS est plus stable selon la définition. Nous sommes aux alentours des 35%. A noter que les performances font un bond en avant avec l’activation du DLSS sous Metro Exodus. Pour s’en convaincre, voir un bilan de cette technologie en 4K le test DLSS Feature Test de 3DMark. Le gain est de 157% pour la GeForce RTX 3090 Eagle OC 24G et de 158% pour la GeForce RTX 2080 Ti. Vous trouverez ci-dessous les détails des différents benchmarks que nous avons utilisés. 3DMark - Fire Strike 3DMark - Port Royal 3DMark - Time Spy Valley et Heaven GeForce RTX 3090 Eagle OC 24G, les performances « création ». Comme nous l’avons souligné en introduction, cette GeForce RTX 3090 est la remplaçante de la Titan. Elle se positionne sur un terrain mixte. En clair, si les joueurs peuvent espérer les meilleures performances gaming du moment, la carte vise surtout les créateurs. C’est justement ce qui explique la présence de 24 Go de VRAM. Une telle quantité de mémoire est là pour répondre aux impératifs de la création 3D, des textures haute résolution et des flux imposants de données. Elle simplifie aussi le rendu. Par exemple dans certaines applications de créations, un manque de mémoire vidéo peut faire planter l’application ou entrainer des dysfonctionnements. Il faut alors travailler par « morceau » ou revoir à la baisse le niveau de détail. Avec 24 Go de VRAM, la carte se montre aussi mieux armée pour la manipulation de fichiers vidéo 8K (montage vidéo, corrections de couleurs, effets visuels…). Voici un bilan sous Blender v2.9. Ce logiciel de création 3D est très populaire. Open Source, il regorge de possibilités allant de la modélisation 3D à l’animation 2D en passant par le rendu, la simulation, l’animation ou encore le motion tracking. Cette version prend en charge le rendu accéléré Optix Nvidia. Il peut être utilisé pour un rendu final et le rendu en temps réel dans le Viewport. Nous l’avons utilisé pour le rendu final avec trois scènes différentes Simultaneous Render JunkShop, Pavillon Barcelone et ClassRomm. Limitant les risques de « CPU limited », nous avons avec cette application une importante différence avec la GeForce RTX 2080 Ti. La RTX 3090 permet de diviser par deux les temps nécessaires au rendu final. Nous avons ainsi une puissance doublée pour ce type de travaux. Le même bilan est constaté sous V-Ray Benchmark. Le score, suite au rendu de plusieurs scènes, est plus que doublé. Sous OctaneBench (rendu de 12 scènes), nous observons plusieurs choses. Tout d’abord l’activation du RTX permet d’accélérer le calcul. Ensuite, la GeForce RTX 3090 se détache nettement avec un score de 677,1 contre 355,1 pour la RTX 2080 Ti. Enfin, le verdict est identique avec LuxMark 3.1. La GeForce RTX 3090 signe des scores deux fois plus importants. GeForce RTX 3090 Eagle OC 24G, conclusion
Plus de 400 images par seconde sous Doom en Full HD Full Option….vivement les écrans 360 Hz !
Sacré carte mais…sacré tarif clairement pas grand public
Test complet 🙂