Nvidia renouvelle sa gamme de cartes graphiques gaming avec le lancement des GeForce RTX 40 series. La GeForce RTX 4090 est désormais la nouvelle vitrine du constructeur.
Face à son ainée, la GeForce RTX 3090, elle promet un bond en avant des performances. L’objectif est de s’armer pour l’avenir en évoquant le 8K tout en déployant de nouvelles technologies comme le DLSS 3. Son GPU profite de l’architecture Ada Lovelace. Sa mécanique propose de nouveaux SM, des cœurs tensors de 4ième génération, des cœurs RT de 3ième génération ou encore un encodeur NVIDIA (NVENC) de 8e génération prenant en charge l’AV1 plus efficace que le traditionnel H.264.
Que nous parlions de gaming, des créations ou de streaming, les promesses sont nombreuses et alléchantes. Nous vous proposons de vérifier tout ceci au travers d’un test complet d’une version « personnalisée » signée Gigabyte, la GeForce RTX 4090 Gaming OC 24G.
Sommaire
La GeForce RTX 4090 exploite un GPU AD102 issu d’un processus de fabrication 4N de TSMC. Il se compose de 76.3 milliards de transistors répartis sur une surface de 608 mm²
Ce processeur graphique exploite l’architecture graphique Ada Lovelace. Son interface haute est en PCI-Express 4.0 x16 tandis qu’il gère de la mémoire GDDR6X au travers d’un bus 384-bit.
Le diagramme proposé par Nvidia dévoile une organisation profitant du moteur Gigathread en charge d’allouer les ressources. L’architecture Ada Lovelace dispose d’un module nommé OFA contraction d’Optical Flow Accelerator. Nous verrons en fin d’article qu’il joue un rôle essentiel pour la technologie DLSS de troisième génération. Il génère des images entières grâce à l’IA sans solliciter la machinerie de rendu graphique.
La puce embarque deux fois plus d’unités d’encodage multimédia qu’« Ampere ». Cela comprend l’accélération matérielle de l’encodage et décodage AV1. Ce choix améliore les performances dans un contexte de production. La présence de plus d’unités d’encodage multimédia signifie plus de flux de vidéos pouvant être traités en même temps. Les principaux composants de rendu graphique de l’AD102 sont les GPC alias les graphics processing clusters. Nous en retrouvons 12 contre 7 pour le GA102 (Ampere). Il se compose d’un moteur Raster et de 6 TPC (texture processing clusters). Chaque TPC contient deux SM (multiprocesseurs de streaming).
Nvidia explique que les SM ont été retravaillés. Chaque SM contient un cœur RT de 3e génération, un cache L1 de 128 Ko et quatre TMUs. Nous observons 16 cœurs CUDA (FP32), 16 cœurs CUDA (FP32 + INT32), 4 unités de LD/ST (chargement / stockage), un petit cache L0 épaulé du « Warp Sheduler » et du « dispatch » ainsi qu’un fichier de registre et un noyau Tensor de 4e génération.
Du coup par simple multiplication, un SM embarque 128 cœurs CUDA, 4 cœurs Tensor et un cœur RT. Sachant qu’il y a 12 SM par GPC, nous retrouvons un total de 1 536 cœurs CUDA, 48 cœurs Tensor et 12 cœurs RT par GPC soit pour un ensemble de douze GPC 18 432 cœurs CUDA, 576 cœurs Tensor et 144 cœurs RT.
NVIDIA n’a pas mentionné la taille du cache L2, mais il est censé être plus imposant que celui de la génération Ampere.
Ada Lovelace profite également d’une réorganisation de l’exécution sharder (SER). L’idée est de réarranger en amont, pour chaque thread de travail, les charges de travail mathématique afin qu’elles soient traitées le plus efficacement possible par les composants SIMD. Il est promis un impact sur les performances en Rastérisation mais surtout en Ray Tracing. Pourquoi ?
Les performances sont optimales lorsqu’une même opération peut être traitée pour plusieurs cibles. Cela diminue la charge de traitement. En Ray Tracing, chaque rayon engendre un grand nombre de besoins de traitement différents. L’action du SER est de « trier » les opérations pour créer des morceaux de tâches identiques et de les exécuter. L’impact peut être très important. Par exemple sous Cyberpunk 2077, la technologie SER améliore les performances jusqu’à 44% et 29 % avec Portal RTX.
Lors de sa présentation, Nvidia a souhaité souligner que cette technologie est adaptable et modulable. Il existe différentes approches pour le SER et le meilleur choix varie selon le jeu. L’API proposera un contrôle sur le fonctionnement de l’algorithme de tri.
Ada Lovelace profite également d’un moteur de micro-maillage déplacé (Displaced Micro-Meshes) assuré par les cœurs RT de 3e génération. Ces DIMMs élaborent les hiérarchies de volumes englobants (BVH alias Bounding-Volume Hierarchy) de manière plus efficace et moins gourmande en ressource. Nvidia évoque une vitesse accrue d’un facteur 10 et des besoins en mémoire vidéo divisés par 20. Ce maillage structuré de micro-triangles est traité en natif par les cœurs RT de 3ième génération.
L’approche est de représenter des objets à géométrie complexe sous la forme d’un maillage grossier d’un triangle de base. La structure de données BVH se simplifie ce qui soulage les besoins en mémoire et réduit la charge du processeur de ray tracing. Contrairement à Ampere, où les Core RT de 2ième génération doivent traiter toutes les informations de chaque triangle format le maillage, les Core RT de 3ième génération d’Ada LoveLace traitent un triangle accompagné d’un map permettant de reconstruire l’objet et ses interactions avec la lumière.
Les gains se situent à plusieurs échelles, de quoi soulager les besoins en:
Nous avons également la fonctionnalité OMM alias l’Opacity Micro Meshes visant à booster les performances de pixellisation, en particulier avec les objets qui ont une valeur « alpha » (données de transparence). Certains objets composant une scène 3D, tels que les feuilles d’un arbre ont une forme difficile à maitriser pour les cœurs RT en charge de déterminer les interactions avec les rayons de lumière. Les feuilles sont essentiellement des rectangles exploitant des textures mais accompagnés d’un alpha (de transparence). Il permet de créer la forme de la feuille.
Les cœurs RT se retrouvent dans une situation complexe puisque la gestion des rayons avec de tels objets demande de connaitre la forme. Les cœurs RT Ampere ont besoin de plusieurs interactions pour déterminer cette forme. La situation a été résolue avec cette fonctionnalité OMM. Elle créé un maillage de textures rectangulaires qui s’alignent avec les parties de la texture sans donnée alpha. Du coup, les cœurs RT appréhendent mieux la forme exacte de l’objet à traiter. La méthode profite aussi à l’ombrage dans de rendu sans Ray Tracing.
Enfin, la technologie DLSS 3 promet de doubler le nombre d’images par seconde à qualité comparable. Ceci est possible en raison d’une nouvelle avancée nommée AI frame-génération. Le DLSS 3 s’appuie sur le fonctionnement du DLSS 2 tout en générant des images entières de demi trame à l’aide de l’IA. De plus, ces images alternées sont le résultat d’une analyse des trames précédentes et suivantes.
Cela n’est cependant possible que sur l’architecture graphique Ada lovelace, en raison d’un composant matériel , l’OFA (Optical flow accelerator). Il apporte son aide à prédire la prochaine image en créant un champ de flux optique (Optical flow-field).
Son rôle est de permettre au DLSS 3 de connaitre les objets statiques dans une scène 3D dynamique. Ce processus s’appuie sur le format mathématique FP8 pris en charge par les coeurs Tensor de 4e génération. A noter que pour réduire la latence inhérente à cette avancée le DLSS 3.0 s’appuie sur Reflex.
La technologie DLSS 3 utilise l’IA pour générer des images nouvelles et non de simples pixels.
Cette technologie combine des techniques du DLSS actuelles comme les vecteurs de mouvement et les algorithmes d’IA de super résolution avec de nouvelles techniques de génération de trames tirant avantage des fameux OFA que nous avons vus plus haut. De plus, la technologie Reflex est utilisée pour réduire la latence.
A noter que, sachant que le DLSS 3 génère une nouvelle image sans impliquer le jeu, il profite aux titres ayant des ressources limitées en CPU, en particulier ceux qui sont lourds en gestion physique du monde ou proposant un monde vaste et détaillé à l’origine de lourds calculs processeur. Le DLSS 3 permet dans ce cas de dépasser les framerates assurés par le processeur. En clair, nous avons un effet CPU limited moins présent.
Le DLSS 3 fonctionne simultanément avec DLSS Super Resolution (alias DLSS 2) afin de booster les performances dans les charges de travail sollicitant un rendu en Ray Tracing exigeants.
Les jeux DLSS 3 sont rétro compatibles avec la technologie DLSS 2 qui va continuer à s’améliorer, c’est du moins une promesse de Nvidia.
Comme nous l’avons souligné, l’architecture Ada Lovelace dispose de multiprocesseur de streaming amélioré, de cœurs RT (Ray Tracing) de troisième génération, de cœurs Tensor de quatrième génération, d’encodeurs de huitième génération prenant en charge AV1.
Les cœurs Tensor de 4e génération profite du moteur Hopper FP8 Transformer dédié aux charges de travail d’inférence d’IA. Par rapport au FP16, le FP8 réduit de moitié les exigences de stockage de données. Nvidia annonce un doublement des performances de l’IA permettant à la GeForce RTX 4090 d’offrir 2 fois la puissance totale de traitement des Tensor Core de la RTX 3090 Ti.
Ils disposent
La GeForce RTX 4090 est la vitrine de cette nouvelle famille de RTX 40 series. Elle se caractérise par un GPU équipé de 16 384 cœurs CUDA, 512 cœurs Tensors, 128 cœurs RT ; 512 unités de textures ey 176 ROPs. Tout ce petit monde turbine à 2520 MHz en mode boost tandis que la mémoire vidéo est calibrée à 21 Gbps.
Nous retrouvons un total de 24 Go de GDDR6X exploités par un bus 384-bit. La bande passante monte à 1 To /s . La carte s’accompagne du TGP de 450 Watts et introduit une nouvelle connectique d’alimentation additionnelle. Nvidia met fin au traditionnel PCIe 6 ou 8 broches pour un connecteur PCIe 5.0 12+4 broches acceptant 450 ou 600 Watts.
Le bundle comprend en adapteur en Y permettant de connecter la carte à une alimentation d’aujourd’hui. Il demande selon le modèle trois ou quatre PCIe 8 broches.
Voici les branchements possibles.
PCIE 8 broches classiques.
Nouveaux connecteurs PCIe 5.0 12+4 broches.
GeForce RTX 3090 Ti | GeForce RTX 4090 | ||
Graphics Processing Clusters | 7 | 11 | |
Texture Processing Clusters | 42 | 64 | |
Streaming Multiprocessors | 84 | 128 | |
Cœurs CUDA | 10752 | 16384 | |
Cœurs Tensor | 336 (3ième Gen) | 512 (4ième Gen) | |
Cœurs RT | 84 (2ième Gen) | 128(3ième Gen) | |
Unités de textures | 336 | 512 | |
ROPs | 112 | 176 | |
Fréquence Boost | 1860 MHz | 2520 MHz | |
Fréquence mémoire | 21 Gbps | 21 Gbps | |
Cache L2 | 6144 KB | 73728 KB | |
VRAM | 24 GB GDDR6X | 24 GB GDDR6X | |
Bus mémoire | 384-bit | 384-bit | |
Bande passante mémoire | 1008 GB/s | 1008 GB/s | |
Texture Rate (Bilinear) | 625 GigaTexels/second | 1290.2 GigaTexels/second | |
Finesse de gravure | Samsung 8N | TSMC 4 nm | |
Nombre de transistor | 28.3 milliards | 76.3 milliards | |
Sorties vidéo | 3 x DisplayPort / 1 x HDMI | 3 x DisplayPort / 1 x HDMI | |
Format | Triple Slot | Triple Slot | |
Connecteur d’alimentation | 1×16-pin (Dongle to 3x 8-Pins) | 1×16-pin (Dongle to 4x 8-Pins) | |
Alimentation – Puissance minimale | 850 Watts | 850 Watts | |
TGP | 450 Watts | 450 Watts | |
Température maximale pour le GPU | 93° C | 90° C | |
Interface PCI Express | PCIe 4.0 | PCIe 4.0 |
Les cœurs Tensors sont dédiés aux calculs hautes performances. Ils sont spécialisés et adaptés aux calculs matriciels et aux opérations mathématiques complexes utilisées dans les applications d’IA et HPC. Le calcul matriciel est utilisé par l’apprentissage profond des réseaux neuronaux et les fonctions d’inférence comme la technologie DLSS 2.1 pour les joueurs.
Les cœurs RT de troisième génération sont des unités matérielles dédiées au Ray Tracong. Nous les retrouvons afin d’accélérer la traversée BVH et l’exécution de calculs de test d’intersection rayon-triangle. Du coup, ces tâches ne sont pas assurées par les SM dont les ressources peuvent être allouées à d’autres calculs. Face à Ampere, Nvidia promet un débit d’intersection Rayon-Triangle 2 fois plus important que celui disponible avec Ampere. Dans le concret, cela permet par exemple d’augmenter les détails du monde du jeu sans avoir d’impact sur les performances actuelles. De son côté, le moteur micro-mesh génère des micro-maillages à la volée pour générer une géométrie supplémentaire, permettant une complexité géométrique accrue sans le coût de construction et de stockage BVH.
La GeForce RTX 4090 disposent de deux encodeurs matériels connus sous le nom de NVENC. Ils assurent une prise en charge du codec vidéo AV1. Ce dernier assure un meilleur rendu que les classiques codecs H.264 ou H.265. C’est une avancée intéressante pour les joueurs amateurs de streaming.
Face à Ampere, le passage d’un à deux moteurs d’encodage permet de paralléliser certains calculs. L’image peut être divisée par deux pour être traitée par les deux encodeurs puis recombinée en un seul flux binaire. Du coup, l’encodage peut être accéléré jusqu’à 2 fois par rapport à l’encodage disponible avec les GeForce RTX 30 series.
Pour ce lancement Gigabyte nous a fait parvenir sa GeForce RTX 4090 Gaming OC 24G. Il s’agit d’une version personnalisée de la carte de référence de Nvidia.
Nous sommes devant une carte graphique très imposante au point où notre ROG STRIX GeForce RTX 3090 White Edition se montre délicate et petite à ses côtés. La voici aux cotés de la GeForce GTX 1060 Founders Edition… 🙂
Il faut faire attention à la compatibilité boitier car la belle demande de la place, beaucoup de place.
Ses dimensions sont de 150.2 x 75.2 mm pour une longueur de 340 mm tandis que son installation nécessite quatre slots PCIe !
Elle est si imposante que Gigabyte propose en bundle un support anti-affaissement se fixant à l’arrière.
Nous avons une carte graphique à la norme PCIe 4.0 x16 équipée des sorties vidéo DisplayPort 1.4 et d’un HDMI 3.1.
Son embonpoint s’explique par son système de refroidissement WINDFORCE. Il occupe toute la surface du PCB et déborde de 10,5 cm à l’arrière.
Cette conception étendue (le SCREEN COOLING) permet, en terminaison de la carte, un passage vertical du flux d’air ce qui assure normalement une meilleure dissipation de la chaleur.
Nous avons une grande chambre à vapeur en contact direct que le GPU entouré de support en contact des VRM. L’ensemble évacue sa chaleur à l’aide de 10 caloducs en cuivre vers deux gros radiateurs à fines ailettes en aluminium.
Ils forment une structure compacte assurant une surface d’échange thermique généreuse. Le tout est accompagné d’une plaque arrière en aluminium jouant un double rôle. Elle renforce le PCB tout en participant au refroidissement de la carte.
Le passage de l’air est assuré par trois ventilateurs de 110 mm accompagnés d’anneaux RGB. Leur nano-lubrifiant au graphène est censé augmenter leur durée de vie face à un ventilateur à palier lisse tandis que leurs pales équipées d’une extrémité triangulaire et de rainures sont censées mieux guider l’air.
La technologoe Alternate Spinning fait tourner les deux ventilateurs externes en sens inverse du ventilateur central afin de minimiser les turbulences de l’air dégagé par les ventilateurs adjacents. Le système est aussi capable de se mettre totalement à l’arrêt. Si le GPU est peu sollicité la carte fonctionne en mode fanless. Avec trois ventilateurs à l’arrêt, elle devient inaudible.
En latéral, un switch propose de choisir entre deux BIOS. Par défaut la carte est proposée avec le mode OC actif. Il assure les meilleures performances. Le deuxième mode s’attaque au bruit de la ventilation avec la promesse de silence. Nous avons pour ce test utilisé la carte avec le mode OC.
Sa mécanique profite de Chokes métalliques certifiés ultra durables, de condensateurs solides ESR de faible hauteur, d’un PCB à 2 oz de cuivre et MOSFET RDS (on) de faible hauteur.
Sa personnalisation passe par l’application Control Center. Elle propose au travers d’une interface claire d’ajuster son RGB, sa ventilation ou encore ses performances. Il est possible de manière très simple de booster sa fréquence GPU mais attention, cela nécessite des connaissances, une solide alimentation et de la patience. Il est possible d’agir sur la tension du GPU, la limite de puissance et la température limite du GPU. Sur ce point, Nvidia annonce 90°C au maximum.
De même, une alimentation de 850 Watts est recommandée pour la GeForce RTX 4090 Founders Edition mais Gigabyte préconise un bloc de 1000 Watts pour sa GeForce RTX 4090 Gaming OC.
Nous avons utilisé des jeux, plusieurs définitions (1080p, 1440P et 2160p), plusieurs benchmarks et des applications GPGPU. Pour chaque titre, tous les paramètres de rendu sont au maximum. Les pilotes graphiques sont les derniers en date à l’heure d’écriture de ce test à savoir les GeForce 521.90.
Configuration Intel socket LGA 1200
Pour son alimentation be quiet! nous a fait parvenir une Dark Power 13 de 1000 Watts.
Cette alimentation répond aux contraintes du label 80 Plus Titanium. Elle s’arme d’un très haut rendement limitant le gaspillage énergétique.
Elle propose une gestion 100% modulaire des câbles et surtout s’arme en natif du nouveau câble 12VHPWR. Il permet d’alimenter notre GeForce RTX 4090 Gaming OC 24 Go à l’aide d’un unique faisceau.
L’adaptateur en Y demandant quatre PCIe 8 broches n’est plus nécessaire, de quoi simplifier le montage, limiter les câbles, optimiser le rangement, améliorer le rendu et optimiser l’organisation des câbles dans le boitier.
Ce 12VHPWR permet de distribuer beaucoup plus de puissance. Il est désormais la norme pour les cartes graphiques de 450 watts et plus. Il faut remonter à 2013 pour revivre un tel changement. A l’époque, le PCIe révision a fait son entrée. Le connecteur PCIe 8 broches fournit jusqu’à 150 watts, alors que son petit frère en 6 broches est limité à 75 watts.
Les cartes graphiques les plus exigeantes actuellement comme notre ROG STRIX GeForce RTX 3090 White Edition nécessitent jusqu’à trois de ces connecteurs 8 broches.
Pour le moniteur nous avons utilisé l’imposant ROG Swift PG32UQX d’Asus.
Jeux vidéo
Benchmarks
Attention.
Dans de nombreux cas, notre GeForce RTX 4090 se montre très puissante au point que le processeur n’arrive pas à suivre. En clair, il est un goulot d’étranglement en Full HD (1080p) voire en 1440p. Cela veut dire que la puissance de la carte n’arrive pas à s’exprimer. Nous nous retrouvons alors avec les performances d’une GeForce RTX 3090 ou 3080 Ti.
Il faut impérativement disposer d’un écran 4K au minium pour profiter au mieux de sa mécanique et ne pas hésiter à activer le Ray Tracing et du Full Option
L’ensemble du monitoring est assuré par GPU-Z. Nous avons torturé cette solution durant 10 minutes en sollicitant au maximum son GPU. Les tests sont faits à l’air libre afin de faire abstraction des performances de refroidissement du boitier. La température de la pièce est de 22°C.
Au repos comme nous l’avons vu, la carte profite d’un mode de refroidissement fanless. Ses trois ventilateurs sont à l’arrêt. Dès une forte sollicitation du GPU, ils se mettent en action à 60% de leur vitesse maximale. Progressivement, ils accélèrent pour se stabiliser à 75% de leur vitesse maximale soit environ 1850 rpm. La température du GPU est bien maitrisée. L’imposant WindForce fait bien son travail avec un GPU se situant à 41°C au repos et 63°C en pleine charge.
A noter que tous les tests sont exécutés avec le BIOS OC de la carte. Le système de refroidissement n’a donc pas un profil orienté silence.
Nous avons un bilan assez positif aux regards des températures. Les nuisances sonores se situent entre 0 et 46.1 dBA selon le niveau de charge. En pleine charge, la carte s’entend avec trois ventilateurs ayant du souffle mais le rendu porte sur les graves ce qui, à l’oreille, est mieux accepté. Face à la ROG Strix GeForce RTX 3090 White Edition, nous avons une différence audible. Cette dernière est bien plus silencieuse en pleine charge.
Nvidia utilise différentes technologies de protection comme un ajustement de la fréquence GPU. Elles tentent de maintenir un bon fonctionnement de la solution graphique tout en évitant les plantages. Des seuils d’alerte sont ainsi constamment sous surveillance comme la température GPU et le TDP. Voici un bilan des fréquences GPU et mémoire.
La fréquence GPU est constante durant toute la durée de notre test. Nous avons une fréquence moyenne de 2542 MHz contre 1312 MHz pour la mémoire vidéo. Il n’y a rien à dire, c’est absolument parfait. Les performances de la carte sont optimales sur le long terme.
Voici les besoins énergétiques de cette GeForce RTX 4090 Gaming OC 24G aux côtés d’autres solutions comme la ROG STRIX GeForce RTX 3090 White Edition et la GeForce RTX 3080 Ti Founders Edition.
Des trois solutions, notre GeForce RTX 4090 se montre la plus gourmande. Sa demande énergétique se situe entre 6.5 et 449 Watts selon son taux de charge contre 34.3 et 388.5 Watts pour la GeForce RTX 3090 et 24.8 à 315.8 pour la GeForce RTX 3080 Ti FE. Il est intéressant de noter que Gigabyte maitrise bien les besoins de sa version custom. Nous sommes à 6.5 Watts contre du 24 et du 34 Watts pour ses deux concurrentes. La différence est énorme car nous sommes au repos, l’état le plus constaté d’un PC….
Les consommations au repos et en burn permettent de calculer le coût annuel de fonctionnement de notre plateforme et son empreinte carbone de fonctionnement.
Notre base de travail est une utilisation quotidienne de 6 heures par jour, 365 jours par an avec un tarif de 0,1558 € le kWh facturé (tarifs réglementé métropole au 01/01/2021 d’EDF pour une puissance souscrite de 6 kVA).
L’indicateur EDF, en gramme d’équivalent CO2 pour la production de 1 kWh, est fixé à 21,6 grammes (période novembre 2020 à novembre 2021). Il est synonyme du taux de rejet de gaz à effet de serre induit par la production de l’électricité consommée.
Nous avons une facture annuelle entre 2.3 et 155.6 € pour une empreinte carbone comprise entre 0.3 et 19 kilogrammes d’équivalent CO2.
Nous avons pris comme référence les performances proposées par la GeForce RTX 3090 Cette référence dispose ainsi d’un indice 100. Nous avons fonctionné avec trois définitions à savoir le 1080p, 1440p et le 2160p. Dans tous les cas, les options graphiques sont au maximum.
Le bilan est rapide. Cette GeForce RTX 4090 est redoutable mais elle a besoin d’une configuration très musclée pour s’exprimer. L’écart est de 30% en Full HD face à la RTX 3090 mais il se creuse en 1440p (+43%) et 4K (+49.5%). Malheureusement notre processeur, le Core i9-12900K, n’a pas la puissance nécessaire pour permettre à cette GeForce RTX 4090 Gaming OC 24 Go de s’exprimer à son plein potentiel.
Sous le benchmark 3DMark en ne considérant que les scores GPU et non une combinaison des deux, nous avons des différences frôlant avec les 100%. Par exemple sous le test Fire Strike Ultra, nous avons un score GPU de 25569 contre 12830 pour la GeForce RTX 3090 !
L’analyse des framerates montre un bilan parfait quelle que soit la définition. Nous constatons des scores très proches pour ne pas dire identiques avec la RTX 3090 en Full HD en raison des limites de notre processeur. L’écart se creuse surtout en 4K.
Dans cette définition avec des options graphiques au maximum, nous avons un framerate, soit un nombre d’images par seconde, toujours supérieur à 110 ce qui est optimal !
Voici les performances sous différents jeux avec l’activation du Ray Tracing. Nous travaillons toujours avec des options graphiques au maximum. La technologie DLSS n’est pas désactivée pour le moment.
Nous nous sommes concentrés ici sur deux définitions, le 1440p et le 2160p (4K) afin de tenter d’éviter les effets du « CPU limited ». Nous avons une solution 70% plus performante qu’une RTX 3090 en 1440p et 78% en 4K ! C’est parfait.
L’analyse des framerates est réconfortant. Nous avons enfin un jeu et un contexte capable de « calmer » les ardeurs de notre RTX 4090. Nous avons un framerate entre 61 et 121 images par seconde selon le titre. Dans tous les cas, le gameplay est parfait. A nos yeux, il est optimal avec 90 images par seconde ce qui explique notre remarque avec Watch_Dogs Legion et ses 61 fps.
Pour rappel, chaque titre est exécuté avec des options graphiques au maximum et des options Ray tracing au maximum.
L’activation de la technologie DLSS 2 permet d’améliorer tous ces résultats.
Sous le test DLSS Feature Test en 4K, nous avons une augmentation de 70 à 80% de framerate selon la carte (RTX 3080 Ti, RTX 3090 et RTX 4090). Le DLSS 3 semble encore plus percutant avec une envolée d’un facteur 2.3. Nous passons de 57 images par seconde à 133 images par seconde.
Voici maintenant la même étude avec deux jeux en Ray Tracing. Le bilan est un peu moins optimiste pour le DLSS 2.0 puisque nous avons des gains entre 6 et 54% selon le jeu et la définition. Nous avons des situations où la carte graphique n’arrive pas à exprimer toute sa puissance en raison de facteur limitant.
Nous sommes cependant sur une technologie permettant d’apporter un plus non négligeable au gameplay tout en profitant d’un Ray Tracing activé avec des options au maximum.
Nous avons également tenté l’aventure sous Cyberpunk 2077 avec cette fois le DLSS 3 pour la GeForce RTX 4090. Dans les deux définitions tout est au maximum, les options graphiques et le Ray Tracing. La technologie Reflex est aussi activée.
Si sans DLSS nous avons à la base une différence importante face à la RTX 3090, il devient impressionnant avec l’activation du DLSS 2 et DLSS 3. Là où la GeForce RTX 3090 assure en 1440p et 2160p du 89 et 60,5 fps, la GeForce RTX 4090 se situe à 209 et 138 fps.
Vous trouverez ci-dessous les détails des différents benchmarks que nous avons utilisés.
3DMark – Port Royal.
Heaven.
3DMark DirectX Ray Tracing Feature test.
Nvidia positionne cette GeForce RTX 4090 sur les terrains du gaming et de la création en particulier avec son équipement et sa quantité de mémoire vidéo. Cette solution peut être utilisée par accélérer des calculs dans certains contextes comme la création vidéo, le 3D… De nombreuses applications sont capables d’exploiter sa mécanique pour profiter d’une accélération matérielle.
Une nouvelle fois, nous avons pris comme référence les performances de la GeForce RTX 3090. Elle dispose d’un indice de 100 dans notre graphique.
La GeForce RTX 4090 se hisse sans aucun problème à la première place avec des performances bien supérieures à celles de son ainée la GeForce RTX 3090. L’écart entre les deux cartes est de 60% en moyenne. De son côté, la GeForce RTX 3080 Ti est en retard de 4%.
Voici les détails des différents tests que nous avons menés.
Blender 2.9.
OctaneBench
Blencer Benchmark Launcher
V-Ray Benchmark
LuxMark v3.1
Enfin pour terminer, nous avons mis en l’épreuve les deux encodeurs matériels de cette RX 4090 face à l’unique encodeur matériel de la RTX 3090 afin de savoir s’ils permettent de diviser par deux le temps nécessaire à certains traitements vidéo tout en prenant en charge le codec vidéo AV1 en plus du classique H.265.
Nous avons utilisé l’application Black Magic Design afin d’encoder des vidéos en 8K Prores442HQ à 30FPS et 4K Prores422HQ à 30FPS en HEVC et AV1.
Voici les temps nécessaires à ces travaux et ceux mesurés avec la GeForce RTX 3090.
Nous avons des temps divisés par plus de deux en 4K30/H.265 et 8K/H.265 entre les deux cartes. Là où la RTX 3090 demande 33 secondes et 120 secondes, la RTX 4090 termine ces travaux en 14 et 50 secondes. Nous observons des temps en gros identiques avec le codex AV1 montrant la présence d’une prise en charge matérielle. Nous n’avons pas de résultat pour la RTX 3090 car elle ne dispose pas d’une accélération matérielle pour l’AV1.
Nvidia réhausse de manière importante les performances avec cette GeForce RTX 4090. Digne remplaçante des GeForce RTX 3090 (Ti), elle s’accompagne d’une solide mécanique offrant des gains de performances dans tous les domaines. Que nous parlions de gaming, de production vidéo ou de création, nous sommes devant une carte graphique très puissante capable de mettre à genoux le Core i9-12900K. En clair, elle demande une configuration très musclée pour exprimer toutes ses possibilités.En jeu, il faut s’armer d’un écran 4K ou plus pour profiter de ses performances et apprécier la différence face à l’ancienne vitrine du géant. C’est même probablement son principal problème. Elle s’adresse à un marché de niche équipé de tous derniers raffinements. Il ne faut hésiter à adopter du Full Option et du Full Ray Tracing. La technologie DLSS 3 est de son côté prometteuse avec un beau potentiel offrant de nouvelles opportunités aux développeurs avec des mondes et des objets plus riches et détaillés.Notre version Gaming OC de Gigabyte est petit monstre aux dimensions impressionnantes. Il s’agit de la plus grosse carte graphique que nous avons eue entre les mains. Son système de refroidissement maitrise parfaitement la température du GPU ce qui permet de profiter de toutes ses performances dans le temps. En pleine charge, les trois ventilateurs sont audibles mais les décibels ne s’envolent pas. La carte n’est cependant pas silencieuse. Si le bruit est l’ennemi à combattre, le BIOS Silence devrait vous aider.Au final, annoncée au prix public conseillé de 1599 $, cette GeForce RTX 4090 est chère mais elle offre des performances sans concurrence pour le moment. Il s’agit de la plus puissante carte graphique gaming du moment. Sa philosophie va cependant au-delà avec ses 24 Go afin de répondre aux besoins des créateurs. Enfin, elle se montre plus gourmande que son ainée la RTX 3090 et nécessite une alimentation de 850 Watts au minimum pour la Founder Edition. Gigabyte conseille de son côté 1000 Watts.
Les cartes mères LGA 1851 équipées du chipset Intel B860 commencent à apparaître. La ROG… Lire d'avantage
L’utilitaire GPU-Z évolue en version 2.61. Le focus concerne la prise en charge de nouveaux… Lire d'avantage
Les premières informations sur la GeForce RTX 5070 Ti, prévue pour début 2025, indiquent des… Lire d'avantage
Annoncé en mars dernier, le SK hynix Platinum P51 PCIe 5.0 est enfin lancé en… Lire d'avantage
Acer lève le voile sur sa gamme de SSD FA200 PCIe 4.0. Visant le milieu… Lire d'avantage
Kioxia a dévoilé l'Exceria Plus G4, un SSD M.2 NVMe qui promet des débits musclés… Lire d'avantage
Voir commentaires
Et ca y est, on nous colle le bilan carbonne d'une carte graphique maintenant....
Les escrolos, allez tous vous pendre.