Gigabyte se positionne sur la nouvelle GeForce RTX 4080 16 Go de Nvidia au travers de plusieurs modèles personnalisés dont la GeForce RTX 4080 Gaming OC.
A l’image de sa grande sœur, la GeForce RTX 4090 Gaming OC, elle s’équipe d’un très imposant système de refroidissement. Son installation demande de la place tandis que son alimentation s’appuie sur le nouveau connecteur 12VHPWR. La carte se vante d’une robe travaillée mettant en avant un rétroéclairage RGB tandis que deux BIOS sont disponibles. Ils proposent des profils assez différents puisque le premier promet du silence et le second propose un overclocking en sortie de carton.
Nous l’avons mise à l’épreuve pour connaitre en détail ses prestations. Est-elle à la hauteur de son tarif ? Face à la GeForce RTX 4080 Founders Edition, les gains de performances sont-ils importants ? A l’usage, le carte se montre-t-elle performante et silencieuse ?
La GeForce RTX 4090 exploite un GPU AD102 issu d’un processus de fabrication 4N de TSMC. Il se compose de 76.3 milliards de transistors répartis sur une surface de 608 mm²
Ce processeur graphique exploite l’architecture graphique Ada Lovelace. Son interface haute est en PCI-Express 4.0 x16 tandis qu’il gère de la mémoire GDDR6X au travers d’un bus 384-bit.
Le diagramme proposé par Nvidia dévoile une organisation profitant du moteur Gigathread en charge d’allouer les ressources. L’architecture Ada Lovelace dispose d’un module nommé OFA contraction d’Optical Flow Accelerator. Nous verrons en fin d’article qu’il joue un rôle essentiel pour la technologie DLSS de troisième génération. Il génère des images entières grâce à l’IA sans solliciter la machinerie de rendu graphique.
La puce embarque deux fois plus d’unités d’encodage multimédia qu’« Ampere ». Cela comprend l’accélération matérielle de l’encodage et décodage AV1. Ce choix améliore les performances dans un contexte de production. La présence de plus d’unités d’encodage multimédia signifie plus de flux de vidéos pouvant être traités en même temps. Les principaux composants de rendu graphique de l’AD102 sont les GPC alias les graphics processing clusters. Nous en retrouvons 12 contre 7 pour le GA102 (Ampere). Il se compose d’un moteur Raster et de 6 TPC (texture processing clusters). Chaque TPC contient deux SM (multiprocesseurs de streaming).
Nvidia explique que les SM ont été retravaillés. Chaque SM contient un cœur RT de 3e génération, un cache L1 de 128 Ko et quatre TMUs. Nous observons 16 cœurs CUDA (FP32), 16 cœurs CUDA (FP32 + INT32), 4 unités de LD/ST (chargement / stockage), un petit cache L0 épaulé du « Warp Sheduler » et du « dispatch » ainsi qu’un fichier de registre et un noyau Tensor de 4e génération.
Du coup par simple multiplication, un SM embarque 128 cœurs CUDA, 4 cœurs Tensor et un cœur RT. Sachant qu’il y a 12 SM par GPC, nous retrouvons un total de 1 536 cœurs CUDA, 48 cœurs Tensor et 12 cœurs RT par GPC soit pour un ensemble de douze GPC 18 432 cœurs CUDA, 576 cœurs Tensor et 144 cœurs RT.
NVIDIA n’a pas mentionné la taille du cache L2, mais il est censé être plus imposant que celui de la génération Ampere.
Ada Lovelace profite également d’une réorganisation de l’exécution sharder (SER). L’idée est de réarranger en amont, pour chaque thread de travail, les charges de travail mathématique afin qu’elles soient traitées le plus efficacement possible par les composants SIMD. Il est promis un impact sur les performances en Rastérisation mais surtout en Ray Tracing. Pourquoi ?
Les performances sont optimales lorsqu’une même opération peut être traitée pour plusieurs cibles. Cela diminue la charge de traitement. En Ray Tracing, chaque rayon engendre un grand nombre de besoins de traitement différents. L’action du SER est de « trier » les opérations pour créer des morceaux de tâches identiques et de les exécuter. L’impact peut être très important. Par exemple sous Cyberpunk 2077, la technologie SER améliore les performances jusqu’à 44% et 29 % avec Portal RTX.
Lors de sa présentation, Nvidia a souhaité souligner que cette technologie est adaptable et modulable. Il existe différentes approches pour le SER et le meilleur choix varie selon le jeu. L’API proposera un contrôle sur le fonctionnement de l’algorithme de tri.
Ada Lovelace profite également d’un moteur de micro-maillage déplacé (Displaced Micro-Meshes) assuré par les cœurs RT de 3e génération. Ces DIMMs élaborent les hiérarchies de volumes englobants (BVH alias Bounding-Volume Hierarchy) de manière plus efficace et moins gourmande en ressource. Nvidia évoque une vitesse accrue d’un facteur 10 et des besoins en mémoire vidéo divisés par 20. Ce maillage structuré de micro-triangles est traité en natif par les cœurs RT de 3ième génération.
L’approche est de représenter des objets à géométrie complexe sous la forme d’un maillage grossier d’un triangle de base. La structure de données BVH se simplifie ce qui soulage les besoins en mémoire et réduit la charge du processeur de ray tracing. Contrairement à Ampere, où les Core RT de 2ième génération doivent traiter toutes les informations de chaque triangle format le maillage, les Core RT de 3ième génération d’Ada LoveLace traitent un triangle accompagné d’un map permettant de reconstruire l’objet et ses interactions avec la lumière.
Les gains se situent à plusieurs échelles, de quoi soulager les besoins en:
Nous avons également la fonctionnalité OMM alias l’Opacity Micro Meshes visant à booster les performances de pixellisation, en particulier avec les objets qui ont une valeur « alpha » (données de transparence). Certains objets composant une scène 3D, tels que les feuilles d’un arbre ont une forme difficile à maitriser pour les cœurs RT en charge de déterminer les interactions avec les rayons de lumière. Les feuilles sont essentiellement des rectangles exploitant des textures mais accompagnés d’un alpha (de transparence). Il permet de créer la forme de la feuille.
Les cœurs RT se retrouvent dans une situation complexe puisque la gestion des rayons avec de tels objets demande de connaitre la forme. Les cœurs RT Ampere ont besoin de plusieurs interactions pour déterminer cette forme. La situation a été résolue avec cette fonctionnalité OMM. Elle créé un maillage de textures rectangulaires qui s’alignent avec les parties de la texture sans donnée alpha. Du coup, les cœurs RT appréhendent mieux la forme exacte de l’objet à traiter. La méthode profite aussi à l’ombrage dans de rendu sans Ray Tracing.
Enfin, la technologie DLSS 3 promet de doubler le nombre d’images par seconde à qualité comparable. Ceci est possible en raison d’une nouvelle avancée nommée AI frame-génération. Le DLSS 3 s’appuie sur le fonctionnement du DLSS 2 tout en générant des images entières de demi trame à l’aide de l’IA. De plus, ces images alternées sont le résultat d’une analyse des trames précédentes et suivantes.
Cela n’est cependant possible que sur l’architecture graphique Ada lovelace, en raison d’un composant matériel , l’OFA (Optical flow accelerator). Il apporte son aide à prédire la prochaine image en créant un champ de flux optique (Optical flow-field).
Son rôle est de permettre au DLSS 3 de connaitre les objets statiques dans une scène 3D dynamique. Ce processus s’appuie sur le format mathématique FP8 pris en charge par les coeurs Tensor de 4e génération. A noter que pour réduire la latence inhérente à cette avancée le DLSS 3.0 s’appuie sur Reflex.
La technologie DLSS 3 utilise l’IA pour générer des images nouvelles et non de simples pixels.
Cette technologie combine des techniques du DLSS actuelles comme les vecteurs de mouvement et les algorithmes d’IA de super résolution avec de nouvelles techniques de génération de trames tirant avantage des fameux OFA que nous avons vus plus haut. De plus, la technologie Reflex est utilisée pour réduire la latence.
A noter que, sachant que le DLSS 3 génère une nouvelle image sans impliquer le jeu, il profite aux titres ayant des ressources limitées en CPU, en particulier ceux qui sont lourds en gestion physique du monde ou proposant un monde vaste et détaillé à l’origine de lourds calculs processeur. Le DLSS 3 permet dans ce cas de dépasser les framerates assurés par le processeur. En clair, nous avons un effet CPU limited moins présent.
Le DLSS 3 fonctionne simultanément avec DLSS Super Resolution (alias DLSS 2) afin de booster les performances dans les charges de travail sollicitant un rendu en Ray Tracing exigeants.
Les jeux DLSS 3 sont rétro compatibles avec la technologie DLSS 2 qui va continuer à s’améliorer, c’est du moins une promesse de Nvidia.
Comme nous l’avons souligné, l’architecture Ada Lovelace dispose de multiprocesseur de streaming amélioré, de cœurs RT (Ray Tracing) de troisième génération, de cœurs Tensor de quatrième génération, d’encodeurs de huitième génération prenant en charge AV1.
Les cœurs Tensor de 4e génération profite du moteur Hopper FP8 Transformer dédié aux charges de travail d’inférence d’IA. Par rapport au FP16, le FP8 réduit de moitié les exigences de stockage de données. Nvidia annonce un doublement des performances de l’IA permettant à la GeForce RTX 4090 d’offrir 2 fois la puissance totale de traitement des Tensor Core de la RTX 3090 Ti.
Ils disposent
La GeForce RTX 4080 16 Go fait partie de l’offre phare de Nvidia. Elle se positionne comme une vitrine aux cotés de sa grande sœur, la GeForce RTX 4090. Son GPU est composé de 45.9 milliards de transistors. Ils s’organisent pour donner naissance à 7 Graphics Processing Clusters, 38 Texture Processing Clusters et 76 Streaming Multiprocessors. Tout ceci permet de profiter de 9728 cœurs CUDA, 304 cœurs Tensors de quatrième génération, 76 cœurs RT de 3ième génération, 304 unités de texture et 112 ROPs.
Nvidia calibre la fréquence GPU boost à 2505 MHz tandis que la mémoire vidéo (16 Go de GDDR6X) turbine à 11200 MHz (22.4 Gbps). Elle est exploitée au travers d’un bus 256-bit. Tout ceci offre une bande passante de 716.8 Go/s.
L’équipement de la Founders Edition comprend trois DisplayPort et un HDMI permettant du 4K à 240 Hz au maximum et du 8k à 60 Hz. Son enveloppe thermique est de 320 Watts tandis que Nvidia conseille un bloc de 750 Watts au minimum pour assurer son alimentation. Le bundle comprend un adaptateur 3 x PCIe 8 broches vers un 16 broches (12VHPWR). Cette connectique d’alimentation additionnelle abandonne les connecteurs PCIe 6 ou 8 broches pour un connecteur PCIe 5.0 12+4 broches acceptant 450 ou 600 Watts.
Voici un bilan face à sa GeForce RTX 3080 Ti.
GeForce RTX 3080 Ti | GeForce RTX 4080 | |
Graphics Processing Clusters | 7 | 7 |
Texture Processing Clusters | 40 | 38 |
Streaming Multiprocessors | 80 | 76 |
Cœurs CUDA | 10240 | 9728 |
Cœurs Tensor | 320 (3rd Gen) | 304 (4th Gen) |
Cœurs RT | 80 (2nd Gen) | 76 (3rd Gen) |
Unités de texture | 320 | 304 |
ROPs | 112 | 112 |
Fréquence GPU boost | 1665 MHz | 2505 MHz |
Fréquence mémoire | 9500 MHz | 11200 MHz |
Vitesse mémoire | 19 Gbps | 22.4 Gbps |
Cache L2 | 6144 KB | 65536 KB |
VRAM | 12 Go GDDR6X | 16 Go GDDR6X |
Interface mémoire | 384-bit | 256-bit |
Bande passe mémoire | 912 GB/sec | 716.8 GB/sec |
Texture Rate | 532.8 Gigatexels/sec | 761.5 Gigatexels/sec |
Finesse de gravure | Samsung 8 nm 8N NVIDIA Custom Process | TSMC 4N NVIDIA Custom Process |
Nombre de transistors | 28.3 billion | 45.9 billion |
Sorties vidéo | 3 x DisplayPort 1 x HDMI | 3 x DisplayPort 1 x HDMI |
Définition / Taux de rafraichissement | 4K at 240Hz or 8K at 60Hz with DSC | 4K at 240Hz or 8K at 60Hz with DSC |
Facteur de forme | 2 Slots | 3 Slots |
Alimentation | 1×16-pin (Dongle to 2x 8-Pins) | 1×16-pin (Dongle to 3x 8-Pins) |
Alimentation | 750 Watts | 750 Watts |
Total Graphics Power (TGP) | 350 Watts | 320 Watts |
Température GPU Maximale | 93° C | 90° C |
PCI Express | Gen 4 | Gen 4 |
Les cœurs Tensors sont dédiés aux calculs hautes performances. Ils sont spécialisés et adaptés aux calculs matriciels et aux opérations mathématiques complexes utilisées dans les applications d’IA et HPC. Le calcul matriciel est utilisé par l’apprentissage profond des réseaux neuronaux et les fonctions d’inférence comme la technologie DLSS 2.1 pour les joueurs.
Les cœurs RT de troisième génération sont des unités matérielles dédiées au Ray Tracong. Nous les retrouvons afin d’accélérer la traversée BVH et l’exécution de calculs de test d’intersection rayon-triangle. Du coup, ces tâches ne sont pas assurées par les SM dont les ressources peuvent être allouées à d’autres calculs. Face à Ampere, Nvidia promet un débit d’intersection Rayon-Triangle 2 fois plus important que celui disponible avec Ampere. Dans le concret, cela permet par exemple d’augmenter les détails du monde du jeu sans avoir d’impact sur les performances actuelles. De son côté, le moteur micro-mesh génère des micro-maillages à la volée pour générer une géométrie supplémentaire, permettant une complexité géométrique accrue sans le coût de construction et de stockage BVH.
La GeForce RTX 4080 disposent de deux encodeurs matériels connus sous le nom de NVENC. Ils assurent une prise en charge du codec vidéo AV1. Ce dernier assure un meilleur rendu que les classiques codecs H.264 ou H.265. C’est une avancée intéressante pour les joueurs amateurs de streaming.
Face à Ampere, le passage d’un à deux moteurs d’encodage permet de paralléliser certains calculs. L’image peut être divisée par deux pour être traitée par les deux encodeurs puis recombinée en un seul flux binaire. Du coup, l’encodage peut être accéléré jusqu’à 2 fois par rapport à l’encodage disponible avec les GeForce RTX 30 series.
Cette version personnalisée de Gigabyte est très imposante. Elle reprend le format de sa grande sœur, la GeForce RTX 4090 Gaming OC 24G. Pour vous donner une idée, la voici sur une carte mère Mini-ITX !
A noter que le bundle comprend un support anti-affaissement se fixant à l’arrière.
Il faut donc faire attention à la compatibilité de son boitier.
La belle affiche des dimensions de 150 x 75 mm pour une longueur de 342 mm.
Son équipement comprend trois sorties vidéo DispayPort 1.4a et une sortie HDMI 2.1. Gigabyte utilise le nouveau connecteur 12VHPWR.
Par contre, contrairement à sa grande sœur la GeForce RTX 4090 Gaming OC 24G, l’adapteur en Y proposé en bundle comprend trois PCIe 8 broches et non quatre.
Sur la question de l’alimentation, Nvidia recommande 750 Watts mais cette RTX 4080 Gaming OC est un peu plus gourmande avec 850 Watts.
Pour poursuivre du côté de son équipement, nous avons le choix entre un BIOS visant le silence et un BIOS proposant un overclocking en sortie de carton. C’est le choix que nous avons fait pour ce dossier. Gigabyte annonce sur son site Internet un GPU propulsé 2535 MHz et non 2505 MHz (fréquence de référence de Nvidia). Les 16 Go de GDDR6 sont de leur coté calibrés à 22.4 Gbps et exploités via un bus mémoire 256-bit.
Le format de la carte s’explique par son système de refroidissement WindForce. Nous retrouvons également un rétroéclairage Fusion avec des anneaux RGB au niveau de chaque ventilateur et une zone en latéral.
La personnalisation passe par l’application Control Center. Il s’agit d’un HUB rassemblant plusieurs utilitaires permettant un ajustement de l’éclairage, de la ventilation et des performances. De manière simple, il est possible d’augmenter la fréquence GPU mais attention, cela nécessite des connaissances, une solide alimentation et de la patience. Les actions sont multiples avec la possibilité d’agir sur la tension GPU, la limite de puissance et la température maximale du GPU. Sur ce point, Nvidia annonce 90°C au maximum.
La dissipation de chaleur est assurée par deux imposants radiateurs constitués de fines ailettes en aluminium et disposées verticalement. Ils sont tous les deux parcourus par 11 caloducs en cuivre en charge de transporter la chaleur de la base en cuivre recouvrant les VRM et comportant une chambre à vapeur en contact direct avec le GPU.
Le système « WindForce » occupe toute la surface du PCB et déborde de 10,5 cm à l’arrière.
Cette conception étendue (le SCREEN COOLING) permet, en terminaison de la carte, un passage vertical du flux d’air. Il traverse l’un des deux radiateurs et ne rencontre aucun obstacle ce qui assure normalement une meilleure dissipation de la chaleur.
Le passage de l’air est confié à trois ventilateurs de 110 mm. Ils bénéficient de la technologie Alternate Spinning. Elle fait tourner les deux unités externes en sens inverse du ventilateur central afin de minimiser les turbulences de l’air dégagé par les ventilateurs adjacents.
Nous avons aussi un mode Fanless. Le système est ainsi capable de se mettre totalement à l’arrêt à faible charge GPU. Si le GPU est peu sollicité, les trois ventilateurs se mettent à l’arrêt et la carte devient inaudible.
Chaque ventilateur s’arme d’un nano-lubrifiant au graphène et de pales aux extrémités triangulaires et vêtues de rainures afin de mieux guider l’air. La carte s’arme d’une plaque arrière jouant un double rôle. Elle offre une surface de dissipation thermique supplémentaire tout en renforçant la rigidité de la carte.
Enfin cette GeForce RTX 4080 Gaming OC 16G s’accompagne d’une garantie de quatre ans. Sa mécanique profite de Chokes métalliques certifiés ultra durables, de condensateurs solides ESR de faible hauteur, d’un PCB à 2 oz de cuivre et de MOSFET RDS (on) de faible hauteur.
Nous avons utilisé des jeux, plusieurs définitions (1440P et 2160p), plusieurs benchmarks et des applications GPGPU. Pour chaque titre, tous les paramètres de rendu sont au maximum. Les pilotes graphiques sont les derniers en date à l’heure d’écriture de ce test. Il s’agit des Drivers Press GeForce 526.72 Game Ready.
Configuration Intel socket LGA 1200
Pour son alimentation be quiet! nous a fait parvenir une Dark Power 13 de 1000 Watts.
Cette alimentation répond aux contraintes du label 80 Plus Titanium. Elle s’arme d’un très haut rendement limitant le gaspillage énergétique.
Elle propose une gestion 100% modulaire des câbles et surtout s’arme en natif du nouveau câble 12VHPWR. Il permet d’alimenter notre GeForce RTX 4090 Gaming OC 24 Go à l’aide d’un unique faisceau.
L’adaptateur en Y demandant quatre PCIe 8 broches n’est plus nécessaire, de quoi simplifier le montage, limiter les câbles, optimiser le rangement, améliorer le rendu et optimiser l’organisation des câbles dans le boitier.
Ce 12VHPWR permet de distribuer beaucoup plus de puissance. Il est désormais la norme pour les cartes graphiques de 450 watts et plus. Il faut remonter à 2013 pour revivre un tel changement. A l’époque, le PCIe révision a fait son entrée. Le connecteur PCIe 8 broches fournit jusqu’à 150 watts, alors que son petit frère en 6 broches est limité à 75 watts.
Les cartes graphiques les plus exigeantes actuellement, comme notre ROG STRIX GeForce RTX 3090 White Edition, nécessitent jusqu’à trois de ces connecteurs 8 broches.
Pour le moniteur, nous avons utilisé l’imposant ROG Swift PG32UQX d’Asus.
Jeux vidéo
Benchmarks
Attention.
Dans certains cas, notre GeForce RTX 4080 Founders Edition se montre très puissante au point que notre configuration n’arrive pas à suivre. Il faut impérativement disposer d’un écran 4K au minimum pour profiter au mieux de sa mécanique et ne pas hésiter à activer le Ray Tracing et du Full Option
L’ensemble du monitoring est assuré par GPU-Z. Nous avons torturé cette solution durant 10 minutes en sollicitant au maximum son GPU. Les tests sont faits à l’air libre afin de faire abstraction des performances de refroidissement du boitier. La température de la pièce est de 23°C.
La carte profite d’un système de refroidissement massif si bien que les performances sont là. En test intensif, le GPU ne dépasse pas la barre des 58°C, ce qui est parfait. Nous sommes très loin des 90°C maximum autorisés par Nvidia. Pour parvenir à ce résultat, les trois ventilateurs se stabilisent à 69% de leur vitesse maximale. Ils turbinent à 1670 rpm environ. Il n’y a rien à redire, le bilan est parfait et permet d’entrevoir de l’overclocking.
Au repos, nous avons un mode Fanless. Les trois ventilateurs ne tournent pas. La carte est inaudible. A plein régime, comme nous venons de le voir, les trois ventilateurs turbinent à 69% de leur vitesse maximale. Notre sonomètre indique 44.5 dBA soit une valeur un peu plus basse que celle de sa grande sœur la RTX 4090 Gaming OC 24G.
Nous avons un souffle présent mais les décibels ne s’envolent pas trop hauts pour évoquer une carte très bruyante. Elle s’entend mais le résultat est parfaitement acceptable. L’édition Founders Edition non overclockée se montre de son coté bien plus silencieuse avec 39.1 dBA.
Le graphique est parlant. La fréquence GPU est assez stable durant tout notre test de stress intense. Nous n’enregistrons aucune « grande fluctuation ». Sa fréquence moyenne en charge est 2761 MHz contre 1400,2 MHz pour le VRAM (mémoire vidéo ou encore le GDDR6). Nous n’avons aucun souci de température si bien que le carte s’exprime à son plein potentiel tout le temps. Il n’y a aucune baisse de performances. Pourquoi ? Nvidia utilise différentes technologies de protection comme un ajustement de la fréquence GPU. L’objectif est de maintenir un bon fonctionnement de la solution graphique tout en évitant les plantages. Des seuils d’alerte sont ainsi constamment sous surveillance comme la température GPU et le TDP.
Voici les besoins énergétiques de cette GeForce RTX 4080 Gaming OC 16G aux côtés d’autres solutions comme la ROG STRIX GeForce RTX 3090 White Edition, la GeForce RTX 3080 Ti Founders Edition ou encore la GeForce RTX 4090 Gaming OC 24G et la GeForce RTX 4080 Founders Edition.
La belle a une consommation se situant entre 5.7 et 339 Watts selon son niveau de sollicitation. Nous sommes légèrement en dessous du bilan de la GeForce RTX 3080 Ti mais au-dessus de celui de la Founders Edition. Il n’y a rien de surprenant puisque que nous avons sélectionné pour ce dossier le BIOS OC. La consommation maximale augmente de 5.6% au maximum ce qui reste parfaitement acceptable.
Remarque.
Cette mesure de consommation correspond aux besoins minimal et maximal de la carte afin de pouvoir faire une évaluation globale de son cout d’exploitation et son empreinte carbone de fonctionnement.
Dans le détail, ses besoins énergétiques varient énormément selon le type d’exercice. L’enveloppe thermique ( TGP) déclarée de 320 W est une information intéressante mais elle ne permet pas de détailler la consommation d’énergie en fonction des usages. En clair, son bilan énergétique n’est pas universel. Il varie en fonction des usages et des besoins.
Le TGP est la limite de puissance maximale pour la fréquence boost du GPU. Elle sera optimisée en fonction de cette limite mais également d’autres paramètres comme la température. Cette puissance peut être atteinte (c’est notre cas dans ce test) avec des applications très gourmandes.
Les consommations au repos et en burn permettent de calculer le coût annuel de fonctionnement et son empreinte carbone de fonctionnement.
Notre base de travail est une utilisation quotidienne de 6 heures par jour, 365 jours par an avec un tarif de 0,174 € le kWh facturé (tarifs réglementé métropole au 01/08/2022 d’EDF pour une puissance souscrite de 6 kVA).
L’indicateur EDF, en gramme d’équivalent CO2 pour la production de 1 kWh, est fixé à 21,6 grammes (période novembre 2020 à novembre 2021). Il est synonyme du taux de rejet de gaz à effet de serre induit par la production de l’électricité consommée.
Nous sommes sur un budget annuel compris entre 2,2 et 130 € contre 9.5 et 132.6 € pour sa grande sœur le RTX 3080 Ti. Son empreinte carbone est également moins importante. Elle se situe entre 0.3 et 16 kilogrammes d’équivalent CO2.
Au final avec des besoins énergétiques légèrement moins élevés que ceux de la RTX 3080 Ti, cette GeForce RTX 4080 Gaming OC 12G se montre moins onéreuse à l’usage. Sachant que ses performances, à l’image de la version Founders Edition, s’envolent, le bilan est optimal !
Nous avons pris comme référence les performances proposées par la GeForce RTX 3090 Cette référence dispose ainsi d’un indice 100. Nous avons fonctionné avec deux définitions à savoir le 1440p et le 2160p. Dans tous les cas, les options graphiques sont au maximum.
Cette GeForce RTX 4080 Gaming OC 12G signe un joli bilan. En 1440p, elle se montre 19 % plus rapide qu’une GeForce RTX 3090 et 22% plus performante que la GeForce RTX 3080 Ti. La différence avec la RTX 4090 est de 11.6%. Gigabyte réhausse aussi le bilan face à la Founders Edition avec un gain moyen de 2.7%
L’écart se creuse et atteint 33.8% en 4K. Nous enregistrons également une belle percée face aux RTX 3090 et 3080 Ti avec une avance de 28.2% et 32.5%. La différence face à la Founders Edition est de 1.9%.
Remarque.
Il est important de souligner que nous sommes devant une carte graphique très puissance. A l’image de la RTX 4090, notre RTX 4080 est capable de mettre en difficulté notre configuration et en particulier notre processeur Core i9-12900K. Voici le même bilan mais avec cette fois seulement les scores GPU relevés par le benchmark 3DMark Fire Strike.
Les différences sont bien plus marquées avec une avance de 41.4 % en 1440p face à la RTX 3080 Ti et 40.1% en 4K. De même, la Founders Edition se positionne derrière dans les deux définitions avec des écarts de 4 et 3.6%.
L’analyse des framerates montre un bilan parfait quelle que soit la définition. Nous travaillons avec des options graphiques au maximum. Dans tous les cas en 1440p, le gameplay est optimal avec des valeurs dépassant généreusement les 90 images par seconde quel que soit le titre.
En 2160p (4K), nous avons également de jolies performances. Le framerate dépasse les 60 images par seconde dans tous les titres. La barre des 90 images par seconde n’est pas atteinte avec trois jeux, Watch_Dogs Legin, A Plague Tale : Requiem et Flight Simulator. Le gameplay reste par contre agréable et ne demande pas d’ajustement des options graphiques.
Voici les performances sous différents jeux avec l’activation du Ray Tracing. Nous travaillons toujours avec des options graphiques au maximum. La technologie DLSS n’est pas désactivée pour le moment.
Nous retrouvons un classement en gros identique. La différence avec la RTX 3080 Ti est par contre plus marquée (+35.3 % en 1440p et 36.1% en 2160p). La GeForce RTX 4090 Gaming OC 24G est intouchable. Face à la RTX 3090, l’écart dépasse les 30% contre 2.5% face à RTX 4080 Founders Edition.
Sans technologie DLSS, l’activation du Ray Tracing a un impact important sur les performances. Les framerates se situent entre 85 et 166 images par seconde en 1440p et entre 47 et 95 images par seconde en 2160p (4K). Watch_Digs est le titre le plus gourmand. Il nécessite d’ajuster les options graphiques pour franchir la barre des 60 fps.
Ce bilan montre que la technologie DLSS est parfois indispensable pour retrouver un gameplay confortable sans toucher au niveau des options graphiques ou du rendu Ray Tracing.
Le test 3DMark – DLSS Feature permet d’avoir une évaluation du « boost » proposé par le DLSS 2 et 3.
Dans le cas de notre GeForce RTX 4080 Gaming OC, nous enregistrons un gain d’un facteur 1.8 avec le DLSS2 et 2.5 avec le DLSS 3. Le framerate en 4K passe de 39.62 images par seconde à 99.22 images par seconde.
Voici maintenant la même étude avec deux jeux en Ray Tracing.
Le bilan est un peu moins optimiste pour le DLSS 2.0 puisque nous avons des gains entre 10 et 66% selon le jeu et la définition. Cela s’explique par le fait que le bilan des performances n’est pas uniquement lié à la carte graphique. Nous avons des situations où cette dernière n’arrive pas à exprimer toute sa puissance en raison de facteurs limitant.
Nous avons également tenté l’aventure sous Cyberpunk 2077, A Plague Tale: Requiem et Flight Simulator avec cette fois uniquement le DLSS 3.
Dans les deux définitions, tout est au maximum (options graphiques et le Ray Tracing) tandis que le DLSS 3 est en mode « performance ». La technologie Reflex est aussi activée.
Le framerate progresse en moyenne d’un facteur 2.32 en 1440p et 2.6 en 2160p, de quoi offrir 109 images par seconde au minimum en 4K avec du Full Option et du Full Ray Tracing.
Vous trouverez ci-dessous les détails des différents benchmarks que nous avons utilisés.
3DMark – Port Royal.
3DMark – Speed Way
3DMark – Fire Strike
3DMark DirectX Ray Tracing Feature test.
La mécanique de notre GeForce RTX 4080 Gaming OC peut aussi accélérer les calculs en création et en encodage vidéo. Cette solution peut être utilisée dans certains contextes comme la création vidéo, la retouche photo et la 3D. De nombreuses applications sont capables d’exploiter sa mécanique pour profiter d’une accélération matérielle.
Une nouvelle fois, nous avons pris comme référence les performances de la GeForce RTX 3090. Elle dispose d’un indice de 100 dans notre graphique.
La GeForce RTX 4090 se hisse à la première place avec des performances bien supérieures à celles de son ainée la GeForce RTX 3090. L’écart est de 65% en moyenne tandis que notre RTX 4080 Gaming OC 16G offre 29% de performances supplémentaires. Face à la RTX 3080 Ti, l’écart n’est pas négligeable puisqu’il atteind les 33%. Enfin, l’overclocking proposé par Gigabyte améliore le bilan face à la GeForce RTX 4080 Founders Edition de 3%
Voici les détails des différents tests que nous avons menés.
Blender 2.9.
OctaneBench
Blender Benchmark Launcher
LuxMark v3.1
Enfin pour terminer, nous avons mis en l’épreuve les deux encodeurs matériels de cette RX 4080 face à l’unique encodeur matériel de la RTX 3090 afin de savoir s’ils permettent de diviser par deux le temps nécessaire à certains traitements vidéo, tout en prenant en charge le codec vidéo AV1 en plus du classique H.265.
Nous avons utilisé l’application Black Magic Design afin d’encoder des vidéos en 8K Prores442HQ à 30FPS et 4K Prores422HQ à 30FPS en HEVC et AV1.
Voici les temps nécessaires à ces travaux et ceux mesurés avec la GeForce RTX 3090.
Nous avons des temps divisés par plus de deux en 4K30/H.265 et 8K/H.265 entre les deux cartes. Là où la RTX 3090 demande 33 secondes et 120 secondes, la RTX 4080 termine ces travaux en 15 et 51 secondes. Nous observons des temps en gros identiques avec le codex AV1 montrant la présence d’une prise en charge matérielle.
Nous n’avons pas de résultat pour la RTX 3090 car elle ne dispose pas d’une accélération matérielle pour l’AV1.
Gigabyte – GeForce RTX 4080 GAMING OC -16 Go |
Cette GeForce RTX 4080 Gaming OC 16G est une version personnalisée de la carte de référence de Nvidia. Gigabyte l’équipe d’un très imposant dissipateur thermique capable d’assurer un refroidissement performant sans être trop bruyant. La température GPU est parfaitement maitrisée si bien que la carte délivre toute sa puissance dans le temps. Il n’y a rien à redire. Cette jolie performance demande par contre beaucoup de place dans un boitier et occupe un large espace au niveau de la carte mère. Son format quatre slots rend inexploitable le deuxième slots PCIe X16 de notre ROG Maximus Z690 HERO.Concernant les performances, nous avons de jolies prestations, réhaussant en Rasterisation le bilan de sa grande sœur, la GeForce RTX 3080 Ti de 22% et 32.5% en 1440p et 2160p. L’écart se creuse en Ray Tracing avec une avance de 35.2% en 1440p et 36.1% en 2160P tandis que nous sommes sur une augmentation de 33% en création 3D sans oublier ses deux encodeurs matériels permettant de diviser par plus de deux le temps nécessaire à l’encodage vidéo H.265 et AV1. A tout ceci, si nous ajoutons une consommation électrique légèrement plus basse, le pari est gagné pour Nvidia.Au final, cette GeForce RTX 4080 Gaming OC 16Go remplit sa mission avec brio. Elle offre une puissance apte pour du 4K Full Option. Le Full Ray Tracing est souvent possible avec 60 fps à la clé tandis que l’utilisation du DLSS 2, et plus particulièrement le DLSS 3, apporte un vrai gain de performances.Ce bilan s’accompagne malheureusement d’un positionnement tarifaire très haut de gamme positionnant la carte sur un marché de niche. Elle vise ainsi les joueurs fortunés en quête d’une carte graphique offrant des prestations parmi les meilleurs du marché afin de répondre encore présent dans quelques années. Elle demande une configuration musclée afin d’éviter le plus possible les goulots d’étranglement.Enfin concernant l’overclocking proposé par Gigabyte en sortie de carton, il booste les performances de 2.5% au minimum en Rasterisation, du 3.6 à 4% en Ray Tracing et de 3% en Creation 3D.La GeForce RTX 4080 Founders Edition est annoncée au prix public conseillé de 1469 € .
Lian Li dévoile sa gamme de ventilateurs UNI FAN TL Wireless. La technologie 2,4 GHz… Lire d'avantage
Intel abandonne son initiative x86S, un projet visant à rationaliser l'architecture x86 en supprimant les… Lire d'avantage
Un chanceux a reçu une carte graphique Arc B570 d'Intel. La carte en question est… Lire d'avantage
Intel semble prêt à renouveler son offre d’entrée de gamme avec une nouvelle série de… Lire d'avantage
Asus est le premier constructeur de carte mère à déployer le microcode 0x114 d’Intel censé… Lire d'avantage
Les prochains APU Ryzen AI Kraken Point d’AMD se positionnent comme des solutions accessibles pour… Lire d'avantage
Voir commentaires
La carte est énorme !!! (cliché avec la carte MiniITX)
C’est moi ou il y a un truc qui déconne ??!
La 1080Ti c’était 60% de perfs de mieux que la 980Ti pour 15% d’augmentation, et jusqu’à présent on a toujours des x080 aux alentours de 700-800€.
C’est vraiment nous prendre pour des cons que de mettre une note pareille pour une carte à 1700€ !!!
Du coup, on adhère auquel de tes discours ?? Celui de tes tests ou celui de tes vidéos YouTube ????
La note ne prend pas en compte le prix.
Le prix fluctue pour moultes raisons...Hausse des composants, raretés, pénuries, marketing etc.
Un test se veut objectif sur ce qu'il test et ne se prêtant pas être politisé. C'est au consommateur de se faire son avis là-dessus.
Du moins c'est comme ça que je vois les choses, en tant que lecteur et consommateur de ce type de site. Il faut rester impartiale dans l'approche d'un test rigoureux.