Nous y sommes, après des semaines de rumeurs, la GeForce RTX 4070 Ti est officielle. La belle complète la gamme des GeForce RTX 40 series et promet des performances capables de faire trembler l’ancienne vitrine du constructeur, la GeForce RTX 3090 (Ti).
Nous vous proposons un dossier complet afin de connaitre dans les détails ses prestations au travers d’un modèle personnalisé, la GeForce RTX 4070 Ti Gaming OC 12G de Gigabyte. Nvidia n’a pas prévu de commercialiser de version Founders Edition.
A la vue de son positionnement tarifaire, nous nous sommes concentrés sur deux définitions, le 1440p et le 2160p en Full Option avec ou sans les technologies Ray Traicing et DLSS (2 et 3). Nous nous sommes également intéressés au savoir-faire de Gigabyte en matière de refroidissement, de silence et de conception.
Sommaire
La GeForce RTX 4090 exploite un GPU AD104-400 issu d’un processus de fabrication 4N de TSMC. Il se compose de 35.8 milliards de transistors répartis sur une surface de 608 mm²
Ce processeur graphique exploite l’architecture graphique Ada Lovelace. Son interface haute est en PCI-Express 4.0 x16 tandis qu’il gère de la mémoire GDDR6X au travers d’un bus 192-bit.
Le diagramme proposé par Nvidia dévoile une organisation profitant du moteur Gigathread en charge d’allouer les ressources. L’architecture Ada Lovelace dispose d’un module nommé OFA contraction d’Optical Flow Accelerator. Nous verrons en fin d’article qu’il joue un rôle essentiel pour la technologie DLSS de troisième génération. Il génère des images entières grâce à l’IA sans solliciter la machinerie de rendu graphique.
La puce embarque deux fois plus d’unités d’encodage multimédia qu’« Ampere ». Cela comprend l’accélération matérielle de l’encodage et décodage AV1. Ce choix améliore les performances dans un contexte de production. La présence de plus d’unités d’encodage multimédia signifie plus de flux de vidéos pouvant être traités en même temps. Les principaux composants de rendu graphique sont les GPC alias les graphics processing clusters. Il se compose d’un moteur Raster et de 6 TPC (texture processing clusters). Chaque TPC contient deux SM (multiprocesseurs de streaming).
Comme nous l’avons vu lors de la présentation de la GeForce RTX 4090 les SM ont été retravaillés. Chaque SM contient un cœur RT de 3e génération, un cache L1 de 128 Ko et quatre TMUs. Nous observons 16 cœurs CUDA (FP32), 16 cœurs CUDA (FP32 + INT32), 4 unités de LD/ST (chargement / stockage), un petit cache L0 épaulé du « Warp Sheduler » et du « dispatch » ainsi qu’un fichier de registre et un noyau Tensor de 4e génération.
Du coup par simple multiplication, un SM embarque 128 cœurs CUDA, 4 cœurs Tensor et un cœur RT. Sachant qu’il y a 12 SM par GPC, nous retrouvons un total de 1 536 cœurs CUDA, 48 cœurs Tensor et 12 cœurs RT par GPC soit pour un ensemble de 5 GPC 7680 cœurs CUDA, 240 cœurs Tensor et 60 cœurs RT.
NVIDIA n’a pas mentionné la taille du cache L2, mais il est censé être plus imposant que celui de la génération Ampere.
Ada Lovelace profite également d’une réorganisation de l’exécution sharder (SER). L’idée est de réarranger en amont, pour chaque thread de travail, les charges de travail mathématique afin qu’elles soient traitées le plus efficacement possible par les composants SIMD. Il est promis un impact sur les performances en Rastérisation mais surtout en Ray Tracing. Pourquoi ?
Les performances sont optimales lorsqu’une même opération peut être traitée pour plusieurs cibles. Cela diminue la charge de traitement. En Ray Tracing, chaque rayon engendre un grand nombre de besoins de traitement différents. L’action du SER est de « trier » les opérations pour créer des morceaux de tâches identiques et de les exécuter. L’impact peut être très important. Par exemple sous Cyberpunk 2077, la technologie SER améliore les performances jusqu’à 44% et 29 % avec Portal RTX.
Lors de sa présentation, Nvidia a souhaité souligner que cette technologie est adaptable et modulable. Il existe différentes approches pour le SER et le meilleur choix varie selon le jeu. L’API proposera un contrôle sur le fonctionnement de l’algorithme de tri.
Ada Lovelace profite également d’un moteur de micro-maillage déplacé (Displaced Micro-Meshes) assuré par les cœurs RT de 3e génération. Ces DIMMs élaborent les hiérarchies de volumes englobants (BVH alias Bounding-Volume Hierarchy) de manière plus efficace et moins gourmande en ressource. Nvidia évoque une vitesse accrue d’un facteur 10 et des besoins en mémoire vidéo divisés par 20. Ce maillage structuré de micro-triangles est traité en natif par les cœurs RT de 3ième génération.
L’approche est de représenter des objets à géométrie complexe sous la forme d’un maillage grossier d’un triangle de base. La structure de données BVH se simplifie ce qui soulage les besoins en mémoire et réduit la charge du processeur de ray tracing. Contrairement à Ampere, où les Core RT de 2ième génération doivent traiter toutes les informations de chaque triangle format le maillage, les Core RT de 3ième génération d’Ada LoveLace traitent un triangle accompagné d’un map permettant de reconstruire l’objet et ses interactions avec la lumière.
Les gains se situent à plusieurs échelles, de quoi soulager les besoins en:
Nous avons également la fonctionnalité OMM alias l’Opacity Micro Meshes visant à booster les performances de pixellisation, en particulier avec les objets qui ont une valeur « alpha » (données de transparence). Certains objets composant une scène 3D, tels que les feuilles d’un arbre ont une forme difficile à maitriser pour les cœurs RT en charge de déterminer les interactions avec les rayons de lumière. Les feuilles sont essentiellement des rectangles exploitant des textures mais accompagnés d’un alpha (de transparence). Il permet de créer la forme de la feuille.
Les cœurs RT se retrouvent dans une situation complexe puisque la gestion des rayons avec de tels objets demande de connaitre la forme. Les cœurs RT Ampere ont besoin de plusieurs interactions pour déterminer cette forme. La situation a été résolue avec cette fonctionnalité OMM. Elle créé un maillage de textures rectangulaires qui s’alignent avec les parties de la texture sans donnée alpha. Du coup, les cœurs RT appréhendent mieux la forme exacte de l’objet à traiter. La méthode profite aussi à l’ombrage dans de rendu sans Ray Tracing.
Enfin, la technologie DLSS 3 promet de doubler le nombre d’images par seconde à qualité comparable. Ceci est possible en raison d’une nouvelle avancée nommée AI frame-génération. Le DLSS 3 s’appuie sur le fonctionnement du DLSS 2 tout en générant des images entières de demi trame à l’aide de l’IA. De plus, ces images alternées sont le résultat d’une analyse des trames précédentes et suivantes.
Cela n’est cependant possible que sur l’architecture graphique Ada lovelace, en raison d’un composant matériel , l’OFA (Optical flow accelerator). Il apporte son aide à prédire la prochaine image en créant un champ de flux optique (Optical flow-field).
Son rôle est de permettre au DLSS 3 de connaitre les objets statiques dans une scène 3D dynamique. Ce processus s’appuie sur le format mathématique FP8 pris en charge par les coeurs Tensor de 4e génération. A noter que pour réduire la latence inhérente à cette avancée le DLSS 3.0 s’appuie sur Reflex.
La technologie DLSS 3 utilise l’IA pour générer des images nouvelles et non de simples pixels.
Cette technologie combine des techniques du DLSS actuelles comme les vecteurs de mouvement et les algorithmes d’IA de super résolution avec de nouvelles techniques de génération de trames tirant avantage des fameux OFA que nous avons vus plus haut. De plus, la technologie Reflex est utilisée pour réduire la latence.
A noter que, sachant que le DLSS 3 génère une nouvelle image sans impliquer le jeu, il profite aux titres ayant des ressources limitées en CPU, en particulier ceux qui sont lourds en gestion physique du monde ou proposant un monde vaste et détaillé à l’origine de lourds calculs processeur. Le DLSS 3 permet dans ce cas de dépasser les framerates assurés par le processeur. En clair, nous avons un effet CPU limited moins présent.
Le DLSS 3 fonctionne simultanément avec DLSS Super Resolution (alias DLSS 2) afin de booster les performances dans les charges de travail sollicitant un rendu en Ray Tracing exigeants.
Les jeux DLSS 3 sont rétro compatibles avec la technologie DLSS 2 qui va continuer à s’améliorer, c’est du moins une promesse de Nvidia.
Comme nous l’avons souligné, l’architecture Ada Lovelace dispose de multiprocesseur de streaming amélioré, de cœurs RT (Ray Tracing) de troisième génération, de cœurs Tensor de quatrième génération, d’encodeurs de huitième génération prenant en charge AV1.
Les cœurs Tensor de 4e génération profite du moteur Hopper FP8 Transformer dédié aux charges de travail d’inférence d’IA. Par rapport au FP16, le FP8 réduit de moitié les exigences de stockage de données. Nvidia annonce un doublement des performances de l’IA permettant à la GeForce RTX 4090 d’offrir 2 fois la puissance totale de traitement des Tensor Core de la RTX 3090 Ti.
Ils disposent
Sur le papier, la GeForce RTX 4070 Ti 12 Go n’est pas une nouveauté. Il s’agit en réalité de la GeForce RTX 4080 12 Go mais proposée sous un nom différent. Cette dernière a été annoncée lors du lancement de la GeForce RTX 4090 mais sa commercialisation a été annulée en raison de son appellation problématique.
Nvidia a donc pris la décision de la repositionner dans la gamme des RTX 4070. Ce n’est pas le seul changement puisque nous avons également une tarification conseillée plus attractive avec un prix passant de 899 à 799 $. Comme nous l’avons indiqué en introduction, Nvidia ne propose pas de version Founders Edition. Sa commercialisation est donc assurée par les partenaires avec au programme des versions dites personnalisées.
La GeForce RTX 4070 Ti utilise un GPU AD104 profitant de l’architecture graphique Ada Lovelace. Ses 35,8 milliards de transistors donnent vie à 7680 cœurs CUDA, 240 cœurs Tensor de quatrième génération et 60 cœurs RT de troisième génération. A cet ensemble s’ajoutent 240 unités de textures et 80 ROPs. Le GPU est capable d’atteindre une fréquence maximale de 2610 MHz en mode Boost. L’équipement comprend 12 Go de GDDR6X calibrés à 10500 MHz et exploités au travers d’un bus mémoire 192-bit, de quoi assurer une bande passante de 0,5 To/s.
Nvidia ne recommande aucun facteur de forme. En clair, nous n’avons pas de format conseillé (simple, double ou triple slots). La carte s’équipe de trois sorties vidéo DisplayPort et un HDMI permettant du 4K à 240 Hz au maximum et du 8K à 60 Hz
Côté alimentation, Il est conseillé une alimentation de 700 Watts au minimum. La carte peut exploiter soit deux connecteurs PCIe 8 broches classiques soit le nouveau connecteur 12VHPWR. L’enveloppe thermique est de 285 Watts (TGP).
Il est promis une puissance permettant du 1440p avec un framerate dépassant les 90 images soit de quoi profiter d’un gameplay optimal. L’objectif est aussi de répondre à une popularité grandissante des moniteurs disposant d’un haut taux de rafraichissement (120 Hz et +). Tout ceci permet à cette référence d’être une mise à niveau intéressante pour les actuels joueurs équipés d’une GeForce GTX 1080 Ti ou d’une GeForce RTX 2080.
Comme nous l’avons indiqué, elle profite de l’architecture Ada Lovelace ce qui lui permet d’être compatible avec la technologie DLSS 3.0. L’argument est important car il permet à Nvidia de promettre une envolée des framerates. La firme n’hésite pas à annoncer :
une augmentation des performances d’un facteur 12 faces à la GeForce GTX 1080 Ti et plus de 200% face à la GeForce RTX 2080 sous Cyberpunk à 1440p en rasterisation.
GeForce RTX 4070 Ti – les spécifications | |
Graphics Processing Clusters | 5 |
Texture Processing Clusters | 30 |
Streaming Multiprocessors | 60 |
CUDA Cores | 7680 |
Tensor Cores | 240 (4th Gen) |
RT Cores | 60 (3rd Gen) |
Texture Units | 240 |
ROPs | 80 |
Boost Clock | 2610 MHz |
Memory Clock | 10500 MHz |
Memory Data Rate | 21 Gbps |
L2 Cache Size | 49152 KB |
Total Video Memory | 12 GB GDDR6X |
Memory Interface | 192-bit |
Total Memory Bandwidth | 504 GB/sec |
Texture Rate | 626 Gigatexels/sec |
Fabrication Process | TSMC 4N NVIDIA Custom Process |
Transistor Count | 35.8 billion |
Connectors | 3 x DisplayPort 1 x HDMI |
Max Display Resolution | 4K at 240Hz or 8K at 60Hz with DSC |
Form Factor | Varies by AIC |
Power Connectors | 2x PCIe 8-pin cables OR 300w or greater PCe Gen 5 cable |
Minimum Power Supply | 700 Watts |
Power | 12 W Idle, 20 W AV1 Video Playback, 226 W Average Gaming Power (AGP), 285 W Total Graphics Power (TGP) |
Maximum GPU Temperature | 90° C |
PCI Express Interface | Gen 4 |
Les cœurs Tensors sont dédiés aux calculs hautes performances. Ils sont spécialisés et adaptés aux calculs matriciels et aux opérations mathématiques complexes utilisées dans les applications d’IA et HPC. Le calcul matriciel est utilisé par l’apprentissage profond des réseaux neuronaux et les fonctions d’inférence comme la technologie DLSS 2.1 pour les joueurs.
Les cœurs RT de troisième génération sont des unités matérielles dédiées au Ray Tracing. Nous les retrouvons afin d’accélérer la traversée BVH et l’exécution de calculs de test d’intersection rayon-triangle. Du coup, ces tâches ne sont pas assurées par les SM dont les ressources peuvent être allouées à d’autres calculs. Face à Ampere, Nvidia promet un débit d’intersection Rayon-Triangle 2 fois plus important que celui disponible avec Ampere. Dans le concret, cela permet par exemple d’augmenter les détails du monde du jeu sans avoir d’impact sur les performances actuelles. De son côté, le moteur micro-mesh génère des micro-maillages à la volée pour générer une géométrie supplémentaire, permettant une complexité géométrique accrue sans le coût de construction et de stockage BVH.
La GeForce RTX 4070 Ti disposent de deux encodeurs matériels connus sous le nom de NVENC. Ils assurent une prise en charge du codec vidéo AV1. Ce dernier assure un meilleur rendu que les classiques codecs H.264 ou H.265. C’est une avancée intéressante pour les joueurs amateurs de streaming.
Face à Ampere, le passage d’un à deux moteurs d’encodage permet de paralléliser certains calculs. L’image peut être divisée par deux pour être traitée par les deux encodeurs puis recombinée en un seul flux binaire. Du coup, l’encodage peut être accéléré jusqu’à 2 fois par rapport à l’encodage disponible avec les GeForce RTX 30 series.
Nvidia ne propose pas de version Founders Edition de sa GeForce RTX 4070 Ti. Il faut donc se tourner vers ses partenaires avec au programme des versions personnalisées. Pour ce dossier, Gigabyte nous a fait parvenir sa GeForce RTX 4070 Ti Gaming OC 12 Go.
Pour le positionnement, la famille Gaming OC met l’accent sur les performances et une maitrise du tarif. Nous retrouvons le système de refroidissement WINDFORCE qui comprend trois ventilateurs à pale unique et proposant un sens de rotation alterné. A cela s’ajoute une grande chambre à vapeur avec contact direct avec le GPU, des caloducs en cuivre, une conception étendue (le SCREEN COOLING) et une plaque arrière pour augmenter la surface des échanges thermiques.
Du coté des fonctionnalités, nous avons un double BIOS avec un mode OC silencieux et une touche d’aRGB au travers d’un anneau lumineux au niveau de chaque ventilateur.
La personnalisation passe par l’application Control Center. Il s’agit d’un HUB rassemblant plusieurs utilitaires. L’ensemble offre une panoplie d’outils pour ajuster l’éclairage, la ventilation et les performances. Gigabyte propose une solution simple pour augmenter la fréquence GPU mais il faut être prudent. Un bon overclocking nécessite quelques connaissances, une solide alimentation et de la patience. Concernant les options proposées par Gigabyte, elles touchent à la tension du GPU, sa limite de puissance et sa température maximale. Sur ce point, Nvidia annonce 90°C au maximum.
Son bundle se compose d’un support anti-affaissement se fixant à l’arrière et d’un adaptateur en Y comprenant un connecteur 12VHPWR d’un côté et de deux PCIe 8 broches de l’autre.
Contrairement à ces deux grandes sœurs, les GeForce RTX 4090 et 4080 Gaming OC, elle profite d’un format plus conventionnel. Elle reste massive en raison de son système de refroidissement.
Nous sommes devant une carte graphique 2.5 slots aux dimensions de 140 x 58 mm pour une longueur totale de 336 mm. Cette dernière s’explique par le système « WindForce » qui occupe bien plus que toute la surface du PCB. Il déborde de quasiment 16 cm à l’arrière. Cette conception étendue nommée le SCREEN COOLING permet un passage vertical du flux d’air.
Il traverse l’un des deux radiateurs et ne rencontre aucun obstacle ce qui assure normalement une meilleure dissipation de la chaleur. Par contre, le côté négatif se situe dans l’expulsion à l’intérieur du boitier de l’air chaud. Il faut donc prévoir une ventilation adéquate.
Pour revenir au système de refroidissement de la carte, il s’appuie sur trois ventilateurs de 100 mm capables de se mettre totalement à l’arrêt en cas de faible charge GPU. Armés d’un nano-lubrifiant au graphène et de pales aux extrémités triangulaires et vêtues de rainures afin de mieux guider l’air, ils bénéficient de la technologie Alternate Spinning. Elle fait tourner les deux unités externes en sens inverse du ventilateur central afin de minimiser les turbulences de l’air dégagé par les ventilateurs adjacents.
La chambre à vapeur est en contact directement avec le GPU tandis que plusieurs caloducs en cuivre sont en charge de transférer la chaleur du GPU et de la VRAM vers de multiples ailettes en aluminium.
Comme nous l’avons indiqué, chaque ventilateur s’accompagne d’un anneau aRGB personnalisable via l’application Control Center.
Le connecteur 12VHPWR est placé en latéral et s’accompagne d’un LED de controle d’alimentation. Elle se met à clignoter en cas d’anomalie d’alimentation. Nvidia recommande un bloc de 700 Watts au minimum mais Gigabyte est un peu plus exigeant avec 750 Watts au minimum. Mais cette RTX 4080 Gaming OC est un peu plus gourmande avec 850 Watts.
Pour poursuivre du côté de son équipement, elle propose quatre sorties vidéo dont trois DisplayPort 1.4 et un HDMI 2.1. Nous avons également le choix entre un BIOS visant le silence et un BIOS proposant un overclocking en sortie de carton. C’est le paramétrage que nous avons utilisé pour ce dossier. Gigabyte annonce un GPU propulsé 2640 MHz et non 2610 MHz (fréquence de référence de Nvidia). Les 12 Go de GDDR6 sont de leur côté calibrés à 21 Gbps et exploités via un bus mémoire 192-bit.
La carte est à la norme PCIe 4.0. Elle profite d’une robe entièrement noire à l’avant au travers d’un carter en plastique aux lignes racées. En latéral, une petite zone « gris clair » souligne la marque Gigabyte rétroéclairée. Cette couleur est également utilisée par la plaque arrière.
Nous avons utilisé des jeux, plusieurs définitions (1440P et 2160p), plusieurs benchmarks et des applications GPGPU. Pour chaque titre, tous les paramètres de rendu sont au maximum. Les pilotes graphiques sont les derniers en date à l’heure d’écriture de ce test.
Plateforme de test.
Pour son alimentation be quiet! nous a fait parvenir une Dark Power 13 de 1000 Watts.
Cette alimentation répond aux contraintes du label 80 Plus Titanium. Elle s’arme d’un très haut rendement limitant le gaspillage énergétique.
Elle propose une gestion 100% modulaire des câbles et surtout s’arme en natif du nouveau câble 12VHPWR. Il permet d’alimenter notre GeForce RTX 4090 Gaming OC 24 Go à l’aide d’un unique faisceau.
L’adaptateur en Y demandant quatre PCIe 8 broches n’est plus nécessaire, de quoi simplifier le montage, limiter les câbles, optimiser le rangement, améliorer le rendu et optimiser l’organisation des câbles dans le boitier.
Ce 12VHPWR permet de distribuer beaucoup plus de puissance. Il est désormais la norme pour les cartes graphiques de 450 watts et plus. Il faut remonter à 2013 pour revivre un tel changement. A l’époque, le PCIe révision a fait son entrée. Le connecteur PCIe 8 broches fournit jusqu’à 150 watts, alors que son petit frère en 6 broches est limité à 75 watts.
Les cartes graphiques les plus exigeantes actuellement, comme notre ROG STRIX GeForce RTX 3090 White Edition, nécessitent jusqu’à trois de ces connecteurs 8 broches.
Pour le moniteur, nous avons utilisé l’imposant ROG Swift PG32UQX d’Asus.
Jeux vidéo
Benchmarks
L’ensemble du monitoring est assuré par GPU-Z. Nous avons torturé cette solution durant 10 minutes en sollicitant au maximum son GPU. Les tests sont faits à l’air libre afin de faire abstraction des performances de refroidissement du boitier. La température de la pièce est de 21°C.
Comme nous l’avons vu, la carte est équipée d’un système de refroidissement WindForce. Nous avons une bonne maitrise du refroidissement. En burn, la température GPU se stabile aux alentours des 57 °C contre 65°C en son centre. C’est parfait car les trois ventilateurs de 100 mm ne turbinent qu’à 71% de leur vitesse maximale. Il y a encore de la ressource pour entrevoir un overclocking plus agressif que celui du BIOS OC.
Au repos, le mode Fanless permet de rendre inaudible la carte. Les trois ventilateurs sont à l’arrêt ainsi que le RGB. En pleine charge, notre sonomètre enregistre 44 dBA. La carte n’est pas bruyante mais elle n’est pas silencieuse non plus. Elle se laisse entendre tout en étant plus discrète que la Radeon RX 7900 XTX d’AMD (design de référence).
La maitrise de la température participe grandement à la stabilité des fréquences. Notre monitoring dévoile une fréquence GPU stable sur le long terme. Avec une valeur moyenne de 2621,5 MHz, nous sommes entre les 2610 MHz recommandés par Nvidia et les 2640 MHz annoncés par Gigabyte. Du côté de la GDDR6X, c’est également parfait avec du 1312.7 MHz durant tout le test.
Tout ceci montre qu’aucune protection de type Thermal Throttling s’active. La carte conserve sa pleine puissance tout le temps. Nous n’avons aucun souci de température.
Remarque. Nvidia utilise différentes technologies de protection comme un ajustement de la fréquence GPU en cas de situation critique. L’objectif est de maintenir un bon fonctionnement de la solution graphique tout en évitant les plantages. Des seuils d’alerte sont ainsi constamment sous surveillance comme la température GPU et le TGP.
Avec des besoins énergétiques compris entre 5 et 285 Watts, notre GeForce RTX 4070 Ti Gaming OC 12 Go signe la meilleure prestation de notre comparative. Elle se montre bien moins gourmande que sa grande sœur la GeForce RTX 3070 Ti ou des récentes Radeon RX 7900 XTX et XT. Il y a aussi une différence significative en burn face à la GeForce RTX 4080 FE (321 Watts)
Remarque.
Cette mesure de consommation correspond aux besoins minimal et maximal de la carte afin de pouvoir faire une évaluation globale de son cout d’exploitation et son empreinte carbone de fonctionnement.
Dans le détail, ses besoins énergétiques varient énormément selon le type d’exercice. L’enveloppe thermique ( TGP) déclarée de 285 W est une information intéressante mais elle ne permet pas de détailler la consommation d’énergie en fonction des usages. En clair, son bilan énergétique n’est pas universel. Il varie en fonction des usages et des besoins.
Le TGP est la limite de puissance maximale pour la fréquence boost du GPU. Elle sera optimisée en fonction de cette limite mais également d’autres paramètres comme la température. Cette puissance peut être atteinte (c’est notre cas dans ce test) avec des applications très gourmandes.
Les consommations au repos et en burn permettent de calculer le coût annuel de fonctionnement et son empreinte carbone de fonctionnement.
Notre base de travail est une utilisation quotidienne de 6 heures par jour, 365 jours par an avec un tarif de 0,174 € le kWh facturé (tarifs réglementé métropole au 01/08/2022 d’EDF pour une puissance souscrite de 6 kVA).
L’indicateur EDF, en gramme d’équivalent CO2 pour la production de 1 kWh, est fixé à 21,6 grammes (période novembre 2020 à novembre 2021). Il est synonyme du taux de rejet de gaz à effet de serre induit par la production de l’électricité consommée.
Aucune surprise dans ces deux bilans. Avec les besoins énergétiques les plus bas, la GeForce RTX 4070 Ti a le plus faible cout d’exploitation annuel. Il se situe entre 5 et 109 € contre une empreinte carbone entre 0.7 et 13.5 kilogrammes d’équivalent CO2.
Nous avons pris comme référence les performances proposées par la GeForce RTX 3080 Ti. Cette référence dispose ainsi d’un indice 100. Nous avons fonctionné avec deux définitions à savoir du 1440p et du 2160p. Dans tous les cas, les options graphiques sont au maximum.
Les promesses de Nvidia se confirment. La GeForce RTX 4070 Ti se montre 12% plus rapide que la RTX 3080 Ti en 1440p et 2160p en Rasterisation. Nous observons un bond des performances face à sa grande sœur la GeForce RTX 3070 Ti (32% moins rapide en 1440p et 35% en 2160p).
Par contre face aux dernières nouveautés d’AMD, les Radeon RX 7900 XTX et XT nous sommes en retrait dans les deux définitions. L’écart n’est pas négligeable (14% en 1440p vs RX 7900XT et 17% en 2160p).
Voici le même bilan mais avec cette fois seulement les scores GPU relevés par le benchmark 3DMark Fire Strike.
Nous avons un classement identique mais avec des différences plus marquées.
L’analyse des framerates montre un bilan parfait quelle que soit la définition. Nous avons intégré le 1080p. Nous travaillons avec des options graphiques au maximum. En 1080p et 1440p, le gameplay est optimal avec des valeurs dépassant généreusement les 90 images par seconde sauf pour un titre, Flight Simulator. Nous sommes cependant toujours supérieurs à 60 images, la limite confortable selon nos critères.
Le passage au 4K est éprouvant avec une chute conséquente des valeurs de framerate. Les prestations restent cependant solides avec 57 images par seconde au minimum. Le gameplay reste ainsi agréable et ne demande pas d’ajustement des options graphiques.
Voici le bilan de sa grande sœur, la GeForce RTX 3070 Ti avec les mêmes titres
Voici les bilans des GeForce RTX 3090, 4080 et 4090 avec les mêmes titres.
Voici les performances sous différents jeux avec l’activation du Ray Tracing. Nous travaillons toujours avec des options graphiques au maximum. La technologie DLSS n’est pas désactivée pour le moment.
Le classement change avec l’activation de cette technologie de rendu. Les cartes AMD souffrent au point que la Radeon RX 7900 XT se retrouve dépassée. La RTX 4070 Ti se montre ainsi 3% plus rapide en 1440p et 2% en 2160p. Nous avons un écart encore plus important avec sa grande sœur, la RTX 3070 Ti (36% en 2160p et 1440p).
Nvidia propose également une carte plus véloce que l’ancienne vitrine “Ampere” pour les joueurs, la GeForce RTX 3080 Ti. Nous sommes sur des gains entre 9 et 11%
Il est intéressant de noter que sous le test “DirectX Ray Tracing Feature Test” de 3DMark, la RTX 4070 Ti se positionne devant les deux Radeon RX 7900 avec 70 fps contre 49 fps pour la Radeon RX 7900 XTX et 43 fps pour la Radeon RX 7900 XT.
L’analyse du Framerate montre que le Ray Tracing est gourmand. En 1440p, nous avons des framerates entre 69 et 149 images par seconde selon le titre. Nous travaillons en Full Option et Full RT. Le gameplay est confortable et ne demande pas d’ajustement particulier. En 4K, la chute peut être brutale comme sous Watch Dogs Legions avec cette fois 37 fps contre 53 fps sous Metro Exodus. Dans les deux cas, il est nécessaire d’ajuster les options graphiques pour franchir la barre des 60 fps.
Si vous ne souhaitez pas toucher au paramétrage une solution existe. L’utilisation de la technologie DLSS permet de retrouver un gameplay confortable sans toucher au niveau des options graphiques ou du rendu Ray Tracing.
Le test 3DMark – DLSS Feature permet d’avoir une évaluation du « boost » proposé par le DLSS 2 et 3.
Le résultat est impressionnant. Le DLSS 2 permet de quasiment doubler le framerate et le DLSS 3 de l’augmenter d’un facteur 3.5. Nous passons ainsi de 30 images par seconde à 107 images par seconde. Le bilan est aussi intéressant avec la RTX 3070 Ti puisque le DLSS 2 permet de booster le framerate d’un facteur 2.7 en 4K.
Nous sommes devant un benchmark théorique. Voici maintenant la même étude avec deux jeux en Ray Tracing.
Voici maintenant la même étude avec deux jeux en Ray Tracing.
Avec la technologie DLSS 2 sous Watch Dogs Legion (RT), le framerate augmente de 69 à 94 fps en 1440p et de 37 à 63 fps soit des gains de 36 et 70%. Cela permet de profiter du titre à plus 60 images par seconde en 4K Full Option et Full Ray Tracing. Sous Shadow of Tomb Raider (RT), les gains sont un peu moins importants mais restent conséquent avec + 20% en 1440p et +42% en 2160p
Il est intéressant de noter que nous sommes sur des bilans moins optimistes que ceux du benchmark 3DMark. Cela s’explique par le fait que le bilan des performances n’est pas uniquement lié à la carte graphique. Nous avons des situations où cette dernière n’arrive pas à exprimer toute sa puissance en raison de facteurs limitants.
Nous avons également tenté l’aventure sous Cyberpunk 2077, A Plague Tale: Requiem et Flight Simulator avec cette fois uniquement le DLSS 3.
Selon le titre, les gains vont de 63% à plus de 414%. Cette technologie permet à la RTX 4070 Ti d’assurer un framerate moyen de 87 fps sous CyberPunk 2077 en Full Option, Full Ray Tracing (mode spycho) et 4K. Sans cette dernière, le jeu n’est pas jouable (21 images par seconde). A noter que la même remarque s’applique à la RTX 3070 Ti et le DLSS 2.
Vous trouverez ci-dessous les détails de différents benchmarks que nous avons utilisés.
3DMark – Port Royal.
3DMark – Speed Way
3DMark – Fire Strike
3DMark DirectX Ray Tracing Feature test.
Bien que limité par ses 12Go de VRAM dans un tel contexte, la mécanique de notre GeForce RTX 4070 Ti Gaming OC 12 Go peut aussi accélérer les calculs en création et en encodage vidéo. Cette solution peut être utilisée dans certains contextes comme la création vidéo, la retouche photo et la 3D. De nombreuses applications sont capables d’exploiter son GPU pour profiter d’une accélération matérielle.
Une nouvelle fois, nous avons pris comme référence les performances de la GeForce RTX 3080 To. Elle dispose d’un indice de 100 dans notre graphique.
La GeForce RTX 4090 se positionne à la première place avec une confortable avance face à la RTX 4080. L’écart est de 33% entre les deux cartes. La RTX 3070 Ti décroche la troisième place avec un score global de 110 % contre 104% pour la RTX 3090. Une nouvelle fois, nous avons un joli bilan face à son ainée, la RTX 3070 Ti, avec une différence de 40%.
Voici les détails des différents tests que nous avons menés.
Blender 2.9.
OctaneBench
Blender Benchmark Launcher
LuxMark v3.1
V-Ray Benchmark
FAHBench.
FAHBench exécute un exemple de calcul de dynamique moléculaire pour comparer les performances des GPU en ce qui concerne la recherche en biophysique.
Enfin pour terminer, nous avons mis à l’épreuve les deux encodeurs matériels de cette RX 4070 Ti face à l’unique encodeur matériel de la RTX 3090 afin de savoir s’ils permettent de diviser par deux le temps nécessaire à certains traitements vidéo, tout en prenant en charge le codec vidéo AV1 en plus du classique H.265.
Nous avons utilisé l’application Black Magic Design afin d’encoder des vidéos en 8K Prores442HQ à 30FPS et 4K Prores422HQ à 30FPS en HEVC et AV1. Voici les temps nécessaires à ces travaux et ceux mesurés avec la GeForce RTX 3090.
Là où la RTX 3090 demande 33 secondes et 120 secondes pour des encodages en 4K30 – H.265 et 8K30-H265, la RTX 4070 Ti 12G termine ces travaux en 16 et 80 secondes. Nous observons des temps en gros identiques avec le codex AV1 montrant la présence d’une prise en charge matérielle. En 8K (H.265 et AV1), Nous sommes moins rapides qu’avec la GeForce RTX 4080 FE.
A noter que nous n’avons aucun résultat en AV1 pour la RTX 3090 car elle ne dispose d’aucune accélération matérielle pour ce CODEC.
Avec cette GeForce RTX 4070 Ti 12G, Nvidia propose une solide mécanique pour du gaming en 1440p Full Option et Full Ray Tracing.Nous retrouvons un ensemble équilibré capable d’assurer du 80 fps dans nos tests. Le gameplay est efficace avec du répondant et permet de profiter d’un moniteur ayant un haut taux de rafraichissement. Cette remarque s’applique surtout lors de l’activation de la technologie DLSS 3 avec une envolée du framerate. Cette technologie permet aussi d’entrevoir du 4K avec tous les curseurs à fond.Ses performances lui permettent de dépasser la RTX 3080 TI de 12% en 1440p et 2160p tout en assurant un gain de 32% et 35% face à son ainée la RTX 3070 Ti. Nvidia peut ainsi jouer la carte de la mise à niveau pour les joueurs disposant actuellement du GeForce RTX 2080 ou d’une GTX 1080. Le bilan sera là pour justifier le positionnement tarifaire assez musclé. Nvidia annonce officiellement un prix recommandé de 899 €, ce qui positionne cette GeForce RTX 4070 Ti sur le haut de gamme.Nous avons une consommation électrique maitrisée lui permettant d’être moins gourmande que ses grandes sœurs, les RTX 3080 Ti et RTX 3070 Ti. Au final, nous profitons d’une carte graphique gaming plus performante et ayant un cout d’exploitation annuel et une empreinte carbone moins importantes.La version personnalisée de Gigabyte permet de son coté d’assurer un refroidissement efficace sans engendrer d’importantes nuisances sonores. Durant tous nos tests, aucune technologie de type Thermal Trottling ne s’est enclenchée. Les fréquences GPU et VRAM sont restées parfaitement stables, de quoi profiter de toute sa puissance sur le long terme.
Les cartes mères LGA 1851 équipées du chipset Intel B860 commencent à apparaître. La ROG… Lire d'avantage
L’utilitaire GPU-Z évolue en version 2.61. Le focus concerne la prise en charge de nouveaux… Lire d'avantage
Les premières informations sur la GeForce RTX 5070 Ti, prévue pour début 2025, indiquent des… Lire d'avantage
Annoncé en mars dernier, le SK hynix Platinum P51 PCIe 5.0 est enfin lancé en… Lire d'avantage
Acer lève le voile sur sa gamme de SSD FA200 PCIe 4.0. Visant le milieu… Lire d'avantage
Kioxia a dévoilé l'Exceria Plus G4, un SSD M.2 NVMe qui promet des débits musclés… Lire d'avantage
Voir commentaires
C'est moi ou le prix des cartes graphiques ont littéralement explosé.. Nous sommes à 900 € minimum pour une carte taillée pour le 1440P. Idemn chez AMD.
Non...AMD et Nvidia ont décidé de s'appuyer sur les hausses de performances pour justifier des hausses des prix. La loi de Moore n'existe plus nous sommes dans l'ère des $ avant tout.
Plus puissante que la GeForce RTX 3080 Ti... hate de tester ça.
Une vaste blague cette carte graphique gagné 20 fps de plus par rapport à une rtx 3080 des prix trop élevés on va attendre la séries 5000 pour ceux qui ont encore des séries 1000 ou 2000 oui mais ceux qui sont entre une 3080 et 3090 passé votre chemin
Ce qui est une vaste blague c'est ton commentaire de crétin.
Si tu veux beaucoup mieux qu'une 3080, tu prends une 4080 ou 4090.
Si tu n'as pas trop d'argent, tu prends une 4070ti et tu as les perfs d'une 3080ti, avec deux fois moins de consommation et les toutes dernières nouveautés, dont le dlss3.
En outre tu crois que tout le monde change de carte graphique à chaque génération? JE suis encore avec une 980GTX, donc avant les 1000 et je vais changer mi-2023 ma config qui aura 7 ans.
Il est évident que, sauf avoir du fric, si tu as une 30xx, tu ne vas pas dépenser dans une nouvelle carte graphique 2 ans plus tard pour avoir quelques perfs en plus, surtout vu les prix. Oui les gens vont attendre les 50xx ou même les 60xx.
"Ce qui est une vaste blague c’est ton commentaire de crétin." Eh mollo Pierrot le fou, si pour toi dépenser une 4070ti à 1000€ c'est ne pas avoir trop d'argent alors c'est toi le crétin, pour rappel les rtx 2070 étaient entre 400 et 550€, 5 ans plus tard les prix doubles..♪♫ NVidia se fout bien de la gueule des ovidés friqués qui dépensent sans compter et ces mêmes ovidés critique ceux que peuvent pas mettre 1000 balles dans une cg. CQFD
Je suis parfaitement d'accord avec Pierre, mais sans le mot ''crétin''