Sous 3DMark 2005, avec le même type de processeur, la GeForce 8800GTS 512 Mo offre à peine 3% de performances en plus que notre GeForce 8800 GT. Le même scénario est appliqué pour la version 2006 de ce benchmark.
Pourquoi ?
Voici des résultats qui mettent en évidence la nécessité d’équilibrer une configuration informatique. Rien ne sert d’avoir la carrosserie d’une Ferrari, si nous n’avons de moteur digne de ce nom à mettre dedans. Ici, les performances de la GeForce 8800 GTS 512 Mo sont, certes, un peu plus importantes que celles de la GeForce 8800 GT 512 Mo. Mais il est clair qu’elle pourrait faire beaucoup mieux. Nous sommes face à une faiblesse du côté processeur. Il y a donc plusieurs solutions.
- Soit changer le processeur pour un modèle plus véloce
- Soit changer notre écran pour monter en résolution
Avec notre première hypothèse, nous voyons clairement des scores qui s’envolent (30% sous 3DMark 2005 et 25% sous 3DMark 2006) avec l’utilisation d’un Core 2 Duo E6850.
Les résultats sont nets, mais le coût financier a son importance. Il devient alors intéressant de savoir s’il existe un couple parfait entre les cartes graphiques et les processeurs disponibles sur le marché.
Cette grande question du meilleur couple CPU/GPU est universelle mais ne possède pas, à proprement parler, de réponse absolue;
Mais un jeu vidéo fonctionne comment ?
Pour comprendre le problème, il faut revenir sur le mode de fonctionnement d’un jeu. Au départ, le processeur est en charge de calculer le positionnement des différents éléments constituant la scène ainsi que les interactions possibles, les comportements (intelligence artificielle) et la position de la caméra. De façon simple, la résolution n’entre pas en jeu et seul le niveau de complexité du jeu (par le nombre d’objets présents, l’action en cours) peut mettre à mal le processeur, qui n’offrira donc qu’un certain nombre d’images par seconde à la carte graphique.
Une fois ces données calculées, le rôle de la carte graphique et plus précisément du GPU, est de calculer, géométriquement parlant, la position des objets, leur définition et l’environnement qui est appliqué (lumière, brouillard…). Chaque triangle obtenu (base de travail du GPU pour mettre en œuvre un environnement 3D) est alors découpé en pixels, traités pour l’application de différents effets, et enregistrés. Ici, la résolution joue un rôle primordial dans les performances de la carte graphique car, plus elle est élevée, plus la charge de travail de découpage de triangles en pixels est importante.
Imaginons maintenant que le CPU puisse seulement calculer 30 images/secondes. La carte graphique, même si elle est capable de fournir 80 images par seconde ne pourra pas s’exprimer. Elle est automatiquement bridée à 30 images/seconde par le processeur. La seule issue est alors de monter en résolution, afin de s’adapter aux possibilités de la solution graphique, et en vue d’obtenir ainsi une homogénéité du couple CPU/GPU.
Le meilleur couple CPU/GPU : Il n’existe pas de réponse.
Chaque jeu, ayant sa propre consommation CPU suivant sa complexité et son degré d’optimisation, réclame un type de processeur particulier. Il devient donc impossible de déterminer avec certitude le meilleur couple CPU/GPU.
Le seul terrain, où il est réellement possible d’optimiser et d’apporter une réflexion solide, se situe au niveau d’une harmonisation de l’ensemble carte graphique – processeur
Dans l’étude absolue d’une solution graphique, l’idéal serait d’avoir un processeur d’une puissance gigantesque, voire absolue, afin d’abattre toutes les limitations de ce côté-là. Cela représenterait l’expérimentation parfaite, mais purement théorique et idéale. C’est pourquoi, la majorité des tests se font avec des processeurs très haut de gamme, mais malheureusement cela ne représente pas le paysage informatique de monsieur tout le monde ; en tout cas, jouer sur de plus hautes résolutions permet alors d’homogénéiser les performances de la solution graphique avec celles du processeur.
Mais, là encore, la majorité des gens ne possède pas (encore) un écran 22 ou 24 pouces, et une définition de 1280 x 1024 reste toujours une référence, qui touche un maximum d’utilisateurs d’ordinateur.
Avec cette logique, sous 3DMark 2006 et 2005, sans l’optique de changer soit l’écran, soit le processeur, une GeForce 8800 GTS 512 Mo n’apporte guère de performances en plus.
Mais, vous me direz : Qui joue à 3DMark ? C’est un benchmark ! Regardons alors, en pratique, ce qu’il en retourne.