Nvidia semble décidé à proposer une GeForce RTX 2060 12 Go afin de contrer l’offre entrée de gamme d’AMD basée sur Navi 23. L’actuelle GeForce RTX 3050 semble pas suffisamment armée.
L’existence de la GeForce RTX 2060 12 Go a été évoqué il y a déjà un petit moment. Les rumeurs évoquent cette carte car une solution pour Nvidia d’enrichir son offre sur l’entrée de gamme. Pour le moment ce dossier est encore vague. Si le nom de la carte ne laisse guère de doute sur son équipement coté mémoire vidéo, nous ne savons pas si des changements sont prévus au niveau du GPU. En clair cette nouvelle édition va-t-elle proposer de spécifications différentes de celle la GeForce RTX 2060 premier du nom ?
GeForce RTX 2060 12 Go, que savons-nous ?
Selon un nouveau rapport la belle est à considérer comme une solution pour contrer les GPU RDNA 2 d’AMD visant l’entrée de gamme. Par contre comment cette RTX 2060 12 Go va-t-elle parvenir à rester compétitive en 2022 ? A l’origine la carte a été lancée en 2019 puis a profité d’un petit coup de boost au travers d’une variante Super. Ses prouesses lui permettraient aujourd’hui d’être plus efficace que les GeForce RTX 3050 Ti et RTX 3050 qui semblent en difficulté pour proposer une alternative à l’entrée de gamme RDNA 2.
Sur la question du tarif, la carte graphique est susceptible de débarquer en boutique à 300 $ US tandis que la Radeon RX 6600 est censé s’afficher à 329 $ (prix recommandé par AMD) soit 400 à 450$ au final. De son côté la GeForce RTX 3060 12 Go a été annoncée à 329 $ mais son positionnement se situe désormais aux alentours des 500 $ US.
“GeForce RTX 2060 12 Go, la solution de Nvidia pour s’attaquer à
l’entrée de gamme d’AMD”
Un déterrage de dies Turing montés avec plus de capacité mémoire
pour attaquer toujours plus le porte-feuille des joueurs sur PC
en période de pseudo-pénurie de composants…
Par ailleurs, sans surprise TSMC a refusé de communiquer aux autorités
américaines ses magouilles avec ses clients américains.
A quand les perquisitions directement chez AMD, nVidia et Intel pour
mettre en perspective les commandes réelles de wafers face à la
pseudo-pénurie?