Nvidia est susceptible d’introduire d’importants changements de conception au travers de sa prochaine vitrine, la GeForce RTX 5090. Une fuite évoque l’emplacement des modules mémoire.
Selon des informations disponibles sur Chiphell, la disposition de la mémoire vidéo de la GeForce RTX 5090 sera différente de celle de la GeForce RTX 4090. Les rumeurs évoquent une carte graphique architecturée autour d’un GPU Blackwell GB202 équipé d’un bus mémoire de 512 bits. Si cet équipement se vérifie, il permettra d’augmenter la capacité mémoire, ce qui nécessiterait plus de modules autour du GPU.
La GeForce RTX 5090 est censée prendre en charge la mémoire GDDR7, disposée dans une configuration plus dense que l’approche adoptée par la RTX 4090 actuelle. Elle permettrait d’évoluer d’un schéma 3-4-1-4 à 4-5-2-5 soit la possibilité de profiter d’un ensemble de 16 modules autour du GPU. En supposant une capacité de 2 Go par puce cela nous donne un potentiel 32 Go de VRAM.
A cela s’ajoute d’autres fuites confirmant l’une de nos hypothèses lors de la découverte d’un système de refroidissement jamais commercialisé jusqu’à présent.
Il laisse entendre l’utilisation de trois PCBs (circuit électronique). Le dissipateur est massif nécessitant quatre slots d’extensions et en proposant trois emplacements pour ventilateur.
Nvidia devrait présenter sa gamme de GeForce RTX 50 series cette année au cours du quatrième trimestre.
Intel a-t-il réussi, en une génération de GPU, à inverser la tendance en se positionnement… Lire d'avantage
En attendant son abandon définitif en juin 2025, XDefiant est la cible d’une importante mise… Lire d'avantage
Microsoft confirme un nouveau bug avec Windows 11 24H2. Il affecte principalement les joueurs et… Lire d'avantage
Microsoft propose une nouvelle Preview de Windows 11. Cette Build 26120.2705 introduit quelques nouveautés intéressantes. Lire d'avantage
Le Wi-Fi est moyen simple et rapide de se connecter à Internet. Sous Windows 11,… Lire d'avantage
Intel apporte des explications aux problèmes de performance rencontrés par sa dernière gamme de processeurs… Lire d'avantage