La conférence annuelle de Nvidia sur les technologies GPU, la GTC, est l’occasion pour le firme de présenter une partie de l’avenir où GPU et CPU s’unissent toujours un peu plus grâce à la technologie NVLink.
La présentation de deux importantes technologies futures a eu lieu à l’ouverture de la GTC. Le PDG de Nvidia, Jen Hsun Huang, a dressé un portrait de ce qui va marquer la prochaine génération de puces graphiques NVIDIA.
L’architecture Maxwell est prévue pour se démocratiser cette année. Elle a déjà fait son apparition, mais de façon discrète, avec le lancement de la GeForce GTX 750 Ti. Nvidia parle désormais de Pascal, en référence au célèbre français Blaise Pascal, un puce attendue pour 2016 qui inaugurera deux nouvelles technologies, le NVLync et le Stacked Memory.
GPU Pascal : Nvidia va proposer le NVLink et le Stacked Memory.
L’idée avec le NVLink est de rapprocher le processeur central de la solution graphique afin d’augmenter les performances globales. Il s’agit d’une nouvelle interconnexion jusqu’à 12 fois plus rapide que le PCIe 3.0. La bande passante annoncée va de 80 Go/s à 200 Go/s soit bien plus que les 16 Go/s disponibles actuellement. Pour que le système fonctionne, il faudra naturellement que le processeur soit compatible ce que compte bien faire IBM avec ses prochaines solutions Power mais nous ne savons pas si Intel ou AMD envisagent de prendre en charge cette technologie. Le NVLink pourra également être utilisé pour accroitre la communication entre GPU sur une plateforme multi-GPU.
Le NVLink vise à proposer au GPU un accès à la mémoire système calé sur celui du processeur, le tout avec unes bande passante similaire. Pour le moment, il n’est évoqué qu’une mémoire unifiée entre CPU et GPU mais le prochain pas sera surement une cohérence de cache entre ces deux entités. Le NVLink s’adressera aux professionnels gourmands d’applications de calcul massivement parallèles.
Nvidia a également parlé du 3D Memory, alias le Stacked Memory. Il s’agit ici d’une sorte d’amélioration architecturale de la puce avec l’implantation de mémoire au plus près du die afin que les accès soient les plus rapides possibles tout en limitant les pertes énergétiques. L’équation serait alors gagnante avec un gain d’efficacité multiplié par 4. Nvidia parle d’une technologie qui permet de multiples couches de composants DRAM intégrées de manière verticalement sur le die du GPU.
Ces deux technologies sont présentées comme une réponse face aux difficultés rencontrées par les développeurs pour éviter les goulots d’étranglements liés aux performances du PCIe.