Les Sapphire Rapids avec HBM intégré renforcent les performances ; les capacités GPU, réseau et stockage d’Intel améliorent la boîte à outils HPC.
Que faut-il retenir ?
À l’occasion de l’édition 2021 de la conférence International Supercomputing Conference (ISC), Intel montre comment l’entreprise renforce son avance dans le domaine du calcul haute performance (HPC) grâce à une série de révélations technologiques, de partenariats et d’adoption par les clients. Les processeurs Intel sont l’architecture de calcul la plus largement déployée dans les supercalculateurs du monde entier, permettant des découvertes médicales et des percées scientifiques mondiales. Intel annonce des avancées dans son processeur Xeon pour le HPC et l’IA, ainsi que des innovations dans les domaines de la mémoire, des logiciels, du stockage de classe exascale et des technologies de mise en réseau pour toute une série de cas d’utilisation du HPC.
Trish Damkroger, Vice-présidente et Directrice générale de la division High Performance Computing chez Intel déclare
“Pour maximiser les performances du HPC, nous devons exploiter toutes les ressources informatiques et les avancées technologiques à notre disposition . Intel est la force motrice de l’évolution de l’industrie vers l’informatique exascale, et les progrès que nous réalisons avec nos CPU, XPU, oneAPI Toolkits, le stockage DAOS de classe exascale et les réseaux à haut débit nous rapprochent de cette réalisation.”
Au début de cette année, Intel a renforcé sa position de leader dans le domaine du HPC avec le lancement des processeurs Intel Xeon Scalable de 3e génération. Ce dernier processeur offre des performances jusqu’à 53 % supérieures à celles du processeur de la génération précédente dans toute une série de charges de travail HPC, notamment dans les domaines des sciences de la vie, des services financiers et de la fabrication.
Par rapport à son concurrent x86 le plus proche, le processeur Intel Xeon Scalable de 3ème génération offre de meilleures performances dans une gamme de charges de travail HPC populaires. Par exemple, si l’on compare un processeur Xeon Scalable 8358 à un processeur AMD EPYC 7543, les performances
de NAMD sont supérieures de 62 %, LAMMPS est 57 % plus performant, RELION 68 % plus performant et Binomial Options 37 % plus performant.
En outre, les simulations Monte Carlo s’exécutent plus de deux fois plus vite, ce qui permet aux sociétés financières d’obtenir des résultats de tarification en deux fois moins de temps. Les processeurs Xeon Scalable 8380 surpassent également les processeurs AMD EPYC 7763 dans les charges de travail clés de l’IA, avec des performances 50 % supérieures sur 20 repères courants. Parmi les laboratoires de calcul intensif, les centres de supercalculateurs, les universités et les fabricants d’équipements d’origine qui ont adopté la dernière plate-forme de calcul d’Intel figurent Dell Technologies, HPE, l’Administration Météorologique Coréenne, Lenovo, Max Planck Computing and Data Facility, Oracle, l’Université d’Osaka et l’Université de Tokyo.
Intégration de la mémoire à large bande passante dans les processeurs Intel Xeon Scalable de nouvelle génération
Les charges de travail telles que la modélisation et la simulation (par exemple, la dynamique des fluides numérique, les prévisions climatiques et météorologiques, la chromodynamique quantique), l’intelligence artificielle (par exemple, l’apprentissage profond et l’inférence), l’analyse (par exemple, l’analyse des données volumineuses), les bases de données en mémoire, le stockage et autres alimentent les percées scientifiques de l’humanité. La prochaine génération de processeurs Intel Xeon Scalable (nom de code “Sapphire Rapids”) sera dotée d’une mémoire à large bande passante (HBM) intégrée, ce qui permettra d’augmenter considérablement la bande passante de la mémoire et d’améliorer sensiblement les performances des applications HPC qui exploitent des charges de travail concernées. Les utilisateurs peuvent faire tourner les charges de travail en utilisant uniquement la mémoire à large bande passante ou en la combinant avec la mémoire DDR5.
Les clients sont très enthousiastes à l’idée d’utiliser les processeurs Sapphire Rapids avec HBM intégrée, avec de premiers succès tels que le supercalculateur Aurora du Ministère américain de l’Energie à l’Argonne National Laboratory et le supercalculateur Crossroads au Los Alamos National Laboratory.
Rick Stevens, directeur associé du Computing, Environment and Life Sciences à Argonne National Laboratory déclare
« L’obtention de résultats à l’échelle exascale nécessite l’accès et le traitement rapides de quantités massives de données. L’intégration d’une mémoire à large bande passante dans les processeurs Intel Xeon Scalable va considérablement augmenter la bande passante mémoire d’Aurora et nous permettre d’exploiter la puissance de l’intelligence artificielle et de l’analyse des données pour effectuer des simulations avancées et de la modélisation 3D. »
Charlie Nakhleh, directeur associé du laboratoire pour la Physique des Armes au Los Alamos National Laboratory, a déclaré
“Le supercalculateur Crossroads du Los Alamos National Labs est conçu pour faire progresser l’étude des systèmes physiques complexes pour la science et la sécurité nationale. Le processeur Xeon de nouvelle génération Sapphire Rapids d’Intel, associé une mémoire à large bande passante, améliorera considérablement les performances des charges de travail gourmandes en mémoire dans notre système Crossroads. Le produit [Sapphire Rapids avec HBM] accélère les calculs
les plus complexes de physique et d’ingénierie, ce qui nous permet d’assumer des responsabilités majeures en matière de recherche et de développement dans les domaines de la sécurité mondiale, des technologies énergétiques et de la compétitivité économique.”
La plateforme basée sur le Sapphire Rapids offrira des capacités uniques pour accélérer le HPC, notamment une bande passante d’E/S accrue avec un PCI express de 5.0 (par rapport à un PCI express de 4.0) et la prise en charge de Compute Express Link (CXL) 1.1, permettant des cas d’utilisation avancés dans le calcul, la mise en réseau et le stockage.
Outre les avancées en matière de mémoire et d’E/S, le Sapphire Rapids est optimisé pour les HPC, les charges de travail de calcul intensif et d’intelligence artificielle (IA), avec un nouveau moteur d’accélération de l’IA intégré appelé Intel Advanced Matrix Extensions (AMX). Intel AMX est conçu pour offrir une augmentation significative des performances pour l’inférence et l’apprentissage profond. Parmi les clients qui travaillent déjà sous Sapphire Rapids figurent CINECA, le Leibniz Supercomputing Centre (LRZ) et l’Argonne National Lab, ainsi que les équipes du système Crossroads au Los Alamos National Lab et au Sandia National Lab.
Mise sous tension du GPU Xe-HPC d’Intel (Ponte Vecchio)
Au début de l’année, Intel a mis sous tension son GPU Xe-HPC (nom de code “Ponte Vecchio”) et est en train de valider le système. Ponte Vecchio est un GPU basé sur l’architecture Xe et optimisé pour les charges de travail HPC et IA. Il s’appuiera sur la technologie de packaging 3D Foveros d’Intel pour intégrer plusieurs IP dans le package, notamment la mémoire HBM ainsi que d’autres propriétés intellectuelles. Le GPU est architecturé avec du calcul, de la mémoire et de la matrice pour répondre aux besoins évolutifs des superordinateurs les plus avancés au monde, comme Aurora.
Ponte Vecchio sera disponible sous la forme d’un module d’accélération OCP (OAM) et de sous-systèmes, offrant les capacités de mise à l’échelle et d’extension requises pour les applications HPC.
Extension de l’Ethernet Intel pour le HPC
À l’occasion du salon ISC 2021, Intel annonce également sa nouvelle solution High Performance Networking avec Ethernet (HPN), qui étend les capacités de la technologie Ethernet pour les plus petits clusters du segment HPC. La solution HPN utilise les adaptateurs et contrôleurs réseau Intel Ethernet série 800 standard, les commutateurs basés sur les ASIC de commutation Ethernet programmables Intel® Tofino™ P4 et le logiciel Intel® Ethernet Fabric suite. HPN permet d’obtenir des performances applicatives comparables à celles d’InfiniBand, à un coût moindre tout en profitant de la facilité d’utilisation offerte par Ethernet.
Soutien commercial pour DAOS
Intel lance la phase de commercialisation de DAOS (distributed application object storage), un magasin d’objets défini par logiciel libre et conçu pour optimiser l’échange de données sur les architectures HPC
Intel. DAOS est à la base de la pile de stockage Intel Exascale, annoncée précédemment par l’Argonne National Laboratory, et est utilisé par des clients Intel, tels que LRZ et JINR (Joint Institute for Nuclear Research). Le support DAOS est maintenant disponible pour les partenaires en tant qu’offre de support L3, ce qui permet aux partenaires de fournir une solution de stockage clé en main complète en la combinant avec leurs services. En plus des modules de data center propres à Intel, les principaux partenaires de ce nouveau support commercial comprennent HPE, Lenovo, Supermicro, Brightskies, Croit, Nettrix, Quanta et RSC Group.
Microsoft poursuit l'amélioration de Windows 11 avec la publication d’une nouvelle build, la build 22635.4510.… Lire d'avantage
Le microcode Arrow Lake 0x112 introduit un changement majeur concernant la gestion du DLVR le… Lire d'avantage
Obsidian Entertainment a révélé de nouveaux détails autour de son prochain RPG fantastique à la… Lire d'avantage
Gigabyte enrichit ses cartes graphiques professionnelles avec la Radeon PRO W7800 AI TOP 48G. Elle… Lire d'avantage
A l'occasion des 20 ans de Half-Life 2, NVIDIA s’est associé à Orbifold Studios pour… Lire d'avantage
La mise à jour Windows 11 KB5046633 introduit un bug perturbant. Suite à son installation… Lire d'avantage