Grâce à ses GPU, Nvidia rencontre un important succès sur le segment de l’IA . L’entreprise fait face à une demande explosive à l’origine de nouveaux problèmes dont des prix plus élevés et une offre limitée de puces.
La demande de GPU est instable depuis plusieurs années. La situation a débuté lors de la pandémie de COVID 19 à l’origine d’une énorme demande de GPU sur plusieurs segments clés (gaming, client et cryptographie). Elle a conduit à un marché totalement dérégulé avec des prix ayant atteint des sommets. En 2022 un violent retour de manette a eu lieu.
L’offre plus généreuse pour affronter la demande s’est retrouvée face à une crise économique majeure. Elle a conduit à une violente contraction du marché. L’inflation, l’augmentation des prix des matériaux et de la fabrication ou encore l’arrêt de la demande en particulier sur le marché de la cryptomonnaie ont engendré de nouvelles instabilités. Nvidia, AMD et Intel ont tenté d’inverser la vapeur avec de nouvelles générations de GPU mais la politique de prix plus élevés n’a pas été acceptée par les consommateurs. A cela s’ajoute un marché de l’occasion que n’a fait que s’enrichir et les stocks d’anciennes références sont toujours présents sur les étagères des détaillants.
Dans un tel contexte nous pourrions penser que la situation est compliquée pour Nvidia. En réalité pas du tout. Nvidia rencontre un important succès en raison de l’IA. Que nous parlions de ChatGPT, Generative AI, Stable Diffusion tout ce petit monde est un important consommateur de GPU. Les puces Nvidia sont utilisés pour relever les défis de l’IA, du ML et du DNN dans diverses charges de travail et ce n’est qu’un début.
Actuellement, la tarification de GPU H100 de Nvidia dépasse les 35 000 $ US. Elle devrait atteindre les 50 000 $ US compte tenu de la tendance actuelle du marché. Selon MyDrivers à mesure que la demande continue de croître, les commandes s’accumulent et d’ici 2024, toute nouvelle commande nécessitera des délais de six mois à 12 mois. Il est dit que Nvidia est susceptible de donner la priorité aux gros clients.
Le géant travaille sur plusieurs variantes du H100. Des versions 64 Go et 94 Go ont déjà été repérées. La puce H100 la plus haut de gamme contient 120 Go de VRAM, soit -37,5% de moins que la prochaine AMD Instinct MI300X.
Lian Li dévoile sa gamme de ventilateurs UNI FAN TL Wireless. La technologie 2,4 GHz… Lire d'avantage
Intel abandonne son initiative x86S, un projet visant à rationaliser l'architecture x86 en supprimant les… Lire d'avantage
Un chanceux a reçu une carte graphique Arc B570 d'Intel. La carte en question est… Lire d'avantage
Intel semble prêt à renouveler son offre d’entrée de gamme avec une nouvelle série de… Lire d'avantage
Asus est le premier constructeur de carte mère à déployer le microcode 0x114 d’Intel censé… Lire d'avantage
Les prochains APU Ryzen AI Kraken Point d’AMD se positionnent comme des solutions accessibles pour… Lire d'avantage
Voir commentaires
Une bulle AI qui masque la course à l'armement du PCC contournant les
sanctions américaines sur les supercalculateurs par l'assemblage de
composants issus de la triade AMD/nVidia/TSMC.