Le passage des puces Nvidia à la mémoire de type smartphone va doubler les prix de la mémoire pour serveurs d'ici fin 2026 - Counterpoint information fournie par Reuters 19/11/2025 à 09:43
((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto)) par Eduardo Baptista
La décision de Nvidia NVDA.O d'utiliser des puces mémoire de type smartphone dans ses serveurs d'intelligence artificielle pourrait faire doubler les prix de la mémoire pour serveurs d'ici fin 2026, selon un rapport publié mercredi par Counterpoint Research.
Au cours des deux derniers mois, les chaînes d'approvisionnement en électronique du monde entier ont été touchées par une pénurie de puces de mémoire anciennes , les fabricants s'étant tournés vers des puces de mémoire haut de gamme adaptées aux semi-conducteurs conçus pour les applications d'intelligence artificielle.
Mais Counterpoint, une société d'études de marché axée sur la technologie, a déclaré qu'un nouveau problème se profilait à l'horizon. Nvidia a récemment décidé de réduire les coûts d'alimentation des serveurs d'IA en changeant le type de puce mémoire qu'elle utilise pour la LPDDR, un type de puce mémoire à faible consommation d'énergie que l'on trouve normalement dans les téléphones et les tablettes, au lieu de la DDR5, qui est généralement utilisée dans les serveurs.
Nvidia devrait publier ses résultats plus tard dans la journée de mercredi.
Étant donné que chaque serveur d'intelligence artificielle nécessite plus de puces mémoire qu'un téléphone portable, le changement devrait créer une demande soudaine que l'industrie n'est pas en mesure de gérer, selon Counterpoint.
Les fournisseurs de mémoire comme Samsung Electronics
005930.KS , SK Hynix 000660.KS et Micron MU.O sont déjà confrontés à des pénuries d'anciens produits de mémoire vive dynamique après avoir réduit la production pour se concentrer sur la mémoire à large bande passante, qui est nécessaire pour fabriquer les accélérateurs avancés qui alimentent le boom mondial de l'IA.
Counterpoint a déclaré que le resserrement au bas de l'échelle du marché risque de se propager vers le haut, car les fabricants de puces évaluent s'ils doivent réorienter leur capacité de production vers la mémoire LPDDR pour répondre aux besoins de Nvidia.
"Le risque le plus important à l'horizon concerne les mémoires avancées, car le récent pivot de Nvidia vers le LPDDR signifie qu'il est un client de l'ampleur d'un grand fabricant de smartphones - un changement sismique pour la chaîne d'approvisionnement qui ne peut pas facilement absorber une demande de cette ampleur", a déclaré Counterpoint.
L'entreprise a déclaré qu'elle s'attendait à ce que les prix des puces de mémoire pour serveurs doublent d'ici la fin de l'année 2026.
L'augmentation des prix de la mémoire pour serveurs entraînerait une hausse des coûts pour les fournisseurs de cloud et les développeurs d'IA, ce qui pourrait accroître la pression sur les budgets des centres de données, déjà mis à rude épreuve par les dépenses record consacrées aux unités de traitement graphique et aux mises à niveau de l'alimentation électrique.