((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto)) par Heekyong Yang et Hyunjoo Jin
Samsung Electronics 005930.KS a déclaré vendredi être en "discussions approfondies" pour fournir ses puces de mémoire à large bande passante (HBM) de prochaine génération, ou HBM4, à Nvidia NVDA.O , alors que le fabricant de puces sud-coréen s'efforce de rattraper ses rivaux dans la course aux puces d'intelligence artificielle.
Samsung, qui prévoit de commercialiser la nouvelle puce l'année prochaine, n'a pas précisé quand il entendait livrer la dernière version de sa puce HBM, un élément clé des puces d'intelligence artificielle.
Le concurrent local SK Hynix 000660.KS , premier fournisseur de puces HBM de Nvidia, a déclaré mercredi qu'il comptait commencer à livrer ses dernières puces HBM4 au quatrième trimestre et augmenter ses ventes l'année prochaine.
Dans un communiqué annonçant la coopération avec Samsung et d'autres entreprises coréennes, Nvidia a déclaré être en "collaboration clé pour l'approvisionnement en HBM3E et HBM4", sans donner plus de détails.
Samsung a été plus lent à tirer parti de l'essor des puces mémoire induit par l'IA, ce qui a entraîné une baisse des bénéfices et un remaniement de sa division puces l'année dernière. Ses bénéfices se sont redressés ce trimestre, grâce à la demande de puces mémoire conventionnelles.
Cette semaine, l'entreprise a déclaré qu'elle vendait ses puces HBM3E de génération actuelle à "tous les clients concernés", ce qui indique qu'elle a rejoint ses rivaux pour fournir les dernières puces HBM3E à 12 couches à Nvidia.
Selon les analystes, le lancement des puces HBM4 constituera un test majeur de la capacité de Samsung à reprendre l'avantage sur le marché.
HBM - un type de mémoire vive dynamique (DRAM) standard produit pour la première fois en 2013 - implique d'empiler les puces verticalement pour gagner de l'espace et réduire la consommation d'énergie, en aidant à traiter le grand volume de données généré par les applications complexes de l'IA.

0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer