((Traduction automatisée par Reuters, veuillez consulter la clause de non-responsabilité https://bit.ly/rtrsauto))
(Ajoute des détails)
Le sud-coréen SK Hynix
000660.KS , fournisseur de Nvidia NVDA.O , s'attend à ce que les puces de mémoire à grande largeur de bande (HBM) utilisées dans les puces d'intelligence artificielle représentent un pourcentage à deux chiffres de ses ventes de puces DRAM en 2024, a déclaré mercredi le directeur général Kwak Noh-Jung.
Ce mois-ci, le deuxième fabricant mondial de puces mémoire a commencé la production de masse des puces HBM avancées de la prochaine génération, et des sources ont indiqué que les premières livraisons seraient destinées à Nvidia.
Les puces HBM sont des puces de mémoire avancées très demandées pour les unités de traitement graphique (GPU) produites par Nvidia et d'autres, qui traitent de grandes quantités de données dans le cadre de l'IA générative.
SK Hynix a dominé le marché des puces HBM en étant le seul fournisseur de la version actuellement utilisée - la HBM3 - à Nvidia, qui détient 80 % du marché des puces d'IA.
Les analystes estiment que les puces HBM représenteront 15 % des ventes de DRAM de l'industrie cette année, contre 8 % en 2023.

0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer