((Traduction automatisée par Reuters, veuillez consulter la clause de non-responsabilité https://bit.ly/rtrsauto))
Micron Technology MU.O a commencé la production de masse de ses semi-conducteurs de mémoire à large bande passante destinés à être utilisés dans la dernière puce de Nvidia pour l'intelligence artificielle, ce qui a fait grimper ses actions de plus de 4 % avant la cloche lundi.
Le HBM3E (High Bandwidth Memory 3E) consommera 30 % d'énergie en moins que les offres concurrentes, a déclaré Micron, et pourrait contribuer à répondre à la demande croissante de puces qui alimentent les applications génératives de l'intelligence artificielle.
Nvidia NVDA.O utilisera la puce dans ses unités de traitement graphique H200 de nouvelle génération, qui devraient commencer à être livrées au deuxième trimestre et supplanter la puce H100 actuelle qui a entraîné une augmentation massive des revenus du concepteur de puces.
La demande de puces de mémoire à grande largeur de bande (HBM), un marché dirigé par le fournisseur de Nvidia SK Hynix, pour une utilisation dans l'intelligence artificielle, a également fait naître chez les investisseurs l'espoir que Micron serait en mesure de surmonter la lenteur de la reprise sur ses autres marchés.
Le HBM est l'un des produits les plus rentables de Micron, notamment en raison de la complexité technique de sa construction.
L'entreprise avait précédemment déclaré qu'elle s'attendait à des revenus de HBM de "plusieurs centaines de millions" de dollars pour l'exercice 2024 et à une croissance continue en 2025.
0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer