Aller au contenu principal Activer le contraste adaptéDésactiver le contraste adapté
Plus de 40 000 produits accessibles à 0€ de frais de courtage
Découvrir Boursomarkets
Fermer

Micron lance la production de masse de ses puces mémoire destinées aux semi-conducteurs d'IA de Nvidia
information fournie par Reuters 26/02/2024 à 14:37

((Traduction automatisée par Reuters, veuillez consulter la clause de non-responsabilité https://bit.ly/rtrsauto))

Micron Technology MU.O a commencé la production de masse de ses semi-conducteurs de mémoire à large bande passante destinés à être utilisés dans la dernière puce de Nvidia pour l'intelligence artificielle, ce qui a fait grimper ses actions de plus de 4 % avant la cloche lundi.

Le HBM3E (High Bandwidth Memory 3E) consommera 30 % d'énergie en moins que les offres concurrentes, a déclaré Micron, et pourrait contribuer à répondre à la demande croissante de puces qui alimentent les applications génératives de l'intelligence artificielle.

Nvidia NVDA.O utilisera la puce dans ses unités de traitement graphique H200 de nouvelle génération, qui devraient commencer à être livrées au deuxième trimestre et supplanter la puce H100 actuelle qui a entraîné une augmentation massive des revenus du concepteur de puces.

La demande de puces de mémoire à grande largeur de bande (HBM), un marché dirigé par le fournisseur de Nvidia SK Hynix, pour une utilisation dans l'intelligence artificielle, a également fait naître chez les investisseurs l'espoir que Micron serait en mesure de surmonter la lenteur de la reprise sur ses autres marchés.

Le HBM est l'un des produits les plus rentables de Micron, notamment en raison de la complexité technique de sa construction.

L'entreprise avait précédemment déclaré qu'elle s'attendait à des revenus de HBM de "plusieurs centaines de millions" de dollars pour l'exercice 2024 et à une croissance continue en 2025.

Valeurs associées

NASDAQ +2.91%
NASDAQ +1.27%

0 commentaire

Signaler le commentaire

Fermer

Mes listes

Cette liste ne contient aucune valeur.