((Traduction automatisée par Reuters, veuillez consulter la clause de non-responsabilité https://bit.ly/rtrsauto))
(Correction après que Meta a déclaré avoir prévu à tort qu'elle ne recevrait pas de nouvelles puces Nvidia avant l'année prochaine au moins)
Meta Platforms META.O , propriétaire de Facebook, s'attend à recevoir les premières livraisons de la nouvelle puce phare d'intelligence artificielle de Nvidia NVDA.O dans le courant de l' année, a déclaré un porte-parole de Meta à Reuters.
Nvidia, le principal concepteur de puces GPU (graphics processing unit) nécessaires pour faire fonctionner la plupart des travaux d'intelligence artificielle de pointe, a annoncé la nouvelle puce B200 "Blackwell" lors de sa conférence annuelle des développeurs lundi.
Le fabricant de puces a déclaré que la puce B200 est 30 fois plus rapide pour des tâches telles que l'envoi de réponses par des chatbots, bien qu'il n'ait pas donné de détails spécifiques sur ses performances lorsqu'il s'agit de traiter d'énormes quantités de données pour former ces chatbots, ce qui est le type de travail qui a alimenté la majeure partie de l'augmentation des ventes de Nvidia.
Colette Kress, directrice financière de Nvidia, a déclaré aux analystes financiers mardi que "nous pensons que nous allons arriver sur le marché plus tard cette année", mais a également indiqué que le volume de livraison des nouveaux GPU n'augmenterait pas avant 2025.
Le géant des médias sociaux Meta est l'un des plus gros clients de Nvidia, après avoir acheté des centaines de milliers de puces de la génération précédente pour soutenir les systèmes de recommandation de contenu et les produits d'IA générative.
Mark Zuckerberg, directeur général de Meta, a révélé en janvier que l'entreprise prévoyait d'avoir environ 350 000 de ces puces antérieures, appelées H100, dans son stock d'ici la fin de l'année. En combinaison avec d'autres GPU, a-t-il ajouté, Meta disposerait de l'équivalent d'environ 600 000 H100 d'ici là.
Dans une déclaration faite lundi, M. Zuckerberg a indiqué que Meta prévoyait d'utiliser Blackwell pour entraîner les modèles Llama de l'entreprise. L'entreprise entraîne actuellement une troisième génération du modèle sur deux grappes de GPU qu'elle a annoncées la semaine dernière et qui, selon elle, contiennent chacune environ 24 000 GPU H100.
Meta prévoit de continuer à utiliser ces clusters pour entraîner Llama 3 et d'utiliser Blackwell pour les futures générations du modèle, a déclaré le porte-parole de Meta.

0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer