Aller au contenu principal Activer le contraste adaptéDésactiver le contraste adapté
Plus de 40 000 produits accessibles à 0€ de frais de courtage
Découvrir Boursomarkets
Fermer

EXCLUSIF-Meta va déployer des puces personnalisées en interne cette année pour alimenter l'IA - mémo
information fournie par Reuters 01/02/2024 à 17:17

((Traduction automatisée par Reuters, veuillez consulter la clause de non-responsabilité https://bit.ly/rtrsauto)) par Katie Paul, Stephen Nellis et Max A. Cherney

Meta Platforms META.O , propriétaire de Facebook, prévoit de déployer cette année dans ses centres de données une nouvelle version d'une puce personnalisée destinée à soutenir son effort en matière d'intelligence artificielle (AI), selon un document interne de l'entreprise vu par Reuters jeudi.

La puce, une deuxième génération d'une ligne de silicium interne que Meta a annoncée l'année dernière, pourrait aider à réduire la dépendance de Meta à l'égard des puces Nvidia

NVDA.O qui dominent le marché et à contrôler les coûts croissants associés à l'exécution des charges de travail d'IA, alors qu'il se précipite pour lancer des produits d'IA.

La plus grande entreprise de médias sociaux au monde a fait des pieds et des mains pour augmenter sa capacité de calcul pour les produits d'IA générative gourmands en énergie qu'elle introduit dans les applications Facebook, Instagram et WhatsApp et les appareils matériels comme ses lunettes intelligentes Ray-Ban, en dépensant des milliards de dollars pour accumuler des arsenaux de puces spécialisées et reconfigurer les centres de données pour les accueillir.

Selon Dylan Patel, fondateur du groupe de recherche sur le silicium SemiAnalysis, à l'échelle à laquelle Meta opère, un déploiement réussi de sa propre puce pourrait potentiellement réduire de plusieurs centaines de millions de dollars les coûts annuels d'énergie et de plusieurs milliards les coûts d'achat des puces.

Les puces, l'infrastructure et l'énergie nécessaires pour faire fonctionner les applications d'IA sont devenues un énorme gouffre d'investissement pour les entreprises technologiques, annulant dans une certaine mesure les gains réalisés par dans l'enthousiasme suscité par la technologie.

Un porte-parole de Meta a confirmé le projet de mise en production de la nouvelle puce en 2024, précisant qu'elle fonctionnerait en coordination avec les centaines de milliers d'unités de traitement graphique (GPU) - les puces les plus utilisées pour l'IA - que l'entreprise achetait.

"Nous considérons que nos accélérateurs développés en interne sont très complémentaires des GPU disponibles dans le commerce pour offrir un mélange optimal de performances et d'efficacité sur les charges de travail spécifiques à Meta", a déclaré le porte-parole dans un communiqué.

Le mois dernier, Mark Zuckerberg, directeur général de Meta, a déclaré que l'entreprise prévoyait d'avoir d'ici la fin de l'année environ 350 000 processeurs phares "H100" de Nvidia, qui produit les GPU les plus recherchés utilisés pour l'IA. Combiné à d'autres fournisseurs, Meta accumulerait l'équivalent de la capacité de calcul de 600 000 processeurs H100 au total, a-t-il déclaré.

Le déploiement de sa propre puce dans le cadre de ce plan est un tournant positif pour le projet interne de silicium d'IA de Meta, après la décision prise par les dirigeants en 2022 de mettre fin à la première itération de la puce . La société a opté pour l'achat de milliards de dollars de silicium d'IA.

L'entreprise a préféré acheter des milliards de dollars de GPU de Nvidia, qui détient un quasi-monopole sur un processus d'IA appelé formation, qui consiste à introduire d'énormes ensembles de données dans les modèles pour leur apprendre à effectuer des tâches.

La nouvelle puce, appelée en interne "Artemis", comme son prédécesseur, ne peut exécuter qu'un processus connu sous le nom d'inférence, dans lequel les modèles sont appelés à utiliser leurs algorithmes pour effectuer des jugements de classement et générer des réponses aux invites de l'utilisateur.

L'année dernière, Reuters a rapporté que Meta travaillait également sur une puce plus ambitieuse qui, à l'instar des GPU, serait capable d'effectuer à la fois l'entraînement et l'inférence.

L'année dernière, la société basée à Menlo Park, en Californie, a communiqué des détails sur la première génération de son programme Meta Training and Inference Accelerator (MTIA). L'annonce présentait cette version de la puce comme une opportunité d'apprentissage.

Selon M. Patel, malgré ces premières difficultés, une puce d'inférence pourrait être beaucoup plus efficace pour traiter les modèles de recommandation de Meta que les processeurs Nvidia, très gourmands en énergie.

"Il y a beaucoup d'argent et d'énergie dépensés qui pourraient être économisés", a-t-il déclaré.

Valeurs associées

NASDAQ +3.44%
NASDAQ +0.23%
NASDAQ +3.04%
NASDAQ +3.77%

0 commentaire

Signaler le commentaire

Fermer

Mes listes

Cette liste ne contient aucune valeur.