((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto))
* Les nouvelles prévisions d'opportunités de revenus représentent un grand pas en avant par rapport aux 500 milliards de dollars prévus jusqu'en 2026
* Nvidia dévoile un processeur et un système d'IA basés sur la technologie Groq pour le calcul d'inférence
* Nvidia fait face à une concurrence accrue sur le marché des puces d'IA
* Les actions de Nvidia clôturent en hausse de 1,6 %, loin du sommet de la séance
(Ajout de détails) par Stephen Nellis et Max A. Cherney
Nvidia NVDA.O a déclaré que l'opportunité de revenus pour ses puces d'intelligence artificielle pourrait atteindre au moins 1 000 milliards de dollars d'ici 2027, alors que l'entreprise a exposé une stratégie visant à rivaliser plus agressivement sur le marché à croissance rapide de l'exécution de systèmes d'intelligence artificielle en temps réel.
Le directeur général Jensen Huang a dévoilé un nouveau processeur central et un système d'intelligence artificielle basé sur la technologie de Groq, une entreprise de puces dont Nvidia a acquis la technologie sous licence pour 17 milliards de dollars en décembre, lors de sa conférence annuelle des développeurs GTC à San Jose, en Californie.
Ces initiatives s'inscrivent dans le cadre des efforts déployés par M. Huang pour renforcer la position de l'entreprise dans le domaine de l'informatique d'inférence, qui consiste à répondre à des requêtes, où ses processeurs graphiques sont confrontés à une concurrence accrue de la part des unités centrales de traitement et des processeurs personnalisés construits par des entreprises telles que Google. Les puces Nvidia ont dominé le processus d'apprentissage des modèles d'IA, qui a été au centre des préoccupations ces dernières années.
"L'inflexion de l'inférence est arrivée", a déclaré M. Huang. "Et la demande ne cesse d'augmenter", a-t-il ajouté.
Vêtu de son blouson de cuir noir caractéristique, M. Huang s'exprimait dans une arène de hockey pouvant accueillir plus de 18 000 personnes lors de la conférence de quatre jours qui est devenue l'une des plus grandes vitrines de la technologie de l'IA. "Je tiens à vous rappeler qu'il s'agit d'une conférence sur la technologie", a-t-il déclaré au public.
Mais après un rallye fulgurant qui a fait de Nvidia la première entreprise à atteindre une valorisation de 5 000 milliards de dollars en octobre dernier, des doutes se sont fait jour quant à sa croissance. Les investisseurs se demandent également si son projet de réinvestir ses bénéfices dans l'écosystème de l'IA portera ses fruits. Les commentaires de M. Huang ont apaisé certaines craintes.
La prévision de 1 000 milliards de dollars est supérieure à l'opportunité de revenus de 500 milliards de dollars jusqu'en 2026 que Nvidia avait citée pour ses puces d'IA Blackwell et Rubin lors de sa dernière conférence de presse sur les résultats en février.
Les actions de Nvidia ont brièvement bondi à la suite de ces nouvelles prévisions, mais ont réduit ces gains pour clôturer en hausse de 1,2 %.
"Huang, qui prévoit une opportunité de 1 000 milliards de dollars jusqu'en 2027, souligne la demande durable pour l'infrastructure d'IA de Nvidia, malgré les inquiétudes des investisseurs", a déclaré Jacob Bourne, analyste chez Emarketer.
"Cela indique que Nvidia maintient son leadership sur le marché des puces d'IA alors que l'ensemble de l'industrie de l'IA se développe au-delà des premières expérimentations vers un déploiement à grande échelle."
EXPLOSION DE L'INFÉRENCE
Huang a déclaré que l'inférence, où les systèmes d'IA répondent à des questions ou exécutent des tâches, sera divisée en deux étapes.
Les puces Vera Rubin de Nvidia s'occuperont d'une première étape appelée "prefill", au cours de laquelle la demande de l'utilisateur est transformée de mots humains en langage de "tokens" que les ordinateurs d'IA utilisent.
Les nouvelles puces de Groq se chargeront d'une deuxième étape, le "décodage", au cours de laquelle l'ordinateur d'IA fournira la réponse recherchée par l'utilisateur.
Après avoir dépensé des centaines de milliards de dollars ces dernières années en puces pour entraîner leurs modèles d'IA, des entreprises comme OpenAI, Anthropic et Meta META.O s'orientent vers le service aux centaines de millions d'utilisateurs qui utilisent ces systèmes d'IA.
Cela stimule également la demande de CPU - qui sont dominés par Intel et sont de plus en plus considérés comme une alternative viable aux processeurs graphiques de Nvidia pour le déploiement de modèles d'IA.
"Nous vendons beaucoup de CPU seuls", a déclaré M. Huang en dévoilant le nouveau CPU Vera. "Il est déjà certain que cela va devenir une activité de plusieurs milliards de dollars pour nous", a-t-il ajouté.
M. Huang a également présenté la feuille de route Feynman de l'entreprise, mais n'a offert que peu de détails en dehors d'une liste des différentes puces que Nvidia prévoit d'inclure dans la plateforme, y compris des processeurs d'intelligence artificielle et plusieurs puces de mise en réseau. L'architecture Feynman est attendue pour 2028, après les puces Rubin Ultra de l'entreprise.
L'entreprise vise également le marché des agents d'IA autonomes avec NemoClaw, qui s'intègre à la plateforme virale OpenClaw pour ajouter des contrôles de confidentialité et de sécurité à l'outil qui peut exécuter de manière autonome un large éventail de tâches avec un minimum de conseils humains et qui a suscité un engouement mondial.
"Il a en quelque sorte élevé le niveau de la discussion. Il a fait évoluer toute la réflexion sur la façon dont ils font de l'infrastructure", a déclaré Bob O'Donnell, président de Technalysis Research, en se référant aux annonces.
"Il (Huang) avait l'habitude de sortir une nouvelle puce GPU et de dire, regardez, voici ma nouvelle puce. Maintenant, il a, vous savez, cinq racks d'équipement qui composent ces systèmes."

0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer