((Traduction automatisée par Reuters, veuillez consulter la clause de non-responsabilité https://bit.ly/rtrsauto))
*
La puce IA Rubin de Nvidia inclura des puces GPU, CPU et réseau
*
Nvidia fait face à un retard avec sa puce phare actuelle Blackwell en raison d'un défaut de conception
*
Les start-ups spécialisées dans l'IA affirment que les chatbots compétitifs ont besoin de moins de puces Nvidia
(Ajoute la citation de l'analyste aux paragraphes 9-10) par Stephen Nellis et Max A. Cherney
Le directeur général de Nvidia, Jensen Huang, a déclaré mardi que la société était bien placée pour gérer un changement dans le secteur de l'intelligence artificielle, dans lequel les entreprises passent de la formation de modèles d'IA à l'obtention de réponses détaillées de leur part.
S'exprimant lors de la conférence annuelle des développeurs de logiciels de l'entreprise à San Jose, en Californie, M. Huang a défendu la position de leader de l'entreprise dans la vente de puces d'IA coûteuses à ses clients, qui a récemment été remise en question par les investisseurs après que la société chinoise DeepSeek ait créé un chatbot concurrent avec apparemment moins de puces d'IA.
Mais sa présentation n'a pas réussi à rassurer les investisseurs. Les actions de Nvidia ont chuté de 3,4 %. L'indice des puces électroniques .SOX a clôturé en baisse de 1,6 %.
« Presque le monde entier s'est trompé », a déclaré M. Huang sur scène lors de la conférence, vêtu de son habituelle veste en cuir noir et de son jean. Il a qualifié la conférence de « Super Bowl de l'IA »
« La quantité de calculs dont nous avons besoin en raison de l'IA agentique, en raison du raisonnement, est facilement 100 fois supérieure à ce que nous pensions nécessaire à la même époque l'année dernière », a-t-il déclaré, faisant référence aux agents IA autonomes qui nécessitent peu d'intervention humaine pour les tâches de routine.
Les puces à gros rendement de Nvidia sont confrontées à la pression des changements technologiques alors que les marchés de l'IA passent de « l'entraînement », c'est-à-dire des modèles d'IA tels que les chatbots sur d'énormes quantités de données pour les rendre intelligents, à « l'inférence », c'est-à-dire lorsque le modèle utilise son intelligence pour produire des réponses pour les utilisateurs.
Le succès de Nvidia tient en grande partie à la décennie que la société basée à Santa Clara, en Californie, a passée à développer des outils logiciels pour séduire les chercheurs et les développeurs en IA. Mais ce sont les puces pour centres de données de Nvidia, qui se vendent chacune pour des dizaines de milliers de dollars, qui ont représenté l'essentiel de ses 130,5 milliards de dollars de chiffre d'affaires l'année dernière.
La valeur de son action a plus que quadruplé au cours des trois dernières années, car l'entreprise a contribué à l'essor de systèmes d'IA avancés tels que ChatGPT, Claude et bien d'autres.
« Je pense que les investisseurs s'attendaient à une grande partie de ces nouvelles », a déclaré Ben Bajarin, directeur général du cabinet de conseil en technologie Creative Strategies.
Il a ajouté que l'argument de Nvidia selon lequel l'industrie de l'IA allait être construite sur leurs puces à long terme ne changerait pas les attentes des investisseurs à court terme. « Leur discours reste vraiment inchangé », a-t-il déclaré.
NOUVELLES PUCE
Huang a annoncé de nouvelles puces, dont la prochaine puce GPU Blackwell Ultra, qui sera disponible au second semestre de cette année et qui dispose de plus de mémoire que la génération actuelle de sa puce phare Blackwell, ce qui signifie qu'elle peut prendre en charge des modèles d'IA plus importants.
Il a déclaré que les puces de Nvidia ont deux objectifs principaux: aider les systèmes d'IA à répondre intelligemment à un grand nombre d'utilisateurs et fournir ces réponses le plus rapidement possible. Huang a fait valoir que les puces de Nvidia sont les seules à pouvoir faire les deux.
« Si vous prenez trop de temps pour répondre à une question, le client ne reviendra pas. C'est comme la recherche sur le web », a-t-il déclaré.
Il a également révélé des détails sur un système de puces appelé Vera Rubin, qui succédera à Blackwell et offrira des vitesses plus élevées. Il sera commercialisé au second semestre 2026.
Huang a déclaré que les puces Rubin seront suivies par les puces Feynman, qui arriveront en 2028.
Les nouvelles versions de puces arrivent alors que Blackwell arrive sur le marché plus lentement que prévu après qu'un défaut de conception a causé des problèmes de fabrication . L'année dernière, l'ensemble du secteur de l'IA a été confronté à des retards, les anciennes méthodes d'alimentation de quantités croissantes de données dans des centres de données toujours plus grands et remplis de puces Nvidia ayant commencé à montrer des rendements décroissants .
Nvidia a déclaré le mois dernier que les commandes de Blackwell étaient « incroyables »
Huang a également présenté un nouvel ordinateur personnel puissant appelé DGX Workstation, basé sur les puces Blackwell, et a déclaré qu'il serait fabriqué par Dell, Lenovo et HP, entre autres. L'appareil, qui fait suite à une machine de bureau plus petite introduite plus tôt cette année, est un défi pour certains des Mac haut de gamme d'Apple AAPL.O .
« Voilà à quoi devrait ressembler un PC », a déclaré Huang en brandissant la carte mère de l'un des appareils.
Il a annoncé un nouveau logiciel appelé Dynamo, que Nvidia a publié gratuitement et qui est destiné à accélérer le processus de raisonnement. Huang a également annoncé que le constructeur automobile General Motors GM.N a choisi Nvidia pour construire sa flotte de voitures autonomes.
0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer