Nvidia prévoit une nouvelle puce pour accélérer le traitement de l'IA, selon le WSJ information fournie par Reuters 28/02/2026 à 04:59
((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto))
(Ajout de détails, paragraphe de fond 2 et suivants)
Nvidia NVDA.O prévoit de lancer un nouveau processeur conçu pour aider OpenAI et d'autres clients à construire des systèmes d'IA plus rapides et plus efficaces, a rapporté le Wall Street Journal vendredi, citant des personnes familières avec le sujet.
Nvidia développe un nouveau système pour l'informatique "d'inférence", une forme de traitement qui permet aux modèles d'IA de répondre aux requêtes, selon le rapport.
La nouvelle plateforme devrait être dévoilée lors de la conférence des développeurs GTC de Nvidia à San Jose le mois prochain et intégrera une puce conçue par la startup Groq, a ajouté le rapport citant des personnes familières avec le sujet.
Reuters n'a pas pu vérifier immédiatement ce rapport. Nvidia et OpenAI n'ont pas répondu immédiatement aux demandes de commentaires de Reuters.
Reuters a rapporté au début du mois qu'OpenAI n'était pas satisfaite de la vitesse à laquelle le matériel de Nvidia peut fournir des réponses aux utilisateurs de ChatGPT pour des types de problèmes spécifiques tels que le développement de logiciels et la communication de l'IA avec d'autres logiciels.
Elle a besoin d'un nouveau matériel qui pourrait éventuellement fournir environ 10 % des besoins d'OpenAI en matière de calcul d'inférence à l'avenir, a déclaré l'une des sources à Reuters.
Le fabricant du ChatGPT a discuté avec des startups telles que Cerebras et Groq pour fournir des puces permettant une inférence plus rapide, ont déclaré deux sources. Mais Nvidia a conclu un accord de licence de 20 milliards de dollars avec Groq, ce qui a mis fin aux discussions d'OpenAI, a déclaré l'une des sources à Reuters.
En septembre, Nvidia a déclaré qu'il avait l'intention de verser jusqu'à 100 milliards de dollars à OpenAI dans le cadre d'un accord qui donnait au fabricant de puces une participation dans la startup et à OpenAI les liquidités dont elle avait besoin pour acheter les puces avancées.