Les puces Nvidia font des progrès dans l'entraînement des plus grands systèmes d'IA, selon de nouvelles données
information fournie par Reuters 04/06/2025 à 17:30

((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto)) par Stephen Nellis

Les nouvelles puces de Nvidia NVDA.O ont fait des progrès dans l'entraînement des grands systèmes d'intelligence artificielle, selon de nouvelles données publiées mercredi, le nombre de puces nécessaires à l'entraînement des grands modèles de langage ayant chuté de façon spectaculaire.

MLCommons, un groupe à but non lucratif qui publie les résultats des performances des systèmes d'intelligence artificielle, a publié de nouvelles données sur les puces de Nvidia et d'Advanced Micro Devices AMD.O , entre autres, pour l'entraînement, dans lequel les systèmes d'intelligence artificielle sont alimentés avec de grandes quantités de données pour apprendre. Bien que l'attention du marché boursier se soit déplacée vers un marché plus vaste pour l'inférence de l'IA, dans lequel les systèmes d'IA traitent les questions des utilisateurs, le nombre de puces nécessaires pour former les systèmes reste une préoccupation concurrentielle majeure. La société chinoise DeepSeek prétend créer un chatbot compétitif en utilisant beaucoup moins de puces que ses rivaux américains.

Les résultats sont les premiers que MLCommons a publiés sur la façon dont les puces se sont comportées pour entraîner des systèmes d'IA tels que Llama 3.1 405B, un modèle d'IA open-source publié par Meta Platforms META.O qui comporte un nombre suffisamment important de ce que l'on appelle des "paramètres" pour donner une indication de la façon dont les puces se comporteraient dans certaines des tâches d'entraînement les plus complexes au monde, qui peuvent impliquer des trillions de paramètres. Nvidia et ses partenaires ont été les seuls participants à soumettre des données sur l'entraînement de ce grand modèle, et les données ont montré que les nouvelles puces Blackwell de Nvidia sont, par puce, plus de deux fois plus rapides que la génération précédente de puces Hopper.

Dans les résultats les plus rapides obtenus par les nouvelles puces de Nvidia, 2 496 puces Blackwell ont effectué le test d'entraînement en 27 minutes. Selon les données, il a fallu plus de trois fois plus de puces de la génération précédente de Nvidia pour obtenir un temps plus rapide.

Lors d'une conférence de presse, Chetan Kapoor, chef de produit chez CoreWeave, qui a collaboré avec Nvidia pour produire certains des résultats, a déclaré que l'industrie de l'IA avait tendance à regrouper de plus petits groupes de puces dans des sous-systèmes pour des tâches d'entraînement distinctes, plutôt que de créer des groupes homogènes de 100 000 puces ou plus.

"En utilisant une telle méthodologie, ils sont en mesure de continuer à accélérer ou à réduire le temps nécessaire à la formation de certains de ces modèles fous de plusieurs billions de paramètres", a déclaré Chetan Kapoor.