((Traduction automatisée par Reuters, veuillez consulter la clause de non-responsabilité https://bit.ly/rtrsauto)) par Max A. Cherney et Stephen Nellis
Le groupe d'intelligence artificielle MLCommons a dévoilé deux nouveaux critères qui, selon lui, peuvent aider à déterminer la vitesse à laquelle le matériel et les logiciels haut de gamme peuvent exécuter des applications d'intelligence artificielle.
Depuis le lancement du ChatGPT d'OpenAI il y a plus de deux ans, les fabricants de puces ont commencé à se concentrer sur la fabrication de matériel capable d'exécuter efficacement le code qui permet à des millions de personnes d'utiliser des outils d'IA. Comme les modèles sous-jacents doivent répondre à beaucoup plus de requêtes pour alimenter les applications d'IA telles que les chatbots et les moteurs de recherche, MLCommons a développé deux nouvelles versions de ses benchmarks MLPerf pour évaluer la vitesse.
L'un des nouveaux benchmarks est basé sur le modèle d'IA de Meta META.O , appelé Llama 3.1, qui compte 405 milliards de paramètres, et le test cible la réponse aux questions générales, les mathématiques et la génération de code. Le nouveau format teste la capacité d'un système à traiter des requêtes volumineuses et à synthétiser des données provenant de sources multiples.
Nvidia NVDA.O a soumis plusieurs de ses puces au test de référence, tout comme des constructeurs de systèmes tels que Dell Technologies DELL.N . Selon les données fournies par MLCommons, Advanced Micro Devices AMD.O n'a soumis aucune puce pour le grand test de 405 milliards de paramètres.
Pour le nouveau test, la dernière génération de serveurs d'intelligence artificielle de Nvidia - appelée Grace Blackwell, qui contient 72 unités de traitement graphique Nvidia (GPU) - a été de 2,8 à 3,4 fois plus rapide que la génération précédente, même en utilisant seulement huit GPU dans le nouveau serveur pour créer une comparaison directe avec l'ancien modèle, a déclaré l'entreprise lors d'une réunion d'information mardi.
Nvidia s'efforce d'accélérer les connexions des puces à l'intérieur de ses serveurs, ce qui est important dans les travaux d'intelligence artificielle où un chatbot fonctionne sur plusieurs puces à la fois.
Le second benchmark est également basé sur un modèle d'IA open-source construit par Meta et le test vise à simuler plus étroitement les attentes en matière de performances fixées par les applications d'IA grand public telles que ChatGPT.
L'objectif est de raccourcir le temps de réponse pour le benchmark et de le rendre proche d'une réponse instantanée.
0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer