((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto))
Le président américain Donald Trump a déclaré que les États-Unis autoriseraient l'exportation des processeurs H200 de Nvidia vers la Chine, même si l'on ne sait pas encore si Pékin donnera le feu vert à l'achat de ces processeurs par des entreprises chinoises.
La Chine compte désormais un certain nombre de fabricants de puces pour l'IA, car le pays cherche à se défaire de sa dépendance vis-à-vis des technologies étrangères. Voici comment les concurrents chinois se comparent au H200 de Nvidia.
LES PUCES CHINOISES ATTEIGNENT-ELLES LA PUISSANCE DU H200?
La puce la plus avancée des fournisseurs chinois est l'Ascend 910C de Huawei, qui accuse un retard considérable par rapport à la H200 en termes de puissance de calcul et de largeur de bande de la mémoire, selon un récent rapport de l'Institute for Progress.
Le 910C offre une performance de traitement totale (TPP) de 12 032, contre 15 840 pour le H200, et sa bande passante mémoire est de 3,2 téraoctets par seconde, contre 4,8 To/s pour le H200.
D'autres acteurs nationaux proposent des produits moins compétitifs. La puce de pointe de Cambricon 688256.SS , la Siyuan 590, et la BW1000 de Hygon sont toutes deux moins performantes que le 910C de Huawei.
Y a-t-il des puces chinoises capables d'égaler le H20 de NVIDIA?
Les puces chinoises peuvent rivaliser avec le H20 de Nvidia, un processeur déclassé conçu par Nvidia pour le marché chinois mais qui a cessé d'être commercialisé en début d'année après son interdiction par Washington.
Le 910B de Huawei offre des performances de traitement totales de 5 120, dépassant les 2 368 du H20, selon un rapport de Bernstein datant de juillet. Le Siyuan 590 de Cambricon, avec un TPP de 4 493, surpasse également le H20.
POURQUOI EST-IL DIFFICILE POUR LES ENTREPRISES CHINOISES DE SUPPLANTER NVIDIA?
La domination de Nvidia découle de sa plateforme logicielle CUDA, sur laquelle les développeurs s'appuient depuis longtemps pour créer des modèles d'IA.
Le passage à des puces nationales obligerait les développeurs à réécrire le code et à se recycler sur de nouvelles plateformes, un processus long et coûteux.
Bien que les puces nationales soient plus performantes que le H20 en termes de puissance de calcul brute, les sociétés Internet chinoises préfèrent toujours l'offre de Nvidia en raison de l'absence d'une alternative nationale mature à CUDA.
QU'EST-CE QUE HUAWEI PRÉVOIT DE FAIRE?
Huawei a dévoilé sa feuille de route en matière de puces d'IA en septembre, annonçant trois nouveaux produits au cours des trois prochaines années.
L'Ascend 950PR sera lancé au premier trimestre 2026, suivi d'une variante à mémoire plus élevée, le 950DT, au quatrième trimestre 2026. L'Ascend 960 est prévu pour le quatrième trimestre 2027 et l'Ascend 970 pour le quatrième trimestre 2028.
La puissance de calcul du 960 correspond à peu près à celle du H200, selon un rapport de Bernstein datant de septembre. Cependant, il dispose d'une bande passante d'interconnexion nettement plus élevée, soit 2 200 gigaoctets par seconde, contre 900 gigaoctets par seconde pour le H200.
Une bande passante d'interconnexion plus élevée permet une communication plus rapide entre les puces dans les systèmes multi-puces, ce qui est essentiel pour l'entraînement de grands modèles d'IA. Cela suggère que Huawei donne la priorité à la vitesse du réseau plutôt qu'à la puissance de calcul brute.
COMMENT LE H200 DE NVIDIA SE COMPARE-T-IL À SES PUCES LES PLUS RÉCENTES?
Le H200 est une ancienne génération de puces d'IA de Nvidia, construite sur son architecture Hopper lancée en 2022, qui a précédé la dernière architecture Blackwell révélée l'année dernière.
Le dernier serveur d'IA de Nvidia, qui embarque 72 puces Blackwell dans un seul ordinateur, améliore les performances de certains modèles d'IA de 10 fois par rapport aux serveurs H200, selon des données publiées sur par l'entreprise au début du mois.
Selon un rapport publié dimanche par le groupe de réflexion non partisan Institute for Progress (IFP), la puce Blackwell actuellement utilisée par les entreprises d'IA américaines est environ 1,5 fois plus rapide que les puces H200 pour l'entraînement des systèmes d'IA et cinq fois plus rapide pour le travail d'inférence, où les modèles d'IA sont mis en œuvre.
Toutefois, le H200 serait presque six fois plus puissant que le H20, le semi-conducteur d'IA le plus avancé qui peut être légalement exporté vers la Chine, selon le rapport de l'IFP.

0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer