EN BREF-DeepSeek-V4, le modèle d'IA chinois adapté aux puces Huawei information fournie par Reuters 24/04/2026 à 15:57
((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto)) par Eduardo Baptista
La start-up chinoise DeepSeek a publié vendredi une version préliminaire de V4, son nouveau modèle d'intelligence artificielle adapté pour fonctionner sur les puces Huawei, marquant ainsi une nouvelle étape dans les efforts de la Chine pour construire un écosystème d'IA autonome.
Voici ce que nous savons à ce jour sur cette offre open source tant attendue.
CARACTÉRISTIQUES DU MODÈLE V4 DeepSeek a déclaré que V4 est conçu pour fonctionner avec des frameworks d'agents tels que Claude Code et OpenClaw, reflétant ainsi l'évolution du secteur, qui s'éloigne des chatbots basés sur des invites pour se tourner vers des modèles capables d'accomplir des tâches complexes en plusieurs étapes avec moins d'intervention humaine.
V4 se décline en deux versions: la version Pro, plus puissante et plus coûteuse, et la version Flash, moins chère et plus légère.
La version Pro se positionne comme un modèle haut de gamme dont les performances sont comparables à celles des principaux systèmes à code source fermé, notamment en matière de codage agentique, de connaissance du monde, de STEM (science, technologie, ingénierie et mathématiques) et de programmation compétitive.
En mode de raisonnement maximal, Pro surpasse tous les modèles open source, même s’il reste en retrait par rapport aux systèmes fermés de pointe tels que Gemini 3.1 Pro de Google et GPT-5.4 d’OpenAI dans certains domaines, selon un article de DeepSeek publié parallèlement au modèle.
"DeepSeek-V4-Pro Max ... redéfinit l'état de l'art pour les modèles ouverts, surpassant ses prédécesseurs dans les tâches principales", a déclaré DeepSeek.
Flash offre des capacités de raisonnement similaires dans certains domaines, mais fonctionne plus rapidement et à moindre coût que Pro, avec une connaissance du monde plus limitée et des performances inférieures sur les tâches basées sur des agents plus exigeantes.
Les deux versions prennent en charge une fenêtre de contexte d'un million de tokens, ce qui correspond à l'extension introduite par DeepSeek avec la version V3 en février. DeepSeek a déclaré que l'architecture de la version V4 est conçue pour réduire les coûts de calcul et de mémoire lors de l'utilisation de contextes longs.
ADAPTÉ AUX PUCES HUAWEI Un changement majeur par rapport aux versions précédentes de DeepSeek est que la V4 a été adaptée aux puces IA Ascend les plus avancées de Huawei.
Reuters a rapporté en février que DeepSeek n'avait pas partagé son nouveau modèle avec les fabricants de puces américains pour optimiser les performances, accordant plutôt un accès anticipé à des entreprises nationales telles que Huawei, bien qu'il ait auparavant travaillé en étroite collaboration avec le personnel technique de Nvidia.
Quelques heures après la sortie de la version préliminaire, Huawei a déclaré que la version V4 était entièrement prise en charge sur ses clusters de supernœuds basés sur l'Ascend 950, et que ses puces avaient été utilisées pour une partie de l'entraînement de V4-Flash.
"Grâce à une étroite collaboration technique... l'ensemble de la gamme de supernœuds Ascend prend désormais en charge les modèles de la série DeepSeek-V4", a déclaré Huawei.
Les modèles V3 et R1 précédents de DeepSeek avaient été entraînés sur des puces Nvidia. La société n'a pas précisé si cela s'appliquait également à la version V4.
PUSH VERS L'AUTOSUFFISANCE ET SES LIMITES Lian Jye Su, analyste en chef au sein du cabinet d'études technologiques Omdia, a déclaré que ce partenariat démontrait que les modèles DeepSeek pouvaient offrir des performances similaires sur le matériel de Huawei et de Nvidia.
"La popularité de DeepSeek sur le marché intérieur chinois a encouragé Huawei à optimiser le modèle pour son matériel, ce qui, en retour, réduit les obstacles pour les développeurs et les entreprises chinois souhaitant créer des applications d'IA entièrement basées sur des solutions nationales", a-t-il déclaré.
Il a ajouté que Huawei reste technologiquement à la traîne par rapport à Nvidia, et qu’il reste difficile de détourner les développeurs de l’écosystème de Nvidia. Malgré tout, a-t-il déclaré, "le pivot de DeepSeek révèle des progrès réels et tangibles vers l’autosuffisance en matière d’infrastructure d’IA".
DeepSeek est également confronté à des contraintes de calcul en raison des contrôles à l'exportation américains sur les puces Nvidia et les équipements de fabrication de puces. La société a indiqué que Pro pouvait coûter jusqu'à 12 fois plus cher que Flash en raison de "contraintes en matière de capacité de calcul haut de gamme", ce qui limite la disponibilité actuelle du service Pro.
DeepSeek a indiqué que le prix de Pro pourrait baisser fortement une fois que les supernœuds Huawei Ascend 950 seront déployés à grande échelle au cours du second semestre.