Ethan

DeepSeek V4 est sorti : 1 600 milliards de paramètres, open source, puces Huawei, et il rivalise avec GPT-5.4 et Claude Opus pour une fraction du prix

deepseek, ia, IA générative, intelligence artificielle

Jeudi 24 avril 2026, la startup chinoise DeepSeek a publié la version preview de DeepSeek V4, son modèle d’IA de nouvelle génération. Deux variantes : V4-Pro (1 600 milliards de paramètres au total, 49 milliards activés par requête) et V4-Flash (284 milliards de paramètres, 13 milliards activés). Les deux sont open source sous licence Apache 2.0, téléchargeables sur Hugging Face, et accessibles immédiatement via l’API DeepSeek et l’application chat.deepseek.com.

Le timing n’est pas un hasard. OpenAI a lancé GPT-5.5 le même jour. DeepSeek a choisi de sortir en même temps pour couper le cycle médiatique en deux et forcer la comparaison directe. Le message est clair : un modèle open source, développé en Chine, avec des puces chinoises, rivalise désormais avec les meilleurs modèles fermés américains.

Les chiffres qui comptent

V4-Pro affiche des résultats qui le placent au niveau des modèles fermés les plus avancés au monde.

  • En codage compétitif, V4-Pro obtient un score Codeforces de 3 206, supérieur au score de GPT-5.4 (3 168). C’est la première fois qu’un modèle open source dépasse un modèle fermé frontière sur ce benchmark. Sur SWE-bench Verified (résolution de vrais bugs GitHub), V4-Pro atteint 80,6 %, quasi identique à Claude Opus 4.6 (80,8 %).
  • En mathématiques, V4-Pro score 89,8 sur IMOAnswerBench, devant Claude (75,3) et Gemini (81,0), mais derrière GPT-5.4 (91,4). Sur HMMT 2026, il atteint 95,2 %, légèrement en retrait par rapport à Claude (96,2 %) et GPT-5.4 (97,7 %).
  • En connaissances générales, c’est le point où V4 reste en retrait. Sur HLE (Humanity’s Last Exam), il obtient 37,7 contre 39,8 pour GPT-5.4 et 44,4 pour Gemini 3.1 Pro. Sur SimpleQA-Verified, Gemini domine à 75,6 contre 57,9 pour V4-Pro. DeepSeek le reconnaît directement dans sa documentation : V4-Pro « mène tous les modèles open source mais reste derrière Gemini 3.1 Pro en connaissances du monde ».

V4-Flash, la version légère, atteint 86,2 sur MMLU-Pro et 91,6 sur LiveCodeBench, des résultats proches de V4-Pro pour une fraction du coût d’inférence. Pour les cas d’usage quotidiens (chat, résumé, analyse), Flash suffit largement.

Un million de tokens de contexte en standard

La fonctionnalité technique la plus marquante est la fenêtre de contexte d’un million de tokens, offerte en standard sur les deux variantes. Ce n’est pas une option premium. C’est le défaut.

Un million de tokens, c’est l’équivalent de 3 000 pages de texte. On peut envoyer un code source entier, un corpus de documents juridiques, ou l’historique complet d’un projet dans un seul prompt. DeepSeek a développé pour cela une architecture d’attention hybride (Compressed Sparse Attention + Heavily Compressed Attention) qui réduit les besoins en calcul de 73 % et le cache KV de 90 % par rapport à V3.2. En pratique, cela signifie que le contexte long, historiquement réservé aux abonnements premium des modèles fermés, devient gratuit et universel sur un modèle open source.

A lire :  Qu'est-ce qu'Openclaw ? Préfigure-t-il le futur de l'IA ?

La question des puces Huawei

C’est le point le plus géopolitiquement chargé de cette annonce. Depuis février 2026, les rumeurs s’accumulaient : V4 serait le premier modèle frontière entraîné exclusivement sur des puces Huawei Ascend 950PR, sans aucun composant Nvidia.

La réalité est plus nuancée. Huawei a confirmé le jour même que son cluster de calcul IA Ascend peut « supporter DeepSeek V4 ». Mais CNBC note qu’il reste « incertain dans quelle mesure les puces Ascend ont été utilisées pour l’entraînement par rapport à celles de Nvidia ». DeepSeek a délibérément exclu Nvidia et AMD de la phase de pré-lancement, en donnant un accès exclusif aux fabricants chinois (Huawei, Cambricon). Mais l’entraînement initial pourrait avoir utilisé des puces Nvidia H800 (la version bridée pour le marché chinois, désormais interdite d’exportation).

Ce qui est confirmé en revanche, c’est que DeepSeek a entièrement réécrit son code pour fonctionner sur CANN (Compute Architecture for Neural Networks), le framework logiciel propriétaire de Huawei, équivalent chinois de CUDA. C’est la première pile IA frontière complète, de la puce au modèle, sans composant logiciel américain.

Jensen Huang, le patron de Nvidia, a tiré la sonnette d’alarme lors du podcast Dwarkesh la semaine dernière. Si V4 fonctionne correctement sur du matériel Huawei, a-t-il dit, cela pourrait « établir un nouveau standard mondial » et rendre la Chine « supérieure » aux États-Unis dans l’IA, même avec des puces techniquement inférieures. Le vrai risque, selon Huang : si les modèles sont optimisés pour le matériel chinois et que cette norme se diffuse, la demande se déplace vers les puces chinoises. Et l’argument central des sanctions américaines (limiter les exportations de GPU ralentit l’IA chinoise) s’effondre.

Open source contre modèles fermés : le rapport de force change

V4 cristallise un basculement en cours depuis un an. Les modèles open source ne sont plus « un ou deux ans derrière » les modèles fermés. Ils sont au même niveau sur le codage, proches sur le raisonnement, et en retrait uniquement sur les connaissances du monde (un avantage que Google, avec sa base de données Search, conserve structurellement).

Le modèle économique est le facteur décisif. V4-Pro coûte une fraction des tarifs de GPT-5.4 ou Claude Opus en inférence. V4-Flash est encore moins cher. Et les deux sont téléchargeables, exécutables localement, modifiables. Pour une entreprise qui traite des données sensibles (santé, défense, finance), faire tourner V4 sur ses propres serveurs sans envoyer ses données à un cloud américain est un argument massif.

A lire :  Claude Cowork : l'IA d'Anthropic qui veut remplacer vos logiciels métier

DeepSeek a aussi optimisé V4 pour fonctionner avec Claude Code, OpenClaw et OpenCode. C’est un détail qui en dit long : le modèle chinois est conçu pour s’intégrer dans les outils de développement agentique les plus utilisés au monde, y compris ceux de ses concurrents. V4 n’est pas un modèle chinois pour le marché chinois. C’est un modèle mondial.

Les accusations de distillation

Le lancement intervient sur fond de tensions juridiques. En février 2026, Anthropic a déposé un document au Congrès américain affirmant que DeepSeek, Moonshot AI et MiniMax avaient utilisé environ 24 000 comptes frauduleux pour mener plus de 16 millions d’interactions avec Claude, dans le but d’extraire des outputs de modèle à grande échelle. OpenAI a soumis des documents parallèles accusant DeepSeek d’avoir « continué à tenter de distiller les modèles des principaux labos frontière américains ».

DeepSeek n’a pas directement répondu à ces accusations. Le fait que V4 soit open source (et donc librement téléchargeable) rend la question de la distillation doublement ironique : si le modèle est ouvert, tout le monde peut l’étudier et vérifier l’origine de ses capacités. Mais les accès sélectifs (pré-lancement exclusif aux fabricants chinois, pas d’accès aux ingénieurs américains) alimentent la méfiance.

Ce que ça change

DeepSeek V4 n’est probablement pas le meilleur modèle IA du monde. Claude Opus 4.7 le dépasse en vision et en codage avancé. GPT-5.4 le dépasse en raisonnement mathématique extrême. Gemini 3.1 Pro le dépasse en connaissances du monde.

Mais V4 est le meilleur modèle open source jamais publié, de très loin. Et il est gratuit. Et il fonctionne (partiellement ou totalement) sur des puces chinoises. Et il a un million de tokens de contexte en standard. Et il coûte 10 à 50 fois moins cher que ses concurrents fermés en inférence.

La vraie question n’est pas « V4 est-il meilleur que Claude ou GPT ? ». La vraie question est : « Pourquoi payer 25 dollars par million de tokens pour Claude Opus quand V4-Pro fait presque aussi bien pour quelques cents ? » Pour 90 % des cas d’usage en entreprise, la réponse est devenue difficile à justifier.

Un an après que R1 avait fait perdre 600 milliards de dollars à Nvidia en une journée, DeepSeek revient avec un message encore plus clair : la frontière de l’IA n’est plus un monopole américain. Et elle n’est plus payante.

Je suis Ethan, journaliste spécialisé en intelligence artificielle et nouvelles technologies. Je couvre l’actualité de l’IA agentique, des grands modèles de langage et des outils qui transforment nos usages numériques. Mon objectif : rendre accessibles les avancées technologiques les plus complexes, avec rigueur et sans jargon inutile.