Ethan

Samsung lance les premières livraisons mondiales de puces HBM4 : le retour en force du géant coréen

ia, IA générative, intelligence artificielle, Samsung

Samsung Electronics annonce avoir commencé les livraisons de ses puces mémoire HBM4 de sixième génération, devenant le premier fabricant mondial à atteindre la production de masse de cette technologie cruciale pour l’intelligence artificielle. Le géant coréen prévoit de tripler ses ventes de mémoire HBM en 2026.

L’action Samsung a bondi de plus de 6 % à la Bourse de Séoul jeudi 12 février, atteignant un niveau record. L’annonce marque un tournant stratégique pour l’entreprise, qui avait accumulé du retard sur ses concurrents dans le cycle précédent des mémoires HBM3E.

Premier au monde sur le HBM4

Suivez LJG sur Google

Ajoutez LJG à vos sources préférées pour voir nos articles en priorité dans "À la une".

Samsung a officiellement lancé les expéditions de puces HBM4 vers Nvidia dès la troisième semaine de février, juste après les congés du Nouvel An lunaire. Ces mémoires équiperont les accélérateurs IA Vera Rubin, la prochaine génération de processeurs Nvidia attendue au second semestre 2026.

Le PDG de Nvidia, Jensen Huang, avait confirmé lors du CES 2026 en janvier que les puces Vera Rubin étaient « en pleine production ». La démonstration de la plateforme est prévue pour le GTC 2026, qui se tiendra du 16 au 19 mars.

Samsung a obtenu la certification qualité de Nvidia plus tôt que prévu. Selon des sources industrielles, les puces HBM4 du fabricant coréen ont obtenu les meilleures évaluations lors des tests Nvidia pour la vitesse d’exploitation et l’efficacité énergétique.

Des performances record

Les spécifications techniques des HBM4 de Samsung dépassent les standards de l’industrie :

Vitesse de traitement : jusqu’à 11,7 gigabits par seconde (Gbps), soit 37 % au-dessus du standard JEDEC (8 Gbps) et 22 % de plus que la génération précédente HBM3E.

Bande passante mémoire : jusqu’à 3 téraoctets par seconde par stack, environ 2,4 fois la bande passante du HBM3E.

Efficacité énergétique : malgré les gains de performance, Samsung a intégré des fonctionnalités basse consommation visant à réduire les coûts d’électricité et de refroidissement dans les datacenters IA.

Samsung utilise un modèle de fabrication verticalement intégré. Contrairement à SK Hynix, qui dépend de TSMC pour la fabrication du « logic die » (la puce logique de base), Samsung produit ce composant en interne grâce à sa propre fonderie, utilisant un process 4nm.

Ventes HBM triplées en 2026

Samsung prévoit que ses ventes de puces HBM dépasseront le triple de celles de 2025. Pour répondre à la demande croissante, l’entreprise prévoit d’augmenter sa capacité de production HBM d’environ 50 % d’ici fin 2026, passant de 170 000 à environ 250 000 wafers par mois.

Les analystes de Morgan Stanley projettent une hausse de plus de 300 % des profits mémoire de Samsung en 2026, reflétant les marges plus élevées générées par les puces IA.

L’usine de Pyeongtaek, principal site de production de Samsung, a repris ses constructions pour accueillir les nouvelles lignes de production. Le campus P4 est déjà opérationnel pour le HBM4, tandis que le P5 est en cours d’extension.

A lire :  L'IA rendrait les étudiants paresseux… Vers une génération de cancres ? Ce professeur en est convaincu

Une revanche sur SK Hynix

L’annonce de Samsung intervient dans un contexte de rivalité intense avec SK Hynix, qui dominait le marché HBM jusqu’ici.

Au deuxième trimestre 2025, les parts de marché HBM s’établissaient ainsi :

  • SK Hynix : 62 %
  • Micron : 21 %
  • Samsung : 17 %

Samsung avait accumulé du retard après des échecs répétés aux tests de certification Nvidia pour ses puces HBM3E 12 couches. Les commandes s’étaient alors concentrées sur SK Hynix et Micron.

Le directeur technologique de Samsung, Jaihyuk Song, a déclaré lors de la conférence Semicon Korea : « Nous avons peut-être mis du temps à montrer le côté de Samsung qui répond aux besoins des clients avec une technologie de classe mondiale, mais vous pouvez considérer que nous revenons à notre état d’origine. »

Avec le HBM4, Samsung gagne une avance temporelle. SK Hynix a repoussé sa production de masse de HBM4 de février à mars-avril 2026. Le concurrent entend continuer à s’appuyer sur le HBM3E comme produit principal au moins jusqu’au premier semestre 2026.

Micron en difficulté

L’américain Micron, troisième acteur du marché, connaît des difficultés avec son HBM4. Selon SemiAnalysis, la puce logique de base (base die) développée en interne par Micron rencontre des problèmes de validation client, de vitesse des broches (pin speeds) et de précision du process de fonderie.

Micron viserait une qualification Nvidia au deuxième trimestre 2026, après une refonte de son design. Mais avec Vera Rubin déjà « en pleine production », Samsung et SK Hynix ont pris l’avantage.

Les estimations de marché pour le HBM4 tablent sur une répartition :

  • SK Hynix : 70 %
  • Samsung : 20-30 %
  • Micron : part résiduelle, en attente de qualification

Au-delà de Nvidia : ByteDance et Google

Samsung ne se limite pas à Nvidia. L’entreprise négocie avec ByteDance (maison mère de TikTok) pour fabriquer le processeur IA SeedChip. L’objectif : livrer des échantillons en mars avec une production de 100 000 à 350 000 unités en 2026. ByteDance a alloué plus de 22 milliards de dollars aux achats IA cette année.

Samsung fournit également plus de 60 % des mémoires HBM3E pour les TPU (Tensor Processing Units) de Google et devrait rester le fournisseur principal en 2026. Les tests des HBM4 chez Broadcom (partenaire de Google) auraient également dépassé les attentes.

AMD fait aussi partie des clients validés pour les livraisons de février.

HBM4E : la prochaine bataille

La guerre des mémoires ne s’arrête pas au HBM4. Samsung a annoncé qu’elle commencera l’échantillonnage du HBM4E — une version améliorée — au second semestre 2026.

Le HBM4E (parfois appelé 16-Hi pour ses 16 couches de DRAM empilées) représente un défi technique considérable. L’épaisseur des wafers doit passer d’environ 50 micromètres à 30 micromètres pour permettre l’empilement de 16 couches dans l’enveloppe standard de 775 micromètres définie par JEDEC.

A lire :  OpenAI et Meta révèlent leurs IA capables de "raisonner" : une avancée majeure vers l'intelligence artificielle générale

Samsung travaille sur deux équipes HBM distinctes : une pour les designs standard, une pour les designs personnalisés ciblant Google, Meta et Nvidia. L’entreprise a récemment recruté 250 ingénieurs supplémentaires pour les projets custom.

Pour le HBM4E, Samsung envisage de passer à un process 2nm pour la puce logique — une première dans l’industrie.

Un marché sous tension jusqu’en 2027

Le directeur technologique de Samsung a averti que la pénurie de mémoire HBM se prolongerait jusqu’en 2026 et 2027. La capacité HBM de tous les grands fournisseurs est déjà vendue pour 2026.

Le marché HBM devrait atteindre 100 milliards de dollars d’ici 2028, contre 35 milliards en 2025 — un taux de croissance annuel composé d’environ 40 %.

Cette tension sur l’offre a des effets en cascade. Nvidia prévoit de réduire la production de ses GPU gaming RTX série 50 de 30 à 40 % au premier semestre 2026, en raison de pénuries de mémoire GDDR7. Les fournisseurs priorisent les allocations pour les datacenters IA au détriment du marché grand public.

Samsung de retour dans la course

L’annonce du 12 février marque un moment charnière. Après des mois de retard et de doutes sur sa compétitivité dans les semi-conducteurs IA, Samsung reprend l’initiative avec le HBM4.

La stratégie du groupe repose sur plusieurs piliers :

  • Intégration verticale : maîtrise de la DRAM, de la puce logique et du packaging
  • Diversification clients : Nvidia, AMD, Google, ByteDance, Meta
  • Innovation agressive : passage rapide au HBM4E et au process 2nm

Le pari : prouver sa capacité technologique avec le « premier envoi mondial de HBM4 vers Nvidia », tout en capitalisant sur la demande de DRAM classique (serveurs, mobiles, PC), dont les prix ont explosé et les marges dépassent parfois celles du HBM.

Pour les investisseurs, Samsung et SK Hynix occupent désormais les deux premières places des entreprises les plus valorisées de Corée du Sud. La mémoire IA est devenue le nouveau champ de bataille des semi-conducteurs — et Samsung vient d’y reprendre pied.


Calendrier HBM4

DateÉvénement
Décembre 2025Samsung obtient certification Nvidia HBM4
Février 2026 (3e semaine)Premières livraisons Samsung HBM4 à Nvidia
Mars 2026 (16-19)GTC 2026, démonstration Vera Rubin
Mars-Avril 2026Production de masse SK Hynix HBM4 prévue
Q2 2026Qualification Micron HBM4 visée
H2 2026Lancement commercial Nvidia Vera Rubin
H2 2026Échantillonnage Samsung HBM4E
2027Production de masse HBM4E attendue

Sources : Samsung Electronics, Korea Herald, Korea Times

Je suis Ethan, journaliste spécialisé en intelligence artificielle et nouvelles technologies. Je couvre l’actualité de l’IA agentique, des grands modèles de langage et des outils qui transforment nos usages numériques. Mon objectif : rendre accessibles les avancées technologiques les plus complexes, avec rigueur et sans jargon inutile.