Sk Hynix Logo

La High Bandwidth Memory n'est pas en reste. À chaque segment son type de mémoire toujours plus rapide !

La conférence ISSCC 2024 est dans un peu moins d’un mois, mais certains participants n’ont pas attendu pour dévoiler certains des sujets phares qui y seront abordés. Par exemple, la GDDR7 chez Samsung et la LPDDR5T chez SK Hynix. Du côté de la High Bandwidth Memory, aka la mémoire HBM, grande favorite en particulier des accélérateurs IA, la bataille fait rage en ce moment autour de la HBM3E, une version boostée de la HBM3 et une étape intermédiaire en attendant la HBM4 prévue en 2025. Les Coréens Samsung et SK Hynix ont longtemps été les plus impliqués sur ce segment. Cependant, Micron a rejoint le match plus récemment et a même déjà planifié sa route vers la HBM4E. C’est en mai 2023 que SK Hynix avait lancé sa HBM3E, avec une bande passante de 1,15 To/s, grâce aux 9,0 Gb/s obtenus par pin. Micron avait annoncé la sienne en juillet dernier, proposant une capacité initiale de 24 Go par pile (36 Go seront normalement possibles cette année) et un taux de transfert de presque 1,178 To/s, 9,2 Gb/s par pin. Enfin, Samsung a fermé la marche en octobre dernier avec sa HBM3E "Shinebolt", promettant de son côté 1,254 To/s de débit, soit 9,8 Gb/s par pin.

Sk Hynix Hbm3e

Comme vous pouvez le voir, les trois constructeurs sont relativement au coude à coude, mais avec avantage pour Samsung. Qu’à cela ne tienne, SK Hynix va sortir le joker lors de la "International Solid-State Circuits Conference" 2024 : une mémoire HBM3E capable de monter à 10 Gb/s par pin, soit 1,28 To/s par pile HBM ! Qui dit mieux ? Personne, pour l’instant. Pour l’occasion, la capacité maximale par pile passera aussi à 48 Go, le double du maximum actuel chez SK Hynix, et plus aussi que les 36 Go que comptent proposer Samsung et Micron. Faut-il en conclure que la bataille de la HBM3E sera gagnée par SK Hynix ? Peut-être, sous réserve d’une réaction en face pour pousser la HBM3E dans ses derniers retranchements. Mais la concurrence pourrait aussi préférer se focaliser sur la HBM4, qui sera de toute façon supérieure en tout point. En effet, elle devrait démarrer à 1,5 To/s et 48 Go de capacité par pile, tandis que la HBM4E laisse entrevoir une bande passante supérieure à 2 To/s et une capacité maximale de 64 Go ! Bien entendu, comme les autres, SK Hynix aussi est sur le coup de la HBM4, mais Samsung pourrait éventuellement être le premier à lancer (ou du moins, présenter) la sienne.

Pour rappel, les premiers accélérateurs pour l’intelligence artificielle exploitant la HBM3E commencent à peine à arriver. NVIDIA va l’adopter (en l’occurrence, celle de chez Micron) avec ses futurs H200 et GH200. En face, elle ne s’est pas encore montrée, la nouvelle série Instinct MI300 d'AMD étant équipée de HBM3. (Source : ISSCC, via Computerbase)

Matt


  • 48 go ça commence à faire

    Tsmc veut faire des interposé avec 12 piles 576 go 😅

Un commentaire

Laissez votre commentaire

En réponse à Some User