Samsung Gddr7

S'il semblait évident que la GDDR7 ne serait pas déployée partout sur la gamme RTX 50, voilà ce qui se serait raconté à la GDC 2024 !

La GDDR7 est, pour sûr, la mémoire graphique de demain. Par demain, on pense à fin 2024, voire début 2025, avec les générations Blackwell chez NVIDIA, RDNA 4 chez AMD, quant à Intel, on ne sait rien sur Battlemage. Elle a été ratifiée il y a quelques jours, et on sait que la densité va augmenter, et que les premiers modules les plus rapides seront en 32 Gbps par pin. Tout ceci n'est pas une découverte si vous lisez nos lignes. Autre point, selon X, seule la GDDR7 à 28 Gbps serait employée sur GeForce Blackwell, peut-être que oui, peut-être que non, à moins que NVIDIA se garde de la marge pour un refresh plus performant avec de la GDDR7 plus véloce ?

La GTC 2024 aurait permis de clarifier certaines choses. Mais comme rien n'est officiel, gardons nous de toute conclusion hâtive et définitive ! Seuls les 3 GPU les plus puissants RTX 50 bénéficieraient de la GDDR7, cela impliquerait que les GB202, GB203 et GB205 (puisque GB204 serait abandonné) pédaleraient avec cette VRAM moderne. Notez que ces GPU seraient fabriqués en N4 chez TSMC, et pas un N5 avec des modifications comme pour Ada. Pour les autres GPU, ce serait de la GDDR6, voire GDDR6x.

Cela n'est pas déconnant en soi, puisqu'il y a un intérêt plus que discutable à mettre de la mémoire super rapide sur des GPU qui n'ont pas les épaules ni vocation à être des bombasses : le coût financier serait à coup sûr trop haut pour ces cartes du segment 400 / 500 €. Affaire à suivre ! (Source: Tweaktown)

Samsung Gddr7

M Galonnier


  • Ça déjà vu des gen qui on pas la ram partout

    Les nouvelles normes sont souvent plus cher

  • Oui, pour une CG pas trop chère, mieux vaut une bonne quantité de GDDR6(X) qu'une faible quantité de GDDR7

    • Oui, pour une CG pas trop chère, mieux vaut une bonne quantité de GDDR6(X) qu'une faible quantité de GDDR7

      On me dit que Nvidia profiterais pour réaliser un combo, faible quantité de GDDR6x tout en augmentant le cout :p

3 commentaires

Laissez votre commentaire

En réponse à Some User