Voyante Cassoulet

Voilà des potins concernant la prochaine génération de GPU NVIDIA, Blackwell. C'est parti !

Attention, rumeurs et pincettes de rigueur ! kopite7kimi a ickssé (X) un message sur son compte concernant la prochaine génération de GPU NVIDIA. Vous la connaissez déjà, c'est Blackwell, et elle a déjà eu droit à quelques billets, comme la découpe de la gamme par exemple, ou des indices sur les améliorations. Ce lanceur de rumeurs a plutôt pignon sur rue concernant NVIDIA, aussi nous serons plus vigilants à ses propos qu'un pingouin au fond du Nevada qui invente pour se faire buzzer.

Selon notre lascar, le GPU haut de gamme GB202 conserverait le bus mémoire 384-bit d'AD102, et il passerait à la GDDR7, ce qui implique de facto une bande passante supérieure à celle obtenue avec les puces de GDDR6 / GDDR6X actuelles. Si vous cliquez sur le lien au-dessus, vous verrez qu'elle est estimée à 52 % supérieure au GPU AD102 ! Voilà, une fois recoupées, toutes les infos dont nous disposons :

DEKOI ONKOZ Blackwell GB202 Lovelace AD102
GPC 12 12
TPC 96 72
SM 192 144
Cuda Cores 24567 18432
Boost en GHz ~2.9 ~2.5
VRAM en Go 24 24
Bus VRAM 384 384
Type VRAM GDDR7 GDDR6X

Il n'y a rien de plus à dire en fait, hormis qu'on attend un gap important, NVIDIA devrait taper dans le 3 nm et délaisser le 4 nm (un 5 nm optimisé pour lui). Ce qui fait peur également, c'est le spectre du tarif, car cette effusion de technologie aura quand même un coût de fabrication élevé, qui se retrouvera dans le prix final. Affaire à suivre !

Voyante Cassoulet

M Galonnier


  • Il y a eu des rumeurs précédentes de bus 512 bits

    On sait qu'avec la faible hausse de densité de la sram et des contrôleurs ram nvidia ne pourra pas doubler les unités

    Du coup vus 512 bits + gddr7 2 to/s j'en vois pas l'utilité ( la gddr7 consomme un peu et le bus n'en parlons pas )

    Du coup bus 384 bits et gddr7 c'est plus raisonnable

    Le bus 512 bits permet 32 go par contre

    Micron avec qui bosse nvidia a appris des puces de 3 go ça permettrait 36 go avec un bus 384 bits mais c'est pas clair

  • Les puces GDDR6X de Micron ont toujours dégagés trop de chaleur et ça à toujours créé des surcouts en nécessitant de gros système de refroidissement à l'inverse la technologie dite de "L'infinity Cache" créer par AMD et équipent en premier les Radeon 6000 ont permis d'obtenir avec de la simple GDDR6, une mémoire assez performante, qui chauffait, consommait peut et coutait bien moins chère.

    Il n'est donc pas étonnant que Nvidia à été vers Samsung et sa GDDR7, en outre dans le domaine de la recherche et le développement, sur une mémoire graphique aussi moderne, il y aurait eu que TSMC qui aurait pu proposer quelque chose mais le risque croissant que l'île soit attaquer un jour par la Chine aurait créer un risque trop grand que le cout de cette mémoire varies en fonction des craintes de guerre.

    En outre, AMD à fait une belle démonstration dés les Radeon 6000 de sa technologie de "L'Infinity Cache" et de sa capacité avec une simple GDDR6 de proposer une mémoire pas cher, qui chauffe peu et dont le prix est très intéressant. Les Radeon 6000 ont/sont vendus moins chères que les pendants RTX (3000). Une 6800 16go qui est hors raytracing très proche d'une 3080 10go propose bien plus de vram or c'est ce qui tue tout l'attrait d'acheter cette référence Nvidia. En dessous de 12go, c'est aujourd'hui un non sens d'acheter un gpu.

  • Sur le papier Nvidia à un GPU qui peut avoir 3X les perfs de la RTX 4090. Heureusement qu'une boite comme ça à 3 ans d'avance sur le marché. la conjoncture fera qu'il avanceront leurs pions ou pas.     

    • Sur le papier Nvidia à un GPU qui peut avoir 3X les perfs de la RTX 4090. Heureusement qu'une boite comme ça à 3 ans d'avance sur le marché. la conjoncture fera qu'il avanceront leurs pions ou pas.   

      Ca ne veut rien dire ...

      • Sur le papier Nvidia à un GPU qui peut avoir 3X les perfs de la RTX 4090. Heureusement qu'une boite comme ça à 3 ans d'avance sur le marché. la conjoncture fera qu'il avanceront leurs pions ou pas. 

        Ca ne veut rien dire ...

        😂

5 commentaires

Laissez votre commentaire

En réponse à Some User