AMD fait avec sa RX 9060 XT ce que NVIDIA a fait avec sa concurrente la RTX 5060 Ti : faire cohabiter des cartes dotées de 8 et de 16 gigots, et mettre un gap de 50 $ entre les deux moutures. Pourquoi donc l'existence de cartes avec "peu" de VRAM en 2025 obligeant par moment à consentir des compromis pour avoir des performances décentes ? Eh bien la réponse d'AMD par Frank Azor (que l'on a connu plus incisif) est assez simple : il y a un marché pour ces cartes, pour des gens qui n'ont pas envie de cramer plus d'oseille, et qui sont prêts à faire des compromis, quitte à économiser 50 $. Qui ? Par exemple le père de famille qui monte le premier PC de son fiston, et qui râcle les fonds de poche pour boucler le budget. Qui encore ? Des gens qui ne sont pas dans le hardware comme peut l'être notre communauté, et qui sont à des années-lumière du drama qui secoue la sphère plus ou moins spécialisée.
Car en baissant les options dans les jeux qui sucent beaucoup de VRAM, on peut obtenir des résultats visuellement propres, tout en conservant un niveau de performance élevé. Certes, beaucoup ne s'imaginent investir dans une carte en 2025 pour déjà faire des compromis, mais ce segment là n'est pas non plus le plus élevé du marché, s'adresse à des gens qui pédalent en FHD, et qui ne verront aucune difficulté à tripoter la sacro-sainte panoplie des options graphiques, en gros baisser les options. Ces cartes, que ce soit pour AMD ou NVIDIA, s'adressent à ces gens. Et pour les autres, pas de panique, il y en a pour tous les goûts, il y a des cartes à 16 Go de VRAM.
Ce qui est un peu embêtant quand même, c'est que les gamme 60 Ti / XT ne constituent pas complètement l'entrée de l'offre, représentée par la RTX 5060 chez NVIDIA et rien pour le moment chez AMD si ce n'est l'ancienne RX 7600 qui est de loin la carte à éviter puisque sa gestion de la VRAM lui casse littéralement les pattes dans tous les jeux. Si avoir 8 Go de VRAM fait sens sur la gamme 60 simple, elle est moins compréhensible sur la série supérieure 60 Ti / XT. N'oublions pas non plus qu'AMD n'est pas à une contradiction près, puisque du temps de RDNA 2 et dans l'après RDNA 2 immédiat, AMD vantait la quantité de VRAM de ses cartes pour écouler les stocks face à une concurrence qui compte trop souvent ses sous et sa VRAM sur les GeForce, Ampere pour l'anecdote.
Nous ne savons pas de quoi demain sera fait, ni sur UDNA (censé remplacer RDNA 5 et la branche pro CDNA, UDNA qui ne fait plus partie d'aucune fuite ni rumeur par ailleurs, signe d'un énième changement suite à un RDNA 4 étonnement performant finalement ?), ni sur NVIDIA Next, mais il serait bien de faire évoluer enfin les choses chez NVIDIA surtout, par ses choix de VRAM trop justes, il était évident que les joueurs ne seraient pas satisfaits des choix opérés, un aveugle l'aurait vu et une astrologue l'aurait prédit sans même y connaitre quelque chose au monde des GPU.

C'est sur qu'il y aura des gens qui se tromperont et acheteront une RX 9060 XT 8 Go sans meme savoir qu'il existe un modele 16 Go.
Si le modele 8 Go s'etait appele seulement RX 9060, ca aurait evite bien des erreurs.
Mais bon, c'est le nerf du commerce
https://proverbesdictons.com/tous-les-matins-il-y-a-un-con-qui-se-l.html
Après je constate que la quantité de ram apparaît systématiquement dans le nom de la CG, même là où le doute n'est pas permis (5080 par exemple).
Dans l'idéal il faudrait que les revendeurs proposent un tri par chipset en différenciant suivant la RAM.
Pour la prochaine génération , on peut quand même espérer la généralisation des puces GDDR7 de 3 Go , donc 12 Go de VRAM pour un GPU d'entrée de gamme à bus 128-bit , 18 Go sur un bus 192-bit , 24 Go sur un bus 256-bit , 36 Go sur un bus 384-bit et 48 Go sur un bus 512-bit , sans avoir recours au clamshell.
On sait pas ce que AMD fera, et oui on devrait enfin avoir ce saut. Si Jensen avait attendu 6 mois, on les aurait déjà eu ces cartes avec des puces de 3 Go. Je sais pas quelle mouche l'a piqué mais il a pas été bon dans son calcul et son estimation du shitstorm / réputation en baisse / puces de 2 Go
Ils ont surtout été radins sur les GPUs à part la 5090 : la 5080 c'est déjà la moitié du modèle du dessus.
Par rapport aux 3xxx ou avant les clients ont l'impression de payer une 5070 rebadgé en 5080 et ainsi de suite vers le bas.
La taille de la mémoire est du coup lié au bus minable de GPU trop castrés pour leur gamme.
La preuve :
Une 3050 c'est 24% des CUDA d'une 3090 et c'était déjà 8Go en 128 bits.
Une 5060 (!) c'est 17% des CUDA d'une 5090, toujours 8Go et le même bus 128 bits.
En fait même la 5060ti c'est seulement 21% d'une 5090. Il faut atteindre la 5070 pour avoir 28% du flagship.
Nvidia a été plus loin en fait : la 5070 c'est une 5050 Ti, vendue 600 balles par contre 🤣
Je ne pense pas qu'il soit pertinent de comparer les gammes sur base des cores CUDA uniquement. Au final ce sont les performances pures et les fonctionnalités qui démontrent si un positionnement tarifaire est juste ou non, et sur cet exercice, on remarque finalement qu'aux prix actuels, la RTX 5070 n'est pas plus mal placée qu'une 9070 XT puisqu'elle présente le même rapport performance/prix si on se fie aux benchmarks en jeu et aux prix actuels.
N'oublions pas également que la 3090 est un des pire modèles de l'histoire d'nvidia : sortie à 1500€ avec 15% de perfs en plus que la RTX 3080 à 700€, donc elle était clairement sous dimensionnée (à part en VRAM) par rapport à son positionnement tarifaire. La RTX 5070 propose des performances en jeu équivalente à la RTX 3090 pour moins de 600€ sans même prendre en compte l'apport du MFG et pourtant si on regarde les specs on a l'impression qu'elle devrait être loin derrière.
Les performances pures, sauf si on tombe à court de vram, c'est quasiment proportionnel au nombre de cuda sur une gen données (les fréquences sont très proches d'un modèle à l'autre sur les 5xxx donc ça influe peu).
Pour la 9070xt vs 5070 je ne suis pas d'accord : hardware & co la donne en moyenne 24% plus rapide en qhd raster. Hardware Unboxed arrive à 17% en plus pour la Radeon en 1440p avec un panel mixte (et la différence s'accentue en 4k vu les 12go de la 5070). Je ne dis pas qu'amd est spécialement bien placé non plus mais c'est dur de se faire une idée d'une gamme complète avec seulement 2 cartes sorties avec le même GPU et la même vram censées attaqué le moyen/début du haut de gamme.
Sinon je ne compare pas les perf des cartes d'il y a 5 ans avec ce qu'on a aujourd'hui (sinon je pourrai aussi dire que wow trop bien la 5060 explose ma gtx970 pour le même prix), je compare la taille du morceau de silicium qu'on te vend une fortune. Et je suis désolé : sur cette gen c'est l'arnaque.
Tu peux faire la même comparaison avec toutes les gen d'avant, c'est pareil. Les 4xxx ont introduit le phénomène (un peu rattrapé par les version super) et là ils s'en sont donné à cœur joie avec leur nomenclature en faisant passer pour du milieu de gamme des GPU minuscules et sous dotés en vram.
Et les fonctionnalités justement avec 8go de vram t'as pas intérêt à trop en demander. La framegen c'est sympa, je l'active sur pas mal de jeux solo pour avoir une sensation de fluidité mais ça double pas vraiment les fps, ça reste un mode dégradé et je sens bien quand le framerate de base est trop juste. Sans parler des artefacts, traînées, flou. Certains effets sont mal/pas compris par les modèles aussi : les pétales de roses dans clair obscur qui passent devant l'écran laissent une traîné marron dégueu, si tu bouge la caméra un peu vite ça devient n'importe avec dlss qualité+framegen (X2)
Bref faut arrêter de ressortir les arguments des plaquettes commerciales de NVIDIA. Si tu les écoutes du va croire que 5070=4090 🤣
(Dls pour le HS)
Ben oui, j'ai justement acheté une RTX 5070 à 576€ et une RX 9070 XT à 724€ à 1 semaine d'intervalle, soit une différence de 25%.
ça fait un moment que c'est plus pertinent du tout pour estimer les performances en jeu, tout comme les TFLOPS, donc à part pour lire des graphiques de benchmarks, ça n'apporte rien à la question "est-ce que ce gpu est le meilleur choix par rapport à mes besoins et mon budget ?". Les benchmarks c'est bien pour comparer, mais c'est presque toujours fait en settings ultra alors que ça n'apporte quasi rien en jeu et qu'un GPU à 600€ de nos jours c'est pas conçu pour jouer à tous les jeux en ultra en 4K natif.
De nouveau un gpu ce ne sont pas que des cores cuda, il y a aussi les tensor cores et autres unités de traitement qui font qu'une nouvelle gen peut faire des choses que les anciennes gen ne peuvent pas faire. Même chez AMD, ils sont bien obligés d'assumer que les fonctionnalités ML du FSR 4 ne sont pas possibles sur les anciennes gen. Tu oublies également les prix facturés par TSMC pour les process de gravure plus fin quand tu parles de morceau de silicium. Quand AMD a annoncé les 9070, beaucoup se sont emballés en disant que la RTX 5070 n'avait aucun sens et que son prix était scandaleux, sauf qu'on voit aujourd'hui qu'AMD arrive à peine à s'aligner et qu'on doit encore attendre fin 2025 pour avoir toutes les fonctionnalités annoncées sur le FSR 4.
Bref, tout ça pour dire que cette fixette sur les specs (cuda cores, vram), ça ne représente pas vraiment l'expérience en jeu tant qu'on sait ce qu'on achète et qu'on ne part pas avec des suppositions délirantes. Je reprends l'exemple de la RTX 3090, ils servent à quoi les 24gb de VRAM en 2025 si au final tout le reste ne suit pas pour proposer des perfs jouables quand on pousse les réglages graphiques ? Je ne me réfère justement pas à des plaquettes commerciales mais à une utilisation réelle.
Bah les "features" c'est beaucoup d'esbrouffe : le RT c'est sympa dans quelques titres mais gadget dans beaucoup d'autres. FSR/DLSS ça s'améliore, comme la framegen mais ça reste des caches misère pour prétendre que des cartes bas de gamme tiennent 120 fps en qhd ou plus alors que non, le rendu est loin du natif (et le frametime et les latences aussi..). Les 24 Go de Vram d'une 3090 sont encore très valables aujourd'hui : il y a les évidents comme minecraft moddé, skyrim moddé (vraiment des usages peu répendus...), tout ce qui touche aux progiciels, certain simu avion notament. Il y a aussi de plus en plus de titres récents (indiana jones par exemple, hogwart, callisto protocol,... ) qui n'aiment vraiment pas 8Go de Vram, surtout en 1440p, voir 12Go dans des cas extrêmes et tourneront bien mieux sur une 3090 que sur une 5060 ou même 5070.
Même si c'est encore un peu niche, les usage IA en local se développent et la Vram c'est vraiment le nerf de la guerre : passer de 8 à 16 Go c'est le jour et la nuit sur la qualité des petits modèles que tu peux faire tourner.
Je pense le contraire de toi : sur cette gen Nvidia a fait l'impasse sur une potentielle évolution de la finesse de gravure et de la capacité des puces Vram : résultats les perfs sont identiques à la gen d'avant à quelques % près, la conso ne s'améliore pas et la MFG ne fait pas tout vu le degeulli de pixels en sortie quand t'es pas dans un cas d'usage parfait.
Donc pour moi les specs c'est la base. Bien sûr un bon upscaler c'est un plus, mais si tu pars d'une puce minable, t'auras un résultat minable de toute façon.
Nvidia tente de masquer la non évolution hardware par de petites évolutions soft réussies (le passage au modèle transformer) ou un peu bégayantes (la MFG, surtout en x3 / x4)
C'est marrant aussi de dire que ça coute cher chez TSMC : justement Nvidia est resté sur un node déjà bien maitrisé, le même que pour les 4xxx qui datent de 2022 ;)
"Nvidia tente de masquer la non évolution hardware".
Ils masquent rien du tout, il n'y a plus d'evolution hardware c'est un fait, mais il y a toujours des evolutions software, point.
Faut arreter de voir le mal partout