Amd Vs Amd

C'est que lorsqu'un avis est émis en fonction de là où souffle le vent, il perd beaucoup de son impact. C'est ce qu'on appelle l'effet girouette !

AMD fait avec sa RX 9060 XT ce que NVIDIA a fait avec sa concurrente la RTX 5060 Ti : faire cohabiter des cartes dotées de 8 et de 16 gigots, et mettre un gap de 50 $ entre les deux moutures. Pourquoi donc l'existence de cartes avec "peu" de VRAM en 2025 obligeant par moment à consentir des compromis pour avoir des performances décentes ? Eh bien la réponse d'AMD par Frank Azor (que l'on a connu plus incisif) est assez simple : il y a un marché pour ces cartes, pour des gens qui n'ont pas envie de cramer plus d'oseille, et qui sont prêts à faire des compromis, quitte à économiser 50 $. Qui ? Par exemple le père de famille qui monte le premier PC de son fiston, et qui râcle les fonds de poche pour boucler le budget. Qui encore ? Des gens qui ne sont pas dans le hardware comme peut l'être notre communauté, et qui sont à des années-lumière du drama qui secoue la sphère plus ou moins spécialisée.

Car en baissant les options dans les jeux qui sucent beaucoup de VRAM, on peut obtenir des résultats visuellement propres, tout en conservant un niveau de performance élevé. Certes, beaucoup ne s'imaginent investir dans une carte en 2025 pour déjà faire des compromis, mais ce segment là n'est pas non plus le plus élevé du marché, s'adresse à des gens qui pédalent en FHD, et qui ne verront aucune difficulté à tripoter la sacro-sainte panoplie des options graphiques, en gros baisser les options. Ces cartes, que ce soit pour AMD ou NVIDIA, s'adressent à ces gens. Et pour les autres, pas de panique, il y en a pour tous les goûts, il y a des cartes à 16 Go de VRAM.

Ce qui est un peu embêtant quand même, c'est que les gamme 60 Ti / XT ne constituent pas complètement l'entrée de l'offre, représentée par la RTX 5060 chez NVIDIA et rien pour le moment chez AMD si ce n'est l'ancienne RX 7600 qui est de loin la carte à éviter puisque sa gestion de la VRAM lui casse littéralement les pattes dans tous les jeux. Si avoir 8 Go de VRAM fait sens sur la gamme 60 simple, elle est moins compréhensible sur la série supérieure 60 Ti / XT. N'oublions pas non plus qu'AMD n'est pas à une contradiction près, puisque du temps de RDNA 2 et dans l'après RDNA 2 immédiat, AMD vantait la quantité de VRAM de ses cartes pour écouler les stocks face à une concurrence qui compte trop souvent ses sous et sa VRAM sur les GeForce, Ampere pour l'anecdote.

Nous ne savons pas de quoi demain sera fait, ni sur UDNA (censé remplacer RDNA 5 et la branche pro CDNA, UDNA qui ne fait plus partie d'aucune fuite ni rumeur par ailleurs, signe d'un énième changement suite à un RDNA 4 étonnement performant finalement ?), ni sur NVIDIA Next, mais il serait bien de faire évoluer enfin les choses chez NVIDIA surtout, par ses choix de VRAM trop justes, il était évident que les joueurs ne seraient pas satisfaits des choix opérés, un aveugle l'aurait vu et une astrologue l'aurait prédit sans même y connaitre quelque chose au monde des GPU.

Amd Vs Amd

M Galonnier


  • C'est sur qu'il y aura des gens qui se tromperont et acheteront une RX 9060 XT 8 Go sans meme savoir qu'il existe un modele 16 Go.

    Si le modele 8 Go s'etait appele seulement RX 9060, ca aurait evite bien des erreurs.

    Mais bon, c'est le nerf du commerce

    https://proverbesdictons.com/tous-les-matins-il-y-a-un-con-qui-se-l.html

    Voir plus
    • Après je constate que la quantité de ram apparaît systématiquement dans le nom de la CG, même là où le doute n'est pas permis (5080 par exemple). 

      Dans l'idéal il faudrait que les revendeurs proposent un tri par chipset en différenciant suivant la RAM.

      Voir plus
  • Pour la prochaine génération , on peut quand même espérer la généralisation des puces GDDR7 de 3 Go , donc 12 Go de VRAM pour un GPU d'entrée de gamme à bus 128-bit , 18 Go sur un bus 192-bit , 24 Go sur un bus 256-bit , 36 Go sur un bus 384-bit et 48 Go sur un bus 512-bit , sans avoir recours au clamshell.

    Voir plus
    • Pour la prochaine génération , on peut quand même espérer la généralisation des puces GDDR7 de 3 Go , donc 12 Go de VRAM pour un GPU d'entrée de gamme à bus 128-bit , 18 Go sur un bus 192-bit , 24 Go sur un bus 256-bit , 36 Go sur un bus 384-bit et 48 Go sur un bus 512-bit , sans avoir recours au clamshell.

      On sait pas ce que AMD fera, et oui on devrait enfin avoir ce saut. Si Jensen avait attendu 6 mois, on les aurait déjà eu ces cartes avec des puces de 3 Go. Je sais pas quelle mouche l'a piqué mais il a pas été bon dans son calcul et son estimation du shitstorm / réputation en baisse / puces de 2 Go

      Voir plus
      • Ils ont surtout été radins sur les GPUs à part la 5090 : la 5080 c'est déjà la moitié du modèle du dessus. 
        Par rapport aux 3xxx ou avant les clients ont l'impression de payer une 5070 rebadgé en 5080 et ainsi de suite vers le bas. 

        La taille de la mémoire est du coup lié au bus minable de GPU trop castrés pour leur gamme.  

        La preuve :
        Une 3050 c'est 24% des CUDA d'une 3090 et c'était déjà 8Go en 128 bits.
        Une 5060 (!) c'est 17% des CUDA d'une 5090, toujours 8Go et le même bus 128 bits.

        En fait même la 5060ti c'est seulement 21% d'une 5090. Il faut atteindre la 5070 pour avoir 28% du flagship.
        Nvidia a été plus loin en fait : la 5070 c'est une 5050 Ti, vendue 600 balles par contre 🤣


        Voir plus
        • Je ne pense pas qu'il soit pertinent de comparer les gammes sur base des cores CUDA uniquement. Au final ce sont les performances pures et les fonctionnalités qui démontrent si un positionnement tarifaire est juste ou non, et sur cet exercice, on remarque finalement qu'aux prix actuels, la RTX 5070 n'est pas plus mal placée qu'une 9070 XT puisqu'elle présente le même rapport performance/prix si on se fie aux benchmarks en jeu et aux prix actuels.

          N'oublions pas également que la 3090 est un des pire modèles de l'histoire d'nvidia : sortie à 1500€ avec 15% de perfs en plus que la RTX 3080 à 700€, donc elle était clairement sous dimensionnée (à part en VRAM) par rapport à son positionnement tarifaire. La RTX 5070 propose des performances en jeu équivalente à la RTX 3090 pour moins de 600€ sans même prendre en compte l'apport du MFG et pourtant si on regarde les specs on a l'impression qu'elle devrait être loin derrière.

          Voir plus
          • Les performances pures, sauf si on tombe à court de vram, c'est quasiment proportionnel au nombre de cuda sur une gen données (les fréquences sont très proches d'un modèle à l'autre sur les 5xxx donc ça influe peu).

            Pour la 9070xt vs 5070 je ne suis pas d'accord : hardware & co la donne en moyenne 24% plus rapide en qhd raster. Hardware Unboxed arrive à 17% en plus pour la Radeon en 1440p avec un panel mixte (et la différence s'accentue en 4k vu les 12go de la 5070). Je ne dis pas qu'amd est spécialement bien placé non plus mais c'est dur de se faire une idée d'une gamme complète avec seulement 2 cartes sorties avec le même GPU et la même vram censées attaqué le moyen/début du haut de gamme.

            Sinon je ne compare pas les perf des cartes d'il y a 5 ans avec ce qu'on a aujourd'hui (sinon je pourrai aussi dire que wow trop bien la 5060 explose ma gtx970 pour le même prix), je compare la taille du morceau de silicium qu'on te vend une fortune. Et je suis désolé : sur cette gen c'est l'arnaque. 

            Tu peux faire la même comparaison avec toutes les gen d'avant, c'est pareil. Les 4xxx ont introduit le phénomène (un peu rattrapé par les version super) et là ils s'en sont donné à cœur joie avec leur nomenclature en faisant passer pour du milieu de gamme des GPU minuscules et sous dotés en vram.

            Et les fonctionnalités justement avec 8go de vram t'as pas intérêt à trop en demander. La framegen c'est sympa, je l'active sur pas mal de jeux solo pour avoir une sensation de fluidité mais ça double pas vraiment les fps, ça reste un mode dégradé et je sens bien quand le framerate de base est trop juste. Sans parler des artefacts, traînées, flou. Certains effets sont mal/pas compris par les modèles aussi : les pétales de roses dans clair obscur qui passent devant l'écran laissent une traîné marron dégueu, si tu bouge la caméra un peu vite ça devient n'importe avec dlss qualité+framegen (X2)

            Bref faut arrêter de ressortir les arguments des plaquettes commerciales de NVIDIA. Si tu les écoutes du va croire que 5070=4090 🤣

            (Dls pour le HS) 

            Voir plus
          • Pour la 9070xt vs 5070 je ne suis pas d'accord : hardware & co la donne en moyenne 24% plus rapide en qhd raster. 

            Ben oui, j'ai justement acheté une RTX 5070 à 576€ et une RX 9070 XT à 724€ à 1 semaine d'intervalle, soit une différence de 25%.

            Les performances pures, sauf si on tombe à court de vram, c'est quasiment proportionnel au nombre de cuda sur une gen données

            ça fait un moment que c'est plus pertinent du tout pour estimer les performances en jeu, tout comme les TFLOPS, donc à part pour lire des graphiques de benchmarks, ça n'apporte rien à la question "est-ce que ce gpu est le meilleur choix par rapport à mes besoins et mon budget ?". Les benchmarks c'est bien pour comparer, mais c'est presque toujours fait en settings ultra alors que ça n'apporte quasi rien en jeu et qu'un GPU à 600€ de nos jours c'est pas conçu pour jouer à tous les jeux en ultra en 4K natif.

            Sinon je ne compare pas les perf des cartes d'il y a 5 ans avec ce qu'on a aujourd'hui (sinon je pourrai aussi dire que wow trop bien la 5060 explose ma gtx970 pour le même prix), je compare la taille du morceau de silicium qu'on te vend une fortune. Et je suis désolé : sur cette gen c'est l'arnaque. 

            De nouveau un gpu ce ne sont pas que des cores cuda, il y a aussi les tensor cores et autres unités de traitement qui font  qu'une nouvelle gen peut faire des choses que les anciennes gen ne peuvent pas faire. Même chez AMD, ils sont bien obligés d'assumer que les fonctionnalités ML du FSR 4 ne sont pas possibles sur les anciennes gen. Tu oublies également les prix facturés par TSMC pour les process de gravure plus fin quand tu parles de morceau de silicium. Quand AMD  a annoncé les 9070, beaucoup se sont emballés en disant que la RTX 5070 n'avait aucun sens et que son prix était scandaleux, sauf qu'on voit aujourd'hui qu'AMD arrive à peine à s'aligner et qu'on doit encore attendre fin 2025 pour avoir toutes les fonctionnalités annoncées sur le FSR 4.

            Bref, tout ça pour dire que cette fixette sur les specs (cuda cores, vram), ça ne représente pas vraiment l'expérience en jeu tant qu'on sait ce qu'on achète et qu'on ne part pas avec des suppositions délirantes. Je reprends l'exemple de la RTX 3090, ils servent à quoi les 24gb de VRAM en 2025 si au final tout le reste ne suit pas pour proposer des perfs jouables quand on pousse les réglages graphiques ? Je ne me réfère justement pas à des plaquettes commerciales mais à une utilisation réelle.

            Voir plus
  • Bah les "features" c'est beaucoup d'esbrouffe : le RT c'est sympa dans quelques titres mais gadget dans beaucoup d'autres. FSR/DLSS ça s'améliore, comme la framegen mais ça reste des caches misère pour prétendre que des cartes bas de gamme tiennent 120 fps en qhd ou plus alors que non, le rendu est loin du natif (et le frametime et les latences aussi..). Les 24 Go de Vram d'une 3090 sont encore très valables aujourd'hui : il y a les évidents comme minecraft moddé, skyrim moddé (vraiment des usages peu répendus...), tout ce qui touche aux progiciels, certain simu avion notament. Il y a aussi de plus en plus de titres récents (indiana jones par exemple, hogwart, callisto protocol,... ) qui n'aiment vraiment pas 8Go de Vram, surtout en 1440p, voir 12Go dans des cas extrêmes et tourneront bien mieux sur une 3090 que sur une 5060 ou même 5070.
    Même si c'est encore un peu niche, les usage IA en local se développent et la Vram c'est vraiment le nerf de la guerre : passer de 8 à 16 Go c'est le jour et la nuit sur la qualité des petits modèles que tu peux faire tourner.


    Je pense le contraire de toi : sur cette gen Nvidia a fait l'impasse sur une potentielle évolution de la finesse de gravure et de la capacité des puces Vram : résultats les perfs sont identiques à la gen d'avant à quelques % près, la conso ne s'améliore pas et la MFG ne fait pas tout vu le degeulli de pixels en sortie quand t'es pas dans un cas d'usage parfait. 
    Donc pour moi les specs c'est la base. Bien sûr un bon upscaler c'est un plus, mais si tu pars d'une puce minable, t'auras un résultat minable de toute façon.
    Nvidia tente de masquer la non évolution hardware par de petites évolutions soft réussies (le passage au modèle transformer) ou un peu bégayantes (la MFG, surtout en x3 / x4) 
    C'est marrant aussi de dire que ça coute cher chez TSMC : justement Nvidia est resté sur un node déjà bien maitrisé, le même que pour les 4xxx qui datent de 2022 ;)

    Voir plus
    • "Nvidia tente de masquer la non évolution hardware".

      Ils masquent rien du tout, il n'y a plus d'evolution hardware c'est un fait, mais il y a toujours des evolutions software, point.

      Faut arreter de voir le mal partout

      Voir plus
    • Bah les "features" c'est beaucoup d'esbrouffe

      Ces critiques sont valables au mieux pour les premières versions du DLSS ou pour des implémentations bancales des features que tu cites. Il y a assez de comparatifs récents qui prouvent que le rendu est très proche voire meilleur à la résolution native. Tu critiques donc plus une mauvaise implémentation des technos plus que les technos en elles-mêmes qui, que tu le veuilles ou non, sont incontournables aujourd'hui. Perso je suis passionné de 3D depuis 30 ans donc je peux te dire que de jouer à un jeu comme Cyberpunk 2077 en pathtracing à 120 fps en 4K, c'est quelque chose que je n'aurais même pas espéré il y a 10 ans. C'est pas parfait, y'a des artefacts dans des cas spécifiques, mais toutes les technos de rendu raster, d'anti aliasing ont aussi leur lot d'artefacts et d'approximation.

      En fait ce que tu refuses de comprendre, c'est qu'Nvidia est conscient et communique depuis des années sur le fait qu'on arrive aux limites d'évolutions du hardware. Le passage à des process de gravure plus fins va être de plus en plus coûteux tout en proposant de moins en moins de bénéfice. C'est de la physique, pas un complot mondial comme tu le prétends.

      Les 24 Go de Vram d'une 3090 sont encore très valables aujourd'hui

      Valables dans des cas extrêmes comme tu le décris très bien, tout ce que tu cites ça représente une frange infime des utilisateurs. Une carte avec 8gb de VRAM convient pour du 1080p, personne ne prétend qu'on peut jouer confortablement en 1440p sans concessions avec ça.

      Les LLM en local sont en cours d'optimisation pour être moins gourmands en mémoire, c'est inéluctable pour une démocratisation ces prochaines années. Donc de nouveau tu critiques un produit grand public sur base d'une utilisation de niche.

      sur cette gen Nvidia a fait l'impasse sur une potentielle évolution de la finesse de gravure

      Il ont misé sur les traitements ML parce que le passage du N4 au N4P n'était pas justifié selon eux. Maintenant qu'on a vu les tests des RX 9070 et leur positionnement tarifaire, on voit très bien que ce que tu appelles la gen de l'arnaque est difficilement concurrencée par AMD dans les faits.

      C'est marrant aussi de dire que ça coute cher chez TSMC : justement Nvidia est resté sur un node déjà bien maitrisé, le même que pour les 4xxx qui datent de 2022 ;)

      Tu comparais la gen 3XXX à la gen 5XXX sur base des cuda cores sans prendre en compte tout le reste, d'où ma remarque sur le fait que le passage du 8nm au 5nm a un coût et qu'il est donc normal qu'ils essaient d'optimiser leur architecture vu qu'ils ne peuvent pas augmenter le nombre de transistors à l'infini à chaque gen.

      Voir plus

11 commentaires

Laissez votre commentaire

Créez un compte pour personaliser votre avatar, débloquer davantage d'options de mise en forme et être notifié par mail en cas de réponse.
En réponse à Some User