Voyante Rtx50

Miroir, mon beau miroir, dis moi quelle est la plus belle boule de cristal pour voir l'avenir dedans ? Et non, ce n'est pas un plug et ce n'est pas là qu'on trouvera, mais au CES !

Il va falloir remonter loin dans les mémoires, surtout si vous êtes lecteur de H&Co. Lorsque les premières rumeurs ont commencé à apparaitre conjointement au développement de la GDDR7, la gamme de GeForce RTX 50 était pressentie comme suit : les cartes en haut du catalogue animées par les GPU GB202, GB203 et GB205 auraient le droit à la GDDR7, les autres à la GDDR6 ou GDDR6X. Évidemment, à l'époque au mois de mars, nous ne savions pas ce que nous savons à présent. Samsung serait le seul fournisseur de cette VRAM pour les cartes desktop, il y aurait de la GDDR7 à 28 Gbps ce qui n'était pas le maximum développé soit 32 Gbps, et le CES approchant, de nouvelles informations arrivent. Il est délicat de faire le tri parce que tout le monde y va de la sienne, toutefois, des sites et des leakers qui ont souvent juste apportent le p'tit truc qui semble plausible, pas déconnant. C'est BenchLife qui a lancé le pavé dans la mare, inspirant le titre de ce billet.

Selon le confrère, au coeur du business par sa position géographique, a affirmé que la RTX 5080 aurait de la GDDR7 à 30 Gbps, là où toutes les autres glisseraient sur de la 28 Gbps. En soi, NVIDIA ferait avec la RTX 5080 ce qu'il a fait avec la RTX 4080 SUPER, à savoir utiliser la mémoire la plus rapide uniquement sur cette référence. Mais là où la phrase de BenchLife est sympa, c'est qu'il affirme en plus que la RTX 5060 aurait aussi de la GDDR7, alors qu'on pouvait s'attendre, à la mémoire des rumeurs de mars, à un autre type de VRAM pour elle, puisqu'elle ne serait pas propulsée par un GB205, mais pas un GPU moins huppé.

Nous reconnaissons qu'à présent, il nous tarde que le CES soit là afin d'avoir des certitudes dans ce magma d'infos. Il y a fort à parier que tout ne soit pas faux, mais nous saurons faire le tri le moment venu !

M Galonnier


  • Faut surtout voir quand les puces de 3Go seront integrees dans les CG, et sur quels modeles

  • Il faut surtout justifier les prix hauts mêmes sur les GPU entrée de gamme!

    On sent bien venir une 5060 avec les perf d'une 4060Ti au même prix voir un peu plus cher que la 4060Ti

    • Ce n'est en aucun cas un mystère malheureusement.

      Et c'est pas la gestion calamiteuse d'AMD de l'héritage ATI qui permettra de changer quoi que ce soit.
      Dommage qu'Intel ne parvienne pas à concrétiser une place de 3ième larron alors méritée. Intel ne mérite pas non plus une quelconque comparaison.

      Que reste-t-il ? 
      => NVidia.

      Croyez moi, ils ne vont pas se poser de question et imposer une tarification "rectum dilatatrice".

      Autant j'en veux à NVidia d'être cupide, j'en veux plus à AMD pour sa gestion honteuse d'élaboration de GPU ainsi aussi que sa gestion des ressources associées.

      C'est bien beau de surfer sur les avancées et avantages de l'archi ZEN (toujours, un grand merci à Keller et son équipe, ceci n'est pas une création de la "mainbase" R&D d'AMD), mais il faudrait en profiter pour réinjecter les bénéfices dans les ressources R&D (surtout côté GPU).
      Sans prendre garde l'histoire se répétera (k6, k7, A64, ...) et Intel reprendra son leadership côté CPU. Ce qui serait terrible pour nous autres consommateurs :
      - CPU x86 avec seulement Intel (comme l'époque Pentium, Pentium-2, Core2, puis Corei);
      - GPU avec seulement NVidia;


      PS: Avis subjectifs =>
      1- Enterrer Intel serait une erreur stratégique fatale.
      2- Lisa Sue n'est qu'une pale imitation de Steve Jobs par ses effets d'annonces médiocres. Bref sur estimée.


      Bonne journée. 

      • Faut voir où se situeront les cartes B700 d'Intel. Car sur l'entrée de gamme, elle pourrait tout de même forcer nVidia à revoir ses tarifs. Les B500 étant plus ou moins taillées pour la 4060, les B700 pourraient contrer les 5060 (Ti ? avec un peu d'optimisme)

        Par contre je ne me fais aucune illusion sur le haut de gamme ou la carte pour l'enthousiaste que je suis. J'ai prévu un budget de 3000€ pour une RTX 5090 "W"ater "C"loset. Car je pense qu'on sera dans cette tranche là ou pas bien loin.

        Ca fait un peu plus de 50% du budget pour le ravalement de façade du PC Complet. Mais avec la pénurie actuelles de 9800X3D, on voit quand même aussi que les revendeurs peuvent se gaver avec  un tarif de plus de 600€ alors qu'on devrait être à peu près à 500€. Espérons donc qu'nVidia a prévu un gros volume pour ses GPU, sinon on risque de s'en prendre plein la gueule pendant de nombreux mois.

        • La puissance brute n'est pas le ressenti en jeux ...

          Il faut tout un environnement cohérent pour parvenir/obtenir une expérience ludique équivalente aux solution AMD et NVidia.

          Le bas qui blesse pour le GPU Intel => les drivers et donc les comportements erratiques selon les jeux.

          • C'est pas ce que les tests des premières BattleMage ont démontrés. Ce qui était valable à la sortie d'Alchemist n'a plus vraiment cours.

          • C'est pas ce que les tests des premières BattleMage ont démontrés. Ce qui était valable à la sortie d'Alchemist n'a plus vraiment cours.

            Heu les premiers tests B580 qui sont tombés et que j'ai vu (gamer nexus et hard unbox) montrent qu'en rastérisation en 1440p le niveau est équivalent à une 3060ti le plus souvent...  bof bof.

            Et encore, ... on a pas encore de retours concernant le ressenti.


            Bref, on verra.

          • C'est pas ce que les tests des premières BattleMage ont démontrés. Ce qui était valable à la sortie d'Alchemist n'a plus vraiment cours.

            Heu les premiers tests B580 qui sont tombés et que j'ai vu (gamer nexus et hard unbox) montrent qu'en rastérisation en 1440p le niveau est équivalent à une 3060ti le plus souvent...  bof bof.

            Et encore, ... on a pas encore de retours concernant le ressenti.


            Bref, on verra.

            Tu ferais bien de lire le test de H&Co tout simplement : https://hardwareand.co/dossiers/gpu/test-de-l-intel-arc-b580-le-renouveau-des-cartes-graphiques-sous-les-300-e?start=6

          • C'est pas ce que les tests des premières BattleMage ont démontrés. Ce qui était valable à la sortie d'Alchemist n'a plus vraiment cours.

            Heu les premiers tests B580 qui sont tombés et que j'ai vu (gamer nexus et hard unbox) montrent qu'en rastérisation en 1440p le niveau est équivalent à une 3060ti le plus souvent...  bof bof.

            Et encore, ... on a pas encore de retours concernant le ressenti.


            Bref, on verra.

            Tu ferais bien de lire le test de H&Co tout simplement : https://hardwareand.co/dossiers/gpu/test-de-l-intel-arc-b580-le-renouveau-des-cartes-graphiques-sous-les-300-e?start=6

            En effet, le batch de jeu n'est pas le même ...

            Mais je focalise sur les moyennes :
            https://youtu.be/aV_xL88vcAQ?t=712
            A ce moment de la vidéo on voit un récap raster 1440p.

            Et la aussi :
            https://www.techpowerup.com/review/intel-arc-b580/31.html



            Mon constat est toujours valable hors RT.

    • La gddr7 est sauf erreur moins complexe et donc à terme moins coûteuse que de la gddr6x il me semble

      Et il y aura un acteur de plus à en fournir contrairement à la gddr6x donc hors entente plus simple à négocier le prix

      Du moins sur les puces de 2GB, 

      Les puces de 3GB elles tous ne serait pas en ordre de marche pour en fabriquer

      Moi c est plus AMD qui me surprend à rester en gddr6

11 commentaires

Laissez votre commentaire

En réponse à Some User