Amd Ryzen 3d

Duel de Ryzen 7 doués pour le jeu : plutôt 5800X3D ou 7800X3D ? En voilà une bonne question !

Si actuellement les deux puces subsistent sur le marché, elles ne sont pas destinées pour autant aux mêmes personnes. En effet, la première représente le top du CPU gaming pour AM4, la seconde occupe le même rôle sur l'AM5 (en compagnie de ses deux frangins Ryzen 9 7900X3D et 7950X3D). Mais ces deux Ryzen 7 sont plus dans la même "tranche" tarifaire, du moins avant que le 5800X3D se prenne baisse sur baisse pour l'amener autour des 300 € actuellement. Dans quelles mesures ces deux CPU permettent de jouer ? Quel est l'avantage en matière de performances du 7800X3D face à son ainé ? Et comment se distinguent-ils sur les 3 définitions majeures du marché, le 1920 x 1080, le 2560 x 1440 et le 3840 x 2160 ?

Pour le savoir, il faut tester, et tant qu'à faire avec une carte graphique qui ne va pas limiter les deux dès le FHD. C'est pourquoi la GeForce RTX 4090 est la plus indiquée aujourd'hui pour ce rôle. Techspot a passé une grosse vingtaine de jeux au crible, parfois avec et sans ray tracing, et ce sur les moyennes que le 1% Low.

Les résultats sont sans appel, mais à nuancer selon que vous avec une grosse carte graphique ou pas. Le test montre les cas les plus favorables du fait de la présence de la RTX 4090, nul doute qu'avec un GPU moins violent la donne serait différente, à corréler cependant avec la définition. En effet, une RX 6900XT en FHD saurait très bien se distinguer selon le CPU.

Revenons en à nos moutons. En FHD le 7800X3D offre 18 % de performance en plus par rapport au 5800X3D, et 20 % sur le 1% Low, c'est peu ou prou ce que nous avions trouvé lors de notre comparatif CPU. En passant sur le QHD, ça chute un peu, le 7800X3D reste 12 et 15 % supérieur au 5800X3D respectivement sur les moyennes et le 1% Low. Y a t-il un intérêt en UHD, là où le GPU est le plus limitant ? Si on en croit les gains de 4 et 7 % sur les moyennes et le 1% Low, il est très réduit dans cette définition, même si c'est à l'avantage du 7800X3D. Par contre, toujours en 3840 x 2160, cela peut avoir un grand intérêt selon les jeux. En effet, Hogwarts Legacy se délecte du 7800X3D avec RT, tout comme SPider-Man Remastered. A contrario, il y a pas mal de jeux qui n'en tirent pas profit, avec une égalité. C'est donc à voir au cas par cas.

Amd Ryzen 3d

Par ici le test !

M Galonnier


  • Bonjour,

    Avez-vous une explication concernant la consommation totalement abusive des processeurs AMD au repos par rapport à Intel et des cartes graphiques AMD par rapport à Nvidia lorsque l'on passe l'affichage de l'écran à 144Hz (J'ai bien vu qu'en 60Hz AMD est devant) ?

    Je n'ai pas trouvé d'explication à cela, de plus je trouve ça aberrant de ne pas plus le prendre en comptes lors du verdict final des tests de processeurs et de cartes graphiques. Personnellement je cherche la consommation la plus réduite pour ma configuration, afin de limiter au maximum la chaleur lorsque j'utilise mon ordinateur que ce soit au repos ou en charge.

    Pour moi, c'est un gros point noir cette différence de consommation qui va du simple au double entre deux marques différentes.

     

    D'avance merci pour votre réponse.

    • Pour les processeurs, c'est indiqué dans notre dossier : "Au repos, la plateforme la moins gourmande s'avère être l'AM4 (X570), suivi par l'Intel LGA 1700 (Z790) et enfin l'AM5 (X670E). En se concentrant sur les lignes 12 V dévolues au CPU, les puces d'Intel se montrent les plus économes puisque capables de descendre à un gros Watt (sous couvert qu'ils n'utilisent pas de puissance supplémentaire via les 24 lignes de la carte mère). Elles sont suivies de près par les Zen 3 sur AM4. A contrario, les CPU AM5 se montrent bien moins vertueux  que leurs prédécesseurs, expliquant une bonne part du différentiel de consommation, séparant les deux plateformes."

      Pour les cartes graphiques, c'est aussi indiqué dans nos dossiers : "Les cartes d'Intel sont toujours largement au-dessus et les Radeon un peu plus vertueuses. Cela ne s'entend par contre qu'à 60 Hz, parce que si vous désirez un rafraîchissement vertical plus confortable, l'impact sur les Radeon est bien supérieur, du fait d'une fréquence mémoire qui se cale alors à son maximum."

      Il semble un peu rapide de dire que ce n'est pas pris en compte lors des verdicts...

      • Merci pour votre réponse.

        J'avais effectivement lu vos dossiers concernant les processeurs, mais je n'ai pas trouvé d'explication détaillée au "Pourquoi une telle différence ?". Cela vient-il de la conception du processeur avec les différents niveaux de caches ou les technologies associées à celui-ci, de la carte mère et / ou de son bios, etc.

        Même chose pour les cartes graphiques, est-ce que cela vient de la carte et / ou des pilotes associées ?

        Ce que je voulais dire, c'est que c'est pris en compte dans le test mais pas dans le verdict finale, tout simplement.

        Je n'aurai pas du dire "aberrant" mais "dommage" car je ne voulais pas faire de reproche mais seulement exposer un point de vue différent.

        • Si tu as vraiment lu les dossiers et les news ici où ces problèmes ont été évoqués plusieurs fois (notamment pour les cartes graphiques), tu auras lu que pour les cartes graphiques AMD cela serait un souci de fréquence de la VRAM qui se cale trop haut lors d'un multimoniteur >60Hz. AMD ne semble pas comprendre pourquoi ou bien ne sait pas résoudre le problème qui dure depuis la génération précédente, et donc personne ne sait si cela vient des pilotes ou d'une conception qui ne permet pas de faire autrement. La logique voudrait que si cela venait des pilotes, cela aurait été corrigé depuis longtemps. La réalité est autre, avec nvidia ou AMD, des bugs liés aux pilotes peuvent rester non corrigés pendant longtemps.

          Pour les processeurs AMD, les cartes mères avec la conception en double chipset semblent incriminées, ce qui ne touche qu'une partie de la plateforme AMD AM5. Mais je peux me tromper car je ne lis qu'en diagonale quand ça parle de ça, cette génération ne m'intéressant pas du tout depuis que j'ai vu que les cartes mères un minimum intéressantes allaient couter entre 500 et 800 euros (j'exagère peut-être un peu, c'est mon côté sudiste qui remonte), soit le prix d'une tour il n'y a pas si longtemps (ou presque).

          • Ça le fait en simple écran cette fréquence haute sur Rdna 3, pas obligé d'être en double écran. Les Rdna 2 étaient un peu mieux mais pas folichones non plus

    • Qu'entend tu par consommation abusive ? Ce serait bien de donner des chiffres. Étant passé d'un 9900K à un 7700X, sur un écran 240 Hz, je ne remarque rien d'abusif entre les deux. Que je sois en 60, 120, 240 Hz, la consommation CPU est la même selon HWInfo.

      Pour ce qui est de la carte graphique, j'ai effectivement eut une RTX 3080 Ti qui consommait 100 W dès lors que l'écran était en 240 Hz. Il se trouve que c'était l'activation du HDR sous Windows qui causait ce problème, qui ne se présentait toutefois pas quand l'écran était en 120 Hz. Il semblait y avoir un conflit aussi avec le mode sombre de Discord, qui causait une surconsommation quand le HDR était activé. Enfin bref, c'était une étrangeté comme l'informatique est capable d'en pondre. Il faut bien souvent commencer par faire du troubleshooting avec le software avant de blâmer le hardware 😉

7 commentaires

Laissez votre commentaire

En réponse à Some User