Amd Vs Intel

Il y a quatre ans, beaucoup se sont posés la question du choix du CPU budget pour jouer. Est-ce que certains doivent regretter leur choix, ou pas ?

Voilà qui nous renvoie plus de 4 ans en arrière, en 2019. Pour situer l'évolution du marché, AMD avait lancé ses Ryzen 3000 basés sur Zen 2, ils reprenaient la couronne de l'applicatif à Intel avec un gros cache L3 et plein de cœurs avec les 3900X et 3950X, mais cédaient encore un peu de terrain à Intel en gaming, du moins tant que la carte graphique ne limitait pas.

De son côté, Intel avait dû s'activer sur le segment mainstream, où il condamnait les clients à un sempiternel quadcore jusqu'à ce qu'AMD ne fasse sauter le nombre de coeurs. La série 9000 était la première qui comptait  dans ses rangs un 8 coeurs / 16 threads et un 8 coeurs sans Hyper-Threading. Mais le duel du jour concerne les "petits" hexacores.

Le Ryzen 5 3600 a eu un succès monstre, avec ses 6 coeurs et 12 threads, le tout avec 32 Mo de L3 scindés en 2x 16 Mo. Le Core i5-9600K était un 6 cœurs, mais dénué d'Hyper-Threading, il restait donc à 6 threads, mais avec des fréquences bien plus élevées que son concurrent, et bien moins de cache, avec 9 Mo. La question est de savoir si de nos jours, de telles puces sont limitantes en jeu, surtout que la puissance des cartes graphiques a fait exploser littéralement le mur GPU dans les tests.

Le facteur limitant GPU étant repoussé au plus de ce qu'il est possible en 2023, avec la GeForce RTX 4090, il est intéressant de voir comment se comportent les deux meilleurs ennemis sur silicium ! Techspot a fait le test sur les 3 définitions majeures, tout en intégrant également quelques références CPU supplémentaires dont le Ryzen 7 5800X3D, ex-roi de la discipline, et le Core i9-9900K, ex-patron du jeu il y a 4 ans de cela.

En FHD, le Ryzen 5 3600, sur le panel de jeu, s'en sort un peu mieux en moyenne, avec seulement 4.2% d'avance. Mais le 1% Low est plus impacté, avec 12.8% d'avance pour le Ryzen. En QHD, le schéma est le même, le R5 3600 est en avance respectivement de 5.4% et de 14% pour les moyennes et le 1% Low. En UHD, tris repetita (patapé c'est fait exprès), avec 4.6% et 10.9% sur les moyennes / 1% Low.

Comme vous le voyez, ce n'est pas tant sur les moyennes que l'expérience change entre les deux puces, mais c'est sur le 1% Low. Et forcément, l'expérience sera meilleure sur le R5 3600 que le 9600K, même si on reste dans des valeurs bien éloignées par rapport au 5800X3D, qui écrase toute concurrence. Si on devait résumer tout ceci par un tableau, reprenant tous les concurrents, on aurait ceci :

CPU 1080p - Moyennes 1080p - 1% Low 1440p - Moyennes 1440p - 1% Low 2160p - Moyennes 2160p - 1% Low
Ryzen 7 5800X3D 176.6 % 188.6 % 168.5 % 180.9 % 134.5 % 146.9 %
Core i9-9900K 126.6 % 137.1 % 126.1 % 136.7 % 116.1 % 125 %
Ryzen 7 3700X 109.5 % 122.8 % 110.8 % 123.5 % 108 % 117.2 %
Ryzen 5 3600 104.2 % 112.8 % 105.4 % 114 % 104.6 % 110.9 %
Core i5-9600K 100 % 100 % 100 % 100 % 100 % 100 %

Plus on grimpe en définition, et plus les écarts s'amenuisent, logique puisque le GPU est plus impactant, mais avec la RTX 4090, on voit bien que malgré tout, le CPU a une influence capitale en UHD, ce qui n'était quasiment pas le cas sur les générations d'avant. Tout se calcule !

Amd Vs Intel

Et hop l'article kisseli !

M Galonnier


  • Mon bon vieux 9600K, overclocké à 5Ghz stable, il dépotait quand même, mais 6/6 Cores c'est devenu trop juste pour du jeu.

    J'aurais pas imaginé autant de différences en 4K entre tous ces procs 🤨

    • Mon bon vieux 9600K, overclocké à 5Ghz stable, il dépotait quand même, mais 6/6 Cores c'est devenu trop juste pour du jeu.

      J'aurais pas imaginé autant de différences en 4K entre tous ces procs 🤨

      Là c'est avec une RTX 4090 pas avec une CG à 500€. Ton 9600k fait largement le taf en 4k avec une CG jusqu'à la RTX 4080. Bientôt noël est il faut absolument publier des tests pour que les gens changent leur matos pourtant encore dans le coup en 2023. 

      • Pas faux, mais j'ai déjà changé ma config pour partir sur quelque chose qui durera quelques années pour du jeu : 7800X3D et 6800XT (on verra la CG dans 4-5 ans, je joue en 1440p).

  • Le Ryzen 3600 représente encore un bon arrangement pour du gaming en entrée de gamme avec un GPU type 6750XT. 
    C'était mon second CPU après un 1600X et avant d'upgrader sur le 5800X3D tout récemment, le gain en perfs est juste affolant sur une plateforme achetée initialement fin 2017, et beaucoup de youtubeurs (soit disant) spécialisés en informatique, déconseillaient d'installer les derniers Ryzen sur des chipsets série 300, des abrutis en puissance : ça marche tout aussi bien les gars, et pour info le PCIE 4 on s'en fou du moment que la carte graphique dispose bien de ses 16 lignes activées.

    • Avant de traiter trop rapidement les autres d'abrutis, il faut remettre les choses dans leur contexte. Le chipset 300 ou le PCIE n'étaient pas la source des recommandations à se méfier lors d'un upgrade de CPU sur une plateforme AM4. Ce sont surtout les VRM et leur agencement qui sont à surveiller sur la CM pour permettre la prise en charge sans douleur de processeurs plus gourmands. Certains CM de l'époque étaient dotées très chichement et mal branlées malgré leur prix, avec un équipement calculé au plus juste. Les bonnes CM de l'époque chipset 300 ne posaient pas de soucis particulier. Des google docs avaient circulé pour récapituler les CM et les possibilités d'upgrade sans risque.

      A cela s'ajoutait le problème de bios riquiqui qui ne permettaient pas une mise à jour sans enlever le support de certaines gammes de proco. Là encore en raison d'économie de bouts de chandelles de certains fabricants de CM, qui mégottent plus facilement sur l'équipement que sur le prix, mais toutes les marques de CM n'étaient pas touchées.

      • Pour la majorité des CPU, les VRM sur les cartes 300 étaient suffisant à condition de ne pas prendre de l'entrée de gamme (mais c'est valable aussi aujourd'hui), leur agencement est fait selon la volonté du fabriquant avant tout, on a vu ASRock mettre 9 phases d'alim sur certaines carte mère en A320, donc tout est possible, mise à part les gros CPU (type 3900X) les Ryzen consommaient de moins en moins au fil des générations, mon 3600X était un peut moins gourmand que mon 1600X de l'époque. 

        L'entourloupe d'AMD n'était pas nette car les séries 400 étaient compatible dès le début avec les derniers Ryzen, hors elles n'étaient pas si différentes des séries 300.

        • Il se trouve que j'étais concerné par un achat de carte mère en x370 qui ne permettait pas un upgrade sans faire attention aux choix de proco, et qui limitait fortement les choix. De même, concerné par les soucis de bios étriqué. Et ce n'était pas du x370 bas de gamme en termes de prix, si seulement un bas de gamme de ce genre a existé.

          • Il se trouve que j'étais concerné par un achat de carte mère en x370 qui ne permettait pas un upgrade sans faire attention aux choix de proco, et qui limitait fortement les choix. De même, concerné par les soucis de bios étriqué. Et ce n'était pas du x370 bas de gamme en termes de prix, si seulement un bas de gamme de ce genre a existé.

            les cartes mères 300 et donc les X370 étaient le premier jet d'AMD et de Ryzen. Elles n'étaient pas très qualitatives d'un point de vue VRM et étage d'alimentation. C'est d'ailleurs pour ça que bcp de constructeurs ont zappé cette génération au moment de mettre les BIOS à jour pour supporter de nouvelles puces, le risque était jugé assez important. C'est à partir des X470 et surtout de la série 500 que les cartes ont été bien plus musclées.

  • les cartes mères 300 et donc les X370 étaient le premier jet d'AMD et de Ryzen. Elles n'étaient pas très qualitatives d'un point de vue VRM et étage d'alimentation. C'est d'ailleurs pour ça que bcp de constructeurs ont zappé cette génération au moment de mettre les BIOS à jour pour supporter de nouvelles puces, le risque était jugé assez important. C'est à partir des X470 et surtout de la série 500 que les cartes ont été bien plus musclées.

    Merci de confirmer. Je n'ai pas eu la berlue.

9 commentaires

Laissez votre commentaire

En réponse à Some User