Depuis que Sony a permis à ses licences phare de venir toquer à la porte du PC, cela a enrichi le catalogue de fort belle manière très souvent, surtout quand ce sont des jeux purement Sony portés par Nixxes. God of War: Ragnarök s'inscrit dans cette dynamique de succès, la réputation hyperviolente de la saga demeure au fil des opus, mais avec un peu plus d'humanité ... parfois, depuis que Kratos est père veuf. La recette marche, mais développement console oblige, à hardware limité, c'est un moteur 3D à l'ancienne purement rastérisation (descendant au 10e degrés du Kinetica Engine ?) qui donne vie au jeu. Techniquement, c'est joli surtout pour les consoles, mais ça ne saurait rivaliser avec les cadors PC, on pense forcément à Black Myth: Wukong, véritable mètre étalon graphique actuellement. Ce que nous avons voulu savoir, c'est principalement comment se comporte le jeu avec notre panel de cartes graphiques, couvrant plusieurs générations. Il y a des chances que vous croisiez le fer avec Kratos un de ces quatre, autant le faire avec une machine qui réponde du tac o tac.
Voici comment nous avons procédé. Les mesures ont été faites à partir d'une scène quasiment identique, puisqu'il n'y a pas de benchmark intégré. Elle est aussi reproductible que possible, avec le même nombre de personnages à l'écran, situés au même endroit sans bouger. Nous avons procédé à 2 runs à chaque fois, chacun durant 150 secondes, on peut vous assurer que c'est trèèèèèès long. La répétabilité n'est donc pas parfaite, mais elle est tout à fait pertinente, elle rentre dans la tolérance que nous jugeons acceptable (1 % <) et nous conservons la meilleure passe pour chaque test. Nous avons choisi les 3 définitions majeures du marché, celles qui sont le plus représentées en général, à savoir le 1920 x 1080, le 2560 x 1440 et le 3840 x 2160. Nous avons testé détails Ultra, ce qui pousse tous les curseurs de qualité au maximum.
Le moteur utilisé est un moteur maison utilisé par Santa Monica, le studio en charge de développer le jeu, qui avait, en son temps, créé le Kinetica Engine pour développer... Kinetica. La bonne nouvelle, c'est qu'il prend en charge les 3 upscalings majeurs que sont le DLSS 3, le FSR 3.1 et le XeSS 1.3, ainsi que la Frame Generation d'AMD et de NVIDIA. Il n'y a pas de ray tracing, pas de technologie tignasse soyeuse, on a droit à un jeu purement rastérisation qui fait l'impasse sur beaucoup de technologies récentes. Les éclairages ont été travaillés, mais ça reste loin d'un Lumen ou d'un vrai ray tracing, voire path tracing. Sa force réside dans son immersion, plus que la technique.
Nous avions commencé à tester le jeu à sa sortie, et constaté que la Frame Generation de NVIDIA n'était pas pleinement efficiente, se faisant bananer par la FG d'AMD. D'ordinaire, les deux solutions se valent en matière de performances, or nous avions un avantage de 30 à 40 % en faveur de la FG d'AMD. Nous avions mené des tests en interne pour comprendre d'où cela venait, et nous en étions arrivés à la conclusion d'un bug du jeu ou des pilotes, les résultats ainsi que les latences étant très proches de ce qu'ils étaient avec la seule Super Resolution activée. Et puis samedi en soirée, le jeu a subi une mise à jour, le Patch 2 (son nom officiel), succédant au Hotfix 1.1.1, et corrigeant ce bug de Frame Generation comme promis par le changelog. Le jeu, tel qu'il vous est proposé dans les lignes qui suivent, correspond à la version avec ce dernier patch appliqué. Depuis vendredi, il nous a rendu fou, mais voilà le Performance Test qui colle désormais à la réalité.
Nous avons sélectionné dans un premier temps l'antialiasing avec l'upscaling en mode natif pour chacun des 3 proposés (100 % de définition), puis le meilleur upscaling pour chaque carte, en mode Balanced ou Équilibré si vous préférez, sauf pour l'Arc A750 comme expliqué ci-dessous. Le preset choisi est Ultra. On note la présence de Reflex, mais pas celle d'AntiLag 2. Le jeu est souvent entrecoupé de cutscenes, mais elles ont quartier libre et ne sont pas "capées" comme sur FFXVI ! Les candidates sont les suivantes (les cartes testées sur H&Co disposent d'un lien direct vers l'article) :
Quelle carte avec de beaux transistors ! | Antialiasing Upscaling 100 % | Scaling |
---|---|---|
GIGABYTE RTX 4080 SUPER WindForce | Yes | DLSS 3 + FG NV |
GIGABYTE RTX 4070 Ti SUPER WindForce | Yes | DLSS 3 + FG NV |
GIGABYTE RTX 4070 SUPER WindForce | Yes | DLSS 3 + FG NV |
GIGABYTE RTX 4060 OC Low Profile | Yes | DLSS 3 + FG NV |
GIGABYTE RTX 3080 Ti Eagle | Yes | DLSS 2 + FG AMD |
KFA² RTX 2080 Ti EX | Yes | DLSS 2 + FG AMD |
ASUS RX 7800 XT TUF Gaming | Yes | FSR 3 + FG AMD |
GIGABYTE RX 7600 Gaming OC | Yes | FSR 3 + FG AMD |
ASUS RX 6750 XT Strix | Yes | FSR 3 + FG AMD |
Intel A750 LE 8G | Yes | XeSS 1.3 + FG AMD |
En effet, si on applique le preset Balanced pour toutes les cartes, l'A750 est avantagée puisque le XeSS a une découpe des scalings différente de celle d'AMD et NVIDIA. En effet, comme le montre le tableau ci-dessous, pour que les définitions upscalées soient identiques, il faut que le XeSS soit en mode Qualité, ainsi, toutes les cartes du panel seront à égalité en ce qui concerne le point de départ des calculs d'upscaling. Si on laisse Balanced pour l'Arc, elle upscalera plus et donc affichera des performances supérieures, le traitement équitable ne sera pas appliqué. Du fait de cette particularité, nous avons mis une astérisque après son nom pour rappeler ce point précis. Pour Chaque graphique, vous pourrez observer les résultats en rastérisation avec l'AA upscaling natif à 100 %, puis avec le DLSS 2-3 / FSR 3.1 / XeSS 1.3 avec les diverses Frame Generation comme indiqué sur le tableau au-dessus. Vous retrouverez les moyennes, mais aussi le 1% Low pour chaque carte sur chaque graphique, intéressant pour voir s'il y a des microsaccades qui seraient gênantes pour l'expérience de jeu. La Frame Generation d'AMD étant découplée du FSR, elle est donc activable avec le DLSS et le XeSS, c'est pourquoi vous avez pu tiquer sur le tableau supérieur, ce n'est pas une erreur de typographie.
Définition | Définition native | FSR 3 : RADEON | DLSS 3 : GeForce | XeSS 1.3 : Arc |
---|---|---|---|---|
FHD | 1920 x 1080 | Balanced 1120 x 624 | Balanced 1104 x 624 | Quality 1120 x 624 |
QHD | 2560 x 1440 | Balanced 1504 x 840 | Balanced 1472 x 824 | Quality 1504 x 840 |
UHD | 3840 x 2160 | Balanced 2256 x 1264 | Balanced 2224 x 1248 | Quality 2256 x 1264 |
Seconde partie : avec le DLSS 3 et la Frame Generation, Reflex est activé automatiquement. Il n'existe aucun autre système chez AMD ou Intel pour avoir accès aux latences dans ce moteur du jeu, chose que nous regrettons bien évidemment. En effet, les latences sont indispensables pour connaitre la réaction du jeu à vos commandes, du moins dans sa partie CPU/GPU. Nous citons souvent en exemple The Talos Principle 2 qui carbure bien avec une RX 7900 XT, mais avec des latences affreuses, ce qui génère un retard visible entre vos actions sur vos périphériques et la réaction du personnage sur l'écran. Il n'y a pas que les moyennes dans la vie ! Nous les avons relevées (latences PC uniquement, via Frameview) sur les seules cartes pour lesquelles c'est possible, à savoir les GeForce, sans et avec la FG de NVIDIA. Aucune Radeon ni Arc ne renvoie ces données précieuses dans notre jugement factuel des forces en présence et l'utilisation de LDAT nous prendrait beaucoup trop de temps pour être intégré au sein de ce PT.
Dernière partie, les comparatifs visuels. Vous pourrez comparer directement les 3 upscalings en natif, puis en mode qualitatif le plus élevé pour chacun d'eux, les Frame Generation d'AMD et NVIDIA étant activées au moment des captures. Qui s'en sort le mieux ? Le moins bien ? Nous le saurons forcément . Voici ce que vous pourrez comparer :
Ton GPU vient de | AA Natif | Upscaling Qualitatif Maxi |
---|---|---|
AMD | FSR 3 100 % | Preset Qualité |
Intel | XeSS 1.3 100 % | Preset Ultra Qualité + |
NVIDIA | DLAA = DLSS 3 100 % | Preset Qualité |
Voici la plateforme qui a servi de base aux tests dans le tableau ci-dessous :
WTF ? | CPU | Cooling | Carte maman | GPU | RAM | Stockage | Alimentation |
---|---|---|---|---|---|---|---|
KiKiCé ? | Core i9-13900K | Noctua NH-U12A | ASUS Z790 Hero |
Plein ! |
G.Skill 2 x 24 Go DDR5 7200C36 Trident Z5 RGB | Samsung 990 Pro 1 To | Be quiet! Dark Power Pro 13 1300 W |
Si la description du protocole vous a un peu rebuté, ce n'est pas grave, la suite en image sera plus simple ! Les pilotes utilisés sont les derniers en date au moment des tests : GeForce 561.09, AMD Software 24.20.11.01, et Intel Arc 101.6077. La base est un Windows 11 Pro 23H2 à jour, du classique !
Résultats en FHD, QHD et UHD
En FHD sans upscaling (l'AA des upscalers est par contre utilisé), les GeForce sont à l'aise et dominent leurs concurrentes rouges. En effet, la RTX 4070 SUPER devance de 27 % la RX 7800 XT, la RTX 4060 est 56 % devant la RX 7600, étonnamment peu à l'aise dans cette définition. La raison, donnée par le jeu, c'est que d'ores et déjà elle outrepasse sa VRAM quand la RTX ne le fait pas, comportement maintes fois constaté sur d'autres jeux. On retiendra également la bonne performance de la RTX 2080 Ti. Avec upscaling (et frame generation), les écart se resserrent entre concurrentes, RTX 4070 SUPER et RX 7800 XT sont à présent égalité quand la RX 7600 comble une partie de son retard, la charge sur la VRAM diminuant. On notera que la vieille RTX 2080 Ti (qui a 6 ans), 10 % devant la RX 6750 XT. L'Arc A750 offre un bon niveau de performances, on notera en revanche un gros flou de toute la scène lors des rotations et mouvement latéraux avec la FG d'AMD, flou que vous pourrez atténuer grandement en désactivant le flou de mouvement dans les options, mais ce n'est pas gratuit, les performances ne seront plus aussi bonnes.
En QHD sans upscaling, on observe un comportement similaire à celui des cartes qu'en FHD, à savoir des GeForce devant les Radeon, dans des proportions comparables (+25 % pour la 4070S sur la 7800 XT), sauf pour la 7600 qui souffre encore davantage du fait de sa limitation VRAM. Avec upscaling + FG, la RTX 4070 SUPER marque un peu le pas par rapport à la RX 7800 XT et la RTX 3080 Ti, toutes deux 8 % devant, la Frame Generation d'AMD apportant davantage de performance ici que son pendant vert et ce malgré le patch 2.. L'écart entre RX 7600 et RTX 4060 reste bloqué à 19 %, puisque l'upscaling permet à nouveau de descendre l'utilisation VRAM sous le seuil de saturation. Enfin l'Arc A750 conserve encore des valeurs correctes, tout en souffrant encore du même mal décrit en FHD avec FG d'AMD.
En UHD sans upscaling actif, le classement ne diffère pas des autres définitions, puisque ce sont à nouveau les GeForce qui s'imposent. La RX 7600 s'effondre littéralement, sa VRAM étant chargée à 175 % selon le jeu, alors que la RTX 4060 s'en sort bien mieux grâce à une meilleure gestion de la VRAM. Pour autant, 8 Go sont insuffisants (tout comme la puissance du GPU) et la RTX 4060 ne permet pas de jouer sereinement dans ces conditions. La RTX 4070 SUPER gagne encore son duel avec la RX 7800 XT, avec + 23%. L'activation de la Frame Generation ne fait pas cette fois de miracle pour la RX 7600, puisque la charge VRAM reste au-delà du seuil de saturation, alors que la RTX 4060 propose plus de 60 i/s dans ces conditions. Les RX 7800 XT et RTX 3080 Ti devancent la RTX 4070 SUPER (+ 18%) grâce à des gains supérieurs apportés par le FRS FG. La RTX 2080 Ti devance de peu la RX 6750 XT, la mamie de 6 ans respire encore. L'A750 n'est pas dernière puisque sur notre scène, la RX 7600 a déjà capitulé, bien que le flou persiste encore en mouvement.
God of War: Ragnarök - Performances en jeu
On a oublié les latences, chef !
La latence, mesurée en millisecondes, est particulièrement importante pour l'expérience joueur, et encore plus dans les FPS compétitifs (ce qui n'est pas le cas ici). En effet, si la moyenne d'images par seconde traduit la performance en jeu, la latence va, elle, représenter la réactivité du jeu vis-à-vis de vos actions . À noter que si ces 2 éléments sont corrélés (la latence diminuant avec l'augmentation du framerate), diverses technologies peuvent toutefois impacter cette dernière à la hausse comme à la baisse. Mais commençons par définir ce qu'est cette latence : schématiquement, il s'agit du délai ressenti entre une action du joueur et son affichage à l'écran. Elle est composée de la somme de 3 latences successives : celle liée à votre périphérique d'entrée (souris, manette, clavier) et son interface de connexion au système (USB, Bluetooth, etc.). Vient ensuite la latence PC, qui est composée du temps nécessaire à toutes les étapes de rendu d'une image par le processeur et la carte graphique. Enfin, la latence de l'afficheur correspond au temps nécessaire pour votre écran afin d'afficher l'image envoyée et donc le changement d'état des pixels composant sa dalle.
Dans notre cas, nous mesurons la latence PC, puisque c'est celle directement liée aux performances des GPU que nous évaluons. Avoir une latence faible, qu'est-ce que ça apporte au juste ? Eh bien dans les jeux (+/- compétitifs) la différence entre la victoire ou l'échec tient souvent à pas grand-chose. Imaginez 2 adversaires prêts à se tirer dessus frontalement : s'ils cliquent au même moment, celui disposant d'une meilleure latence devrait en toute logique toucher son adversaire (à condition qu'il ne vise pas comme un manche à balai) avant d'être touché (si le netcode ne vient pas "foutre le dawa"). Les joueurs compétitifs utilisent depuis fort longtemps diverses astuces pour réduire leur latence. Généralement ils commencent par utiliser une souris filaire et un écran rapide (240 Hz et plus), mais ils vont aussi réduire au maximum les détails du jeu pour améliorer leur latence (le rendu se fera plus vite, CQFD). Ce faisant, ils augmentent donc le framerate et passent la plupart du temps dans un régime de limitation CPU. Ce dernier est favorable pour réduire la latence, car il évite justement une désynchronisation entre CPU et GPU générant de la latence. Reflex et AntiLag visent justement à conserver cette synchronisation, sans avoir à sacrifier pour autant le visuel du jeu. Dans le cadre de God od War, seule la latence PC des GeForce peut être récupérée, Reflex étant intégré au moteur du jeu, la donnée n'est pas cachée. Pour AMD et Intel, on est encore loin de la généralisation. AntiLag 2 doit justement avoir le même effet que Reflex, mais son incorporation prend du temps. Depuis une semaine AntiLag 2 est disponible aux développeurs via la plateforme GPUOpen, nous espérons vivement que le SDK sera intégré par les développeurs, pour plus de transparence et de précision dans l'analyse de nos Performance Test. Dès lors qu'il y a de l'upscaling AMD ou Intel, avec ou sans Frame Generation, il n'y a aucune latence relevée pour la carte concernée.
Si vous vous souvenez de vos cours, le DLSS 2 ou DLSS 3 sans FG, cela fait gagner de la latence puisque la carte calcule dans une définition inférieure, ce qui est augmente de facto le framerate auquel la latence PC est corrélée. A contrario, la Frame Generation génère de la tance : la carte graphique attend que deux images aient été calculées pour générer l'image intercalaire, cela prend plus de temps. C'est pour cela que Reflex existe, ou AntiLag 2, pour les raisons évoquées précédemment. En toute logique on note donc que :
- Plus les images par seconde sont élevées, plus la latence est faible, c'est la corrélation dont nous vous parlions.
- Les latences sont de base très faibles compte tenu du niveau de framerate atteint, le jeu n'étant pas particulièrement gourmand. Cela s'explique par l'ancienneté du moteur repris de la version de 2018, c'est de la rastérisation pure et dure sans effet particulier (gestion des cheveux, des pwals, du ray tracing, etc.)
- Plus on grimpe en définition, et plus l'écart entre mesures avec et sans Frame Generation croît, ce qui est logique puisque les cartes sont de plus en plus chargées. L'importance de Reflex se fait sentir en conservant des latences encore tout à fait compatibles avec une réactivité du jeu correcte.
- Que de regrets qu'on ne puisse pas récupérer les latences de toutes les cartes utilisant d'une manière ou d'une autre, une technologie d'AMD, de même que l'Arc avec son XeSS. Il aurait été riche d'enseignement de voir le comportement de la latence dans leurs cas précis
God of War: Ragnarök - Latences en jeu
Té, voilà la comparaison d'images !
Voilà à présent des images comparées, qui mettent en confrontation directe le jeu avec les différents antialiasings. Amusez-vous bien avec notre outil kilébien !
Sur l'exemple 1, le DLAA, le FSR 3 Natif et le XeSs natif sont très proches, il est compliqué d'y voir une différence. En mode Qualité (avec FG AMD et NVIDIA activées), on constate que le DLSS 3 offre un rendu de qualité identique à celle du XeSS. Le FSR 3+FG perd en détail, lisse certaines textures, mais ce n'est pas majeur pour autant. On notera du ghosting sur le mouvement des herbes en action avec FSR 3, ce qui ne se retrouve pas avec DLSS et XeSS, ni sur cette capture.
Sur l'exemple 2, les 3 rendus natifs sont à égalité, s'il y a des différences, elles ne sautent pas à l'œil nu. Avec l'upscaling Qualité maximale, DLSS et XeSS conservent le même niveau de prestations. Le FSR 3 perd un peu de détails sur les feuillages au second plan, y compris sur les branches. C'est malgré tout subtil, pas de ghosting détecté sur la scène en question en live.
Sur l'exemple 3, nous avons encore une égalité de rendu sur les 3 upscalings natifs. Avec upscaling Qualité, on a le même résultat que sur l'exemple précédent, ça se vaut mais le FSR 3 lisse un peu plus les textures, perd légèrement en détail. C'est circonscrit à quelques éléments du décor, ce n'est pas majeur !
Sur l'exemple 4, quadris repetita sur la qualité des 3 upscalings en natif. Avec Upscaling Qualité, le FSR 3 passe bon dernier cette fois sans discussion possible. Les arbustes/feuilles/branches situés en face de Kratos sont très flous comparés au DLSS 3 et XeSS 1.3. Il y a également une perte de détail sur les poutres, les nervures du bois sont lissées également, mais c'est plus subtil que les feuillage.
vs
vs
vs
vs
Conclusion !
Cela ne transparait jamais quand vous lisez un Performance Test, mais les testeurs sont parfois confrontés à des bugs et des bizarreries de résultats qui ne s'expliquent pas toujours. En l'occurrence, God of War Ragnarök en avait un qui nous a posé de réels soucis. Vous nous direz que c'est le lot de tout "bêta" testeur, mais le jeu étant sorti en version finale, et ayant eu 2 mises à jour consécutives à sa sortie, nous n'attendions pas de phénomènes de ce genre en particulier, nous nous pensions plutôt épargnés, en théorie tout du moins. Eh pourtant, le comportement erratique que nous avions observé vis à vis de la Frame Generation de NVIDIA nous questionnait sur la possibilité d'un bug du jeu. Ayant fait remonter le souci à NVIDIA, nous attendions une réponse plutôt pour ce lundi. Or, les développeurs nous ont finalement donné raison, puisque le Patch 2 constituant la 3e mise à jour depuis jeudi, mentionnait effectivement des soucis de performances avec la FG de NVIDIA. Nous avons donc refait toutes les mesures, la promesse était tenue.
God of War: Ragnarök, s'il est joli en apparence, n'en reste pas moins un jeu loin du standard visuel des meilleurs en 2024, du fait du moteur utilisé (amélioré) de l'opus de 2018. Vous nous direz, et vous auriez tout à fait raison, que le plaisir de jouer à ce titre sur PC dépasse ce retard technologique. Sauf que notre test, comme tous ceux de ce type, s'attaque à cet aspect justement. Nous ne pouvons donner notre avis sur l'histoire et le gameplay (identique au jeu de 2018), puisque nous n'avons pas assez poncé le titre. Nous relevons le fait que le jeu ait pour seule nouveauté, au final, c'est l'incorporation des 3 upscalings majeurs du marché, et en dernière version s'il vous plait : DLSS 3 avec le SDK 3.7.10 FG, le FSR 3.1 et le XeSS 1.3. Maintenant que tout est opérationnel, chacun pourra faire sa cuisine avec les différents upscaling, surtout que la FG d'AMD est découplée du FSR, et donc activable avec n'importe quel upscaling, c'est une bonne chose pour prolonger la durée de vie de votre vieille carte graphique, la RTX 2080 Ti le prouve dans notre test. D'un point de vue qualitatif, le FSR 3.1 se débrouille bien, mais reste encore en deçà du DLSS et du XeSS, moins flous et moins marqués par le ghosting sur ce jeu que la solution AMD. Malgré tout, ne pas l'activer sur les cartes autres que les RTX 40 est dommage, vous vous passez d'une bonne bouffée d'oxygène.
À l'heure de conclure, sachez que vous arriverez à y jouer sans encombre, avec toutefois une restriction affichée dans le changelog du patch 2. En effet, les développeurs n'interdisent plus le lancement du jeu sur des cartes graphiques ayant 4 Go de VRAM ou moins, mais il faut vous attendre à des performances parfois moches puisque la VRAM va être rapidement saturée. Il reste conseillé d'avoir 6 Go de VRAM a minima. Bien entendu, le seul critère de la VRAM ne suffira pas à vous assurer des performances de premier ordre, il vaut mieux une RTX 4070 à 12 Go de VRAM qu'une RX 7600 XT avec 16 Go, il y a des limites quand même ! Si vous êtes fans de la série, et voulez connaitre le dénouement de l'histoire, vous pouvez foncer, puisque techniquement il ne vous réclamera pas de grosses ressources.
Dès le début du jeu, on voit clairement que le fsr3.1 en natif est supérieur au dlss dlaa. Et sur vos comparaisons aussi. Le fan nvidia n'est pas neutre. Et moi j'ai 10/10 à chaque œil.
Honnêtement si les images peuvent mettre en défaut un léger effet de flou à quelques endroits avec le FSR 3.1, c'est surtout en mouvement qu'il faut juger un upscaler.
Tu ne verras certainement pas (sauf capture au moment précis où cela survient) un effet de ghosting plus ou moins prononcé sur des éléments en mouvements tels que cheveux (ok, Kratos ça serait plutôt la barbe !), feuillages, personnages, monstres, fourrures, corps, armes, etc..
Si le FSR 3.1 était supérieur aux autres, je ne pense pas qu'AMD prendrait la peine de faire le FSR 4 avec IA.
Je suis pas médecin mais il paraît que certains patients ayant 10/10 aux deux yeux souffrent d'une sorte de daltonisme et ont comme un voile rouge devant les yeux, ce qui altère leur perception des choses. Ce phénomène peut se majorer avec la lumière bleue des ecrans. Et cette discordance entre ce qu'ils voient et ce qui est réellement, les rendrait particulièrement agressifs en société, même pour dire des choses simples ou de factualiser leur ressenti. Merci pour ton message et passes une bonne journée.