Usage créatif / productif
Un GPU ne sert pas uniquement au jeu. Que peut-on donc attendre de cette nouvelle génération de cartes dans ce domaine, en comparaison de leurs devancières ? Pour donner une petite idée des capacités à ce niveau, nous avons préparé un échantillon de tests, couvrant une (petite) partie des usages possibles avec un GPU en dehors du jeu.
Blender
Premier logiciel utilisé pour nos tests, Blender et son moteur de rendu Cycle, capable d’utiliser les GPU au travers d’Optix (GeForce), HIP (Radeon) et oneAPI (Intel Arc). Nous utilisons le benchmark qui va rendre 3 scènes différentes afin d'avoir une idée concrète des forces en présence.
Blender - RTX 4080 SUPER
Quel que soit la scène retenue, les GeForce écrasent la concurrence, dans ce qui est indubitablement un point fort des verts, à savoir son support des applications professionnelles via son écosystème logiciel particulièrement développé à ce niveau. Qui plus est, ces rendus faisant appel au Path Tracing, la supériorité architecturale des verts pour ce type de tâches, contribue fortement à cette hiérarchie à sens unique. Si on se focalise sur la RTX 4080 SUPER, elle ne fait que marginalement mieux que sa devancière, une fois encore.
Cinebench 2024
Second logiciel de notre échantillon de test, Cinebench est le benchmark issu du logiciel Cinema 4D de Maxon utilisant son propre moteur de rendu Redshift. Nous utilisons la dernière version en date qui propose à présent les tests des GPU, à l'exception des Intel ARC (peut-être à l'avenir via une mise à jour ?).
Cinebench 2024 - RTX 4080 SUPER
Tout comme pour Blender, la série 40 des GeForce domine sous Cinebench, sans être aussi écrasante pour autant. Toujours des écarts symboliques entre les deux RTX 4080 par contre.
DaVinci Resolve Studio
Poursuivons ces tests en utilisant DaVinci Resolve Studio, une référence pour le traitement des vidéos. Dans un premier temps, nous réalisons un projet à partir de rushs ProRES en UHD. Nous appliquons ensuite divers effets (flou gaussien, effets de style, etc.) et encodons le tout en H.264 pour un usage Vimeo 2160P, dans un conteneur "MOV". Nous utilisons ensuite pour les tests suivants, un fichier brut ProRES en 8K (44 s pour limiter la taille déjà gigantesque), que nous allons exporter en 8K dans un conteneur "MP4", via un encodage H.265 puis AV1 (pour les cartes qui en sont capables), afin de solliciter les encodeurs de nos GPU.
DaVinci Resolve - RTX 4080 SUPER
Notez que nous mesurons ici le temps d’export, mais pour une comparaison équitable, il ne faut pas se contenter de ce paramètre, mais aussi de la qualité obtenue. Cette opération longue et fastidieuse n’est pas réalisable lors d’un tel dossier, mais il nous parait important de le rappeler. Pour les tâches d’encodage pur, la RTX 4080 SUPER fait un peu mieux qu'attendu en AV1, il semble que ce soit aussi un des bénéfices liés à la nouvelle branche des pilotes, nous vérifierons tout cela à l'avenir. Lors de l’exécution de notre projet Vimeo ayant recours en sus aux unités de calcul pour appliquer les différents effets, le rapport de force est donc toujours le même avec une réelle promiscuité entre les deux comparses des années 80.
Stable diffusion
Finissons ces tests en utilisant Stable Diffusion, afin de mesurer les performances en IA (inférence ici). Ce logiciel permet ainsi de générer une image à partir d'une description en langage courant de cette dernière. Pour la mise en œuvre local des opérations d'inférences sous Windows, nous utilisons le projet Automatic1111 WebUI rassemblant les bibliothèques nécessaires sous une même interface web, et procédons à l'installation et au paramétrage des optimisations spécifiques à chaque architecture. C'est plutôt simple côté NVIDIA, puisqu'il suffit d'entrer le lien URL de la page GitHub associée dans le champ Ad Hoc de WebUI, pour procéder à l'installation de TensorRT. Il ne reste dès lors plus qu'à compiler ce dernier (à chaque changement de GPU). Pour AMD et Intel, il faut par contre mettre un peu plus les mains dans le cambouis.
Pour les rouges, nous utilisons un projet DirectML via Microsoft Olive sous une branche différente de WebUI, le constructeur mettant à disposition un petit guide pour ce faire. Toutefois, même en suivant pas à pas la méthode, c'est loin d'être clé en main, et la présence d'un Nicolas sous le coude est bien utile pour peaufiner le tout. Pour Intel, afin de prendre en charge ses unités XMX dédiées, nous utilisons OpenVINO dans yet another fork de WebUI, disponible ici. L'installation se passe plutôt facilement si votre configuration ne s'emmêle pas les pinceau dans les différentes version de Python (cf. encart ci-dessous). Reste alors à paramétrer le rendu de l'image : nous optons donc pour 50 échantillonnages selon la méthode "Euler a", pour une définition de 512 x 512 avec CFG Scale = 7 et une image par batch pour un total de 100 batchs, en utilisant le très populaire modèle SD v1-5 (nous passerons probablement plus tard sous SD XL afin d'utiliser une définition de 1024 x 1024).
Pour faire fonctionner tout cela sur le même Windows, c'est la foire aux versions : les cartes vertes et rouges utilisent donc WebUI 1.7.0 et Python 3.10.6, la bleue tournant de son côté sous Python 3.11.5 et WebUI 1.6.0. Si cela ne devrait pas avoir trop d'effet sur les performances, ce peut être davantage le cas côté PyTorch... puisque l'affaire est encore pire à ce niveau : l'ARC utilisant la 2.1.0, les GeForce la 2.0.1 et les Radeon la 1.13. Malgré nos multiples tentatives, il ne nous a pas été possible d'unifier ces versions, qui soit se réinstallaient automatiquement, soit ne fonctionnaient tout simplement pas avec le fork dédié. Cela dit, le nombre d'itérations par seconde obtenus dans ces conditions correspond bien aux attendus des différentes cartes, selon les sources citées précédemment. A l'avenir nous tâcherons d'obtenir quelque chose de plus cohérent, probablement en passant par un Linux un peu plus commun dans la tâche.
Stable Diffusion - RTX 4080 SUPER
Le résultat obtenu est un nombre d'itérations par seconde pour chaque batch. Comme ce n'est pas très parlant, nous exprimons donc le résultat en images par minute pour faciliter sa compréhension. Sans surprise, les verts dominent très largement, en grande partie du fait de la préemption de leur écosystème sur le domaine (intégration de Tensor Cores dès 2017 au sein de Volta). Comme attendu, l'écart entre les deux RTX 4080 est réduit, à 4 % exactement.
Consommation & efficacité énergétique
Quid des puissances électriques absorbées lors de l’exécution de ces logiciels ? Non seulement les cartes Ada se montrent terriblement performantes pour ces tâches, mais en plus elles le font avec souvent un appétit électrique moindre que la concurrence, RDNA 3 inclus. La RTX 4080 SUPER va consommer à nouveau un peu plus que sa devancière, en particulier sous Stable Diffusion.
Consommation électrique en création/production - RTX 4080 SUPER
Vu les performances atteintes et les puissances électriques mesurées, il n'y avait pas l'ombre d'un doute quant à la nature de la hiérarchie à attendre pour l'efficience énergétique pour ce genre d'activité. Ada domine donc de la tête et des épaules, et seules les tâches d'encodage permettent à la concurrence de ne pas sombrer totalement. A nouveau, l'efficacité énergétique de la nouvelle-née est en très léger recul, rien de bien flagrant toutefois, et même pas pour toutes les tâches.
Efficacité énergétique en création/production - RTX 4080 SUPER
Voilà pour les prestations en "production", place au verdict page suivante.
Très bon test
La carte se repositionne à un meilleur prix aisément si je devais acheter je préfère la 4070 ti super qui perd peu en perf mais qui est quasiment 300 € moins cher
220 € moins cher ce n'est pas quasiment 300 € moins cher, faut pas exagérer. Le rapport perf/prix est quand même légèrement en faveur de la 4070 Ti Super, la 4080 Super est environ 5-6% plus chère par fps.
Oui j'ai mal vu elle garde un meilleur perf/prix
C'est exactement ce a quoi je m'attendais, convaincu personnellement que son seul intéret était la chute de son prix, je n'en suis pas déçu.
En revanche je trouve que c'est encore plus vrai pour cette gen, mais aucun intéret d'acheter autre chose qu'une FE ...
Hello,
merci pour le test complet :)
c'est étonnant à quel point les performances Ray tracing de la 3090FE s'éffondrent en UHD upscaled par rapport à la 4070 FE/SUPER sur certains jeux (CP2077, Alan Wake 2, plage tale).
Edit: sur ces 3 jeux, les perfos en UHD upscaling sont inférieures aux perfos QHD non upscalé sur la 3090FE alors que c'est l'inverse sur les 4070.
On peut savoir quelle qualité d'upscale a été utilisée en UHD, est-ce que c'est la même pour tous les jeux ?
Edit 2: merci pour les précisions.
C'est expliqué dans le test, nous couplons l'upscale au FG lorsque disponible et ce n'est possible qu'avec les jeux FSR 3 pour cette dernière. L'upscaling est réglé en mode qualité systématiquement. 😉
Merci,
Si je peux me permettre une suggestion, ce serait pas mal d'ajouter sur les bar charts par jeu la moyenne avec et sans frame generation lorsque ça s'applique.. bon c'est du boulot en plus j'en conviens !
A titre perso, mélanger dans les indices de perfo et impact Ray tracing les moyennes tantôt avec tantôt sans frame gen, selon le jeu et la génération de GPU, ca ne m'aide pas à estimer au mieux l'écart entre les GPU, d'autant plus si on consulte le test dans quelques mois et que des jeux ont ete MAJ avec frame gen entre temps.
C'est un compromis temporel nécessaire. Je ne peux pas tester 20 jeux en rastérisation, 18 en RT et xx avec upscaling et/ou FG. Ici, tu as 3 indices (QHD/UHD/QHD RT) qui ne mixent aucune de ces technologies et qui permettent tout à fait d'estimer les GPU entre eux sans ces apports. L'UHD + RT est comme écrit quasi inaccessible à la plupart des cartes sans appui de ces technos (hors RT très light), donc c'est légitime de privilégier ce compromis dans ces conditions. C'est de toute façon la limite de ce que je peux faire au vu de ma disponibilité et du temps nécessaire au rajout de modes supplémentaires, tu m'en vois navré même si j'en conviens, ce serait encore mieux de pouvoir le faire. Mais ça impliquerait soit dégrader la qualité (conserver les résultats de tests durant de longs mois sans prendre en compte les nouveaux patchs et pilotes), soit réduire l'échantillon de jeux. J'ai choisi de privilégier ces 2 points.
Oui, je comprends bien la charge énorme de travail que ca demande, et on est bien chanceux de pouvoir en profiter !
Peut-être que ce serait simple de rajouter simplement une mention dans le sous titre du jeu ou une astérisque à coté de la moyenne pour savoir s'il bénéficie ou non de la frame gen ?
Ca permettrait de retrouver l'info assez facilement (je ne retrouve pas l'info dans l'article de quel jeu en profite ou pas..)
Oui effectivement, je vais voir pour ajouter la mention dans le sous-titre des jeux concernés. Je ne l'avais pas fait parce que toutes les cartes n'en profitant pas forcément, ça pouvait induire en erreur, mais je vais voir comme "tourner" cela. 😉