Usage créatif / productif
Un GPU, cela ne sert pas uniquement au jeu. Que peut-on donc attendre de cette nouvelle génération de cartes dans ce domaine, en comparaison de leurs devancières ? Pour donner une petite idée des capacités à ce niveau, nous avons préparé un échantillon de tests, couvrant une (petite) partie des usages possibles avec un GPU en dehors du jeu.
Blender
Premier logiciel utilisé pour nos tests, Blender et son moteur de rendu Cycle, capable d’utiliser les GPU au travers d’Optix (GeForce), HIP (Radeon) et oneAPI (Intel Arc). Nous utilisons le benchmark qui va rendre 3 scènes différentes afin d'avoir une idée concrète des forces en présence.
Blender - RTX 4070 Ti SUPER
Quel que soit la scène retenue, les GeForce écrasent la concurrence, dans ce qui est indubitablement un point fort des verts, à savoir son support des applications professionnelles via son écosystème logiciel particulièrement développé à ce niveau. Qui plus est, ces rendus faisant appel au Path Tracing, la supériorité architecturale des verts pour ce type de tâches, contribue fortement à cette hiérarchie à sens unique. Si on se focalise sur la MSI RTX 4070 Ti SUPER Ventus 3X, elle parvient à créer des écarts compris entre 11 et 15 % par rapport à la 4070 Ti de Gainward, plus en phase avec ce qu'on était en droit d'attendre à la lecture de ses caractéristiques.
Cinebench 2024
Second logiciel de notre échantillon de test, Cinebench est le benchmark issu du logiciel Cinema 4D de Maxon utilisant son propre moteur de rendu Redshift. Nous utilisons la dernière version en date qui propose à présent les tests des GPU, à l'exception des Intel ARC (peut-être à l'avenir via une mise à jour ?).
Cinebench 2024 - RTX 4070 Ti SUPER
Tout comme pour Blender, la série 40 des GeForce domine sous Cinebench, sans être aussi écrasante pour autant. La MSI RTX 4070 Ti SUPER Ventus 3X crée cette fois un écart de 22 % en sa faveur vis-à-vis de sa devancière. Il semble que la bande passante mémoire est largement mise à contribution pour cette tâches, lui permettant de s'approcher de la RTX 4080.
DaVinci Resolve Studio
Poursuivons ces tests en utilisant DaVinci Resolve Studio, une référence pour le traitement des vidéos. Dans un premier temps, nous réalisons un projet à partir de rushs ProRES en UHD. Nous appliquons ensuite divers effets (flou gaussien, effets de style, etc.) et encodons le tout en H.264 pour un usage Vimeo 2160P, dans un conteneur "MOV". Nous utilisons ensuite pour les tests suivants, un fichier brut ProRES en 8K (44 s pour limiter la taille déjà gigantesque), que nous allons exporter en 8K dans un conteneur "MP4", via un encodage H.265 puis AV1 (pour les cartes qui en sont capables), afin de solliciter les encodeurs de nos GPU.
DaVinci Resolve - RTX 4070 Ti SUPER
Notez que nous mesurons ici le temps d’export, mais pour une comparaison équitable, il ne faut pas se contenter de ce paramètre, mais aussi de la qualité obtenue. Cette opération longue et fastidieuse n’est pas réalisable lors d’un tel dossier, mais il nous parait important de le rappeler. Pour les tâches d’encodage pur, la MSI RTX 4070 Ti SUPER Ventus 3X peut compter sur ses deux encodeurs actif contrairement à la 4070 SUPER. Elle finit donc dans les mêmes eaux que sa devancière et la 4080, disposant toutes deux du même atout. Lors de l’exécution de notre projet Vimeo ayant recours en sus aux unités de calcul pour appliquer les différents effets, la hiérarchie se base davantage sur la puissance brute de calcul des différentes cartes, mais aussi la bande passante mémoire, permettant ainsi à la RTX 4070 Ti SUPER de se faire respecter par la Ti (non SUPER).
Stable diffusion
Finissons ces tests en utilisant Stable Diffusion, afin de mesurer les performances en IA (inférence ici). Ce logiciel permet ainsi de générer une image à partir d'une description en langage courant de cette dernière. Pour la mise en œuvre local des opérations d'inférences sous Windows, nous utilisons le projet Automatic1111 WebUI rassemblant les bibliothèques nécessaires sous une même interface web, et procédons à l'installation et au paramétrage des optimisations spécifiques à chaque architecture. C'est plutôt simple côté NVIDIA, puisqu'il suffit d'entrer le lien URL de la page GitHub associée dans le champ Ad Hoc de WebUI, pour procéder à l'installation de TensorRT. Il ne reste dès lors plus qu'à compiler ce dernier (à chaque changement de GPU). Pour AMD et Intel, il faut par contre mettre un peu plus les mains dans le cambouis.
Pour les rouges, nous utilisons un projet DirectML via Microsoft Olive sous une branche différente de WebUI, le constructeur mettant à disposition un petit guide pour ce faire. Toutefois, même en suivant pas à pas la méthode, c'est loin d'être clé en main, et la présence d'un Nicolas sous le coude est bien utile pour peaufiner le tout. Pour Intel, afin de prendre en charge ses unités XMX dédiées, nous utilisons OpenVINO dans yet another fork de WebUI, disponible ici. L'installation se passe plutôt facilement si votre configuration ne s'emmêle pas les pinceau dans les différentes version de Python (cf. encart ci-dessous). Reste alors à paramétrer le rendu de l'image : nous optons donc pour 50 échantillonnages selon la méthode "Euler a", pour une définition de 512 x 512 avec CFG Scale = 7 et une image par batch pour un total de 100 batchs, en utilisant le très populaire modèle SD v1-5 (nous passerons probablement plus tard sous SD XL afin d'utiliser une définition de 1024 x 1024).
Pour faire fonctionner tout cela sur le même Windows, c'est la foire aux versions : les cartes vertes et rouges utilisent donc WebUI 1.7.0 et Python 3.10.6, la bleue tournant de son côté sous Python 3.11.5 et WebUI 1.6.0. Si cela ne devrait pas avoir trop d'effet sur les performances, ce peut être davantage le cas côté PyTorch... puisque l'affaire est encore pire à ce niveau : l'ARC utilisant la 2.1.0, les GeForce la 2.0.1 et les Radeon la 1.13. Malgré nos multiples tentatives, il ne nous a pas été possible d'unifier ces versions, qui soit se réinstallaient automatiquement, soit ne fonctionnaient tout simplement pas avec le fork dédié. Cela dit, le nombre d'itérations par seconde obtenus dans ces conditions correspond bien aux attendus des différentes cartes, selon les sources citées précédemment. A l'avenir nous tâcherons d'obtenir quelque chose de plus cohérent, probablement en passant par un Linux un peu plus commun dans la tâche.
Stable Diffusion - RTX 4070 Ti SUPER
Le résultat obtenu est un nombre d'itérations par seconde pour chaque batch. Comme ce n'est pas très parlant, nous exprimons donc le résultat en images par minute pour faciliter sa compréhension. Sans surprise, les verts dominent très largement, en grande partie du fait de la préemption de leur écosystème sur le domaine (intégration de Tensor Cores dès 2017 au sein de Volta). Si on se concentre sur la RTX 4070 Ti SUPER de MSI, elle ne crée pas de différences significatives avec sa devancière pour cette tâche, l'écart se limitant à 4 %.
Consommation & efficacité énergétique
Quid des puissances électriques absorbées lors de l’exécution de ces logiciels ? Non seulement les cartes Ada se montrent terriblement performantes pour ces tâches, mais en plus elles le font avec souvent un appétit électrique moindre que la concurrence, RDNA 3 inclus. La MSI RTX 4070 Ti SUPER Ventus 3X ne fait bien sur pas exception, même si les résultats sont fluctuants selon les tâches et qu'elle a tendance à consommer un peu plus que les autres GeForce Ada.
Consommation électrique en création/production - RTX 4070 Ti SUPER
Vu les performances atteintes et les puissances électriques mesurées, il n'y avait pas l'ombre d'un doute quant à la nature de la hiérarchie à attendre pour l'efficience énergétique pour ce genre d'activité. Ada domine donc de la tête et des épaules, et seules les tâches d'encodage permettent à la concurrence de ne pas sombrer totalement. A nouveau, l'efficacité énergétique de la nouvelle-née version Ventus 3X, va fluctuer vis-à-vis des autres RTX 40, même si elles restent toujours dans les mêmes eaux.
Efficacité énergétique en création/production - RTX 4070 Ti SUPER
Voilà pour les prestations en "production", place au verdict page suivante.
![Bannière de l'auteur Eric](/images/system/author-banners/eric.webp)
Super test
Courage pour le boulot supplémentaire de ma mise à jour du bios
Même si les 12 go dont rarement limitant je trouve que c'est plus rassurant qu'elle a 16 go
Meilleurs carte de se refresh pour moi
Le graph en radar supporte les valeurs non-entières ? Vite vite vite, un 8,3 et un 6,7 🥳 !
Super boulot Riton, on a l'habitude avec toi ! Et bon courage pour le nouveau BIOS, dans une période déjà bien chargée en NDA...
Merci Nicolas 😁
Même si le tri n'a pas l'air actif sur tous les graphiques 😜
Un ctrl+F5 et il apparait, quel magicien ce Nicolas 😋
100€ de différence dans le commerce. Entre la RTX 4070 ti (non super) et la RX 7900 XT
Je vois mal les AIBs faire différemment avec la Super.
Chez TPU : Conclusion.
- Plusieurs mises à jour du BIOS nécessaires, toujours -1% de performances attendues
- Seulement un petit gain de performances par rapport au 4070 Ti
- Considérablement plus cher que le RX 7900 XT
- 16 Go de VRAM font rarement la différence
- L'augmentation manuelle de la limite de puissance n'est pas prise en charge
- Pas de prise en charge DisplayPort 2.0
Merci pour le test de qualitad' comme d'hab' ;).
En revanche je trouve le "+" famélique, cependant quelques points intéressant tout de même:
- pas plus de conso' (donc maitrisé de ce côté),
- un gain non négligeable par rapport à sa grande sœur
- une chauffe quand même maitrisée
- Son prix en MSRP plus bas que sa grande soeur.
- Perf UHD sans Upscal/FG
- Perf RT
- Ses 16Go (pour des mods en QHD ou UHD sans dégradé la qualité et les perf')
Et graph' de fin qui fait plais' ;).
Je t'invite à regarder d'autres tests............
J'ai lu plusieurs test aussi qui dise que c'est la carte qui aurait du sortir en 2022, mais si tu me relis, je la compare généralement à sa grande sœur (aka 4070Ti trop cher et trop radin à mon goût) qui est sortie avant, de façon général, elle est moins cher (MSRP) et "plus" perf'.
Après je la trouve un peu cher (et c'est un avis qui n'engage que moi), car ce sont des perfs attendus et calibrés par Nvidia (meilleur maîtrise du node ou déchet de 4080 va savoir, je pencherais pour le "déchet" car AD103-275*).
Je trouve que les tests convergent (résultat) avec celui d'Éric, la rédaction en revanche pas la même (ici c'est pas ciblé mais impartial et factuel au moment du test, on verra avec la MàJ BIOS), sauf un site..
C'est idiot de dire ca, ca n'a pas de sens
Relis moi bien, je rapporte juste ce que dise d'autre site, pas moi qui le dis.