Usage créatif / productif
Un GPU, cela ne sert pas uniquement au jeu. Que peut-on donc attendre de cette nouvelle génération de cartes dans ce domaine, en comparaison de leurs devancières ? Pour donner une petite idée des capacités à ce niveau, nous avons préparé un échantillon de tests, couvrant une (petite) partie des usages possibles avec un GPU en dehors du jeu.
Blender
Premier logiciel utilisé pour nos tests, Blender et son moteur de rendu Cycle, capable d’utiliser les GPU au travers d’Optix (GeForce), HIP (Radeon) et oneAPI (Intel Arc). Nous utilisons le benchmark qui va rendre 3 scènes différentes afin d'avoir une idée concrète des forces en présence.
Blender - RTX 4070 SUPER
Quel que soit la scène retenue, les GeForce écrasent la concurrence, dans ce qui est indubitablement un point fort des verts, à savoir son support des applications professionnelles via son écosystème logiciel particulièrement développé à ce niveau. Qui plus est, ces rendus faisant appel au Path Tracing, la supériorité architecturale des verts pour ce type de tâches, contribue fortement à cette hiérarchie à sens unique. Si on se focalise sur la GeForce RTX 4070 SUPER, elle finit tout proche de la RTX 4070 Ti.
Cinebench 2024
Second logiciel de notre échantillon de test, Cinebench est le benchmark issu du logiciel Cinema 4D de Maxon utilisant son propre moteur de rendu Redshift. Nous utilisons la dernière version en date qui propose à présent les tests des GPU, à l'exception des Intel ARC (peut-être à l'avenir via une mise à jour ?).
Cinebench 2024 - RTX 4070 SUPER
Tout comme pour Blender, la série 40 des GeForce domine sous Cinebench, sans être aussi écrasante pour autant. La RTX 4070 SUPER finit une fois encore à une petite encablure du modèle Ti.
DaVinci Resolve Studio
Poursuivons ces tests en utilisant DaVinci Resolve Studio, une référence pour le traitement des vidéos. Dans un premier temps, nous réalisons un projet à partir de rushs ProRES en UHD. Nous appliquons ensuite divers effets (flou gaussien, effets de style, etc.) et encodons le tout en H.264 pour un usage Vimeo 2160P, dans un conteneur "MOV". Nous utilisons ensuite pour les tests suivants, un fichier brut ProRES en 8K (44 s pour limiter la taille déjà gigantesque), que nous allons exporter en 8K dans un conteneur "MP4", via un encodage H.265 puis AV1 (pour les cartes qui en sont capables), afin de solliciter les encodeurs de nos GPU.
DaVinci Resolve - RTX 4070 SUPER
Notez que nous mesurons ici le temps d’export, mais pour une comparaison équitable, il ne faut pas se contenter de ce paramètre, mais aussi de la qualité obtenue. Cette opération longue et fastidieuse n’est pas réalisable lors d’un tel dossier, mais il nous parait important de le rappeler. Pour les tâches d’encodage pur, la RTX 4070 SUPER ne peut compter que sur un seul encodeur actif contrairement à la version Ti disposant des deux intégrés à AD104. Elle finit donc dans les mêmes eaux que sa petite sœur. Lors de l’exécution de notre projet Vimeo ayant recours en sus aux unités de calcul pour appliquer les différents effets, la hiérarchie se base davantage sur la puissance brute de calcul des différentes cartes, la RTX 4070 SUPER revenant alors sur les talons de la Ti.
Stable diffusion
Finissons ces tests en utilisant Stable Diffusion, afin de mesurer les performances en IA (inférence ici). Ce logiciel permet ainsi de générer une image à partir d'une description en langage courant de cette dernière. Pour la mise en œuvre local des opérations d'inférences sous Windows, nous utilisons le projet Automatic1111 WebUI rassemblant les bibliothèques nécessaires sous une même interface web, et procédons à l'installation et au paramétrage des optimisations spécifiques à chaque architecture. C'est plutôt simple côté NVIDIA, puisqu'il suffit d'entrer le lien URL de la page GitHub associée dans le champ Ad Hoc de WebUI, pour procéder à l'installation de TensorRT. Il ne reste dès lors plus qu'à compiler ce dernier (à chaque changement de GPU). Pour AMD et Intel, il faut par contre mettre un peu plus les mains dans le cambouis.
Pour les rouges, nous utilisons un projet DirectML via Microsoft Olive, et une branche différente de WebUI, le constructeur mettant à disposition un petit guide pour ce faire. Toutefois, même en suivant pas à pas la méthode, c'est loin d'être clé en main, et la présence d'un Nicolas sous le coude est bien utile. Pour Intel, afin de prendre en charge ses unités XMX dédiées, nous utilisons OpenVINO dans yet another fork de WebUI, disponible ici. L'installation se passe plutôt facilement si votre configuration ne s'emmêle pas les pinceau dans les différentes version de Python (cf. encart ci-dessous). Reste alors à paramétrer le rendu de l'image : nous optons donc pour 50 échantillonnages selon la méthode "Euler a", pour une définition de 512 x 512 avec CFG Scale = 7 et une image par batch pour un total de 100 batchs, en utilisant le très populaire modèle SD v1-5.
Pour faire fonctionner tout cela sur le même Windows, c'est la foire aux versions : les cartes vertes et rouges utilisent donc WebUI 1.7.0 et Python 3.10.6, la bleue tournant de son côté sous Python 3.11.5 et WebUI 1.6.0. Si cela ne devrait pas avoir trop d'effet sur les performances, ce peut être davantage le cas côté PyTorch... puisque l'affaire est encore pire à ce niveau : l'ARC utilisant la 2.1.0, les GeForce la 2.0.1 et les Radeon la 1.13. Malgré nos multiples tentatives, il ne nous a pas été possible d'unifier ces versions, qui soit se réinstallaient automatiquement, soit ne fonctionnaient tout simplement pas avec le fork dédié. Cela dit, le nombre d'itérations par seconde obtenus dans ces conditions correspond bien aux attendus des différentes cartes, selon les sources citées précédemment. A l'avenir nous tâcherons d'obtenir quelque chose de plus cohérent, probablement en passant par un Linux un peu plus commun dans la tâche.
Stable Diffusion - RTX 4070 SUPER
Le résultat obtenu est un nombre d'itérations par seconde pour chaque batch. Comme ce n'est pas très parlant, nous exprimons donc le résultant en images par minute pour faciliter sa compréhension. Sans surprise, les verts dominent, principalement du fait de la préemption de leur écosystème sur le domaine via l'intégration de Tensor Cores dès 2017 au sein de Volta. Si on se concentre sur la RTX 4070 SUPER, elle va à nouveau talonner sérieusement la version Ti, comme tout au long de ce dossier.
Consommation & efficacité énergétique
Quid des puissances électriques absorbées lors de l’exécution de ces logiciels ? Non seulement les cartes Ada se montrent terriblement performantes pour ces tâches, mais en plus elles le font avec souvent un appétit électrique moindre que la concurrence, RDNA 3 inclus. La RTX 4070 SUPER ne fait bien sur pas exception.
Consommation électrique en création/production - RTX 4070 SUPER
Vu les performances atteintes et les puissances électriques mesurées, il n'y avait pas l'ombre d'un doute quant à la nature de la hiérarchie à attendre pour l'efficience énergétique pour ce genre d'activité. Ada domine donc de la tête et des épaules, et seules les tâches d'encodage permettent à la concurrence de ne pas sombrer totalement.
Efficacité énergétique en création/production - RTX 4070 SUPER
Voilà pour les prestations en "production", place au verdict page suivante.
Excellent test
La carte améliore le perf/prix chez nvidia c'est toujours une bonne chose mais je trouve que 12 go ça ne lui va pas bien
C'est sûr que 16 Go eussent été mieux, mais on est pas limité par les 12 Go pour l'heure, en particulier en QHD. Le bus mémoire 192-bit permet aussi de réduire significativement la taille du die (les interfaces sont moins denses en transistors et scalent moins bien en affinant la gravure comme l'a prouvé AMD), sur du 4/5 nm ce n'est pas négligeable en terme de coût pour une puce monolithique. Après Nvidia pourrait aussi sacrifier un peu de sa marge, mais vu qu'il en fait beaucoup plus sur les puces dédiées à l'IA et que TSMC n'arrive pas à suivre, je crois qu'il faut pas trop en demander pour le moment.
Tsmc peut suivre
C'est l'emballage des puces ia qui bloque pas la production des die
J'avoue que je n'ai pas suivi pour savoir où se trouvait la limitation. M'enfin t'as compris la remarque : pourquoi rogner sa marge quand tu peux faire plus de sous en privilégiant l'affectation des puces à l'IA plutôt qu'au gaming.
Je précise que je ne cautionne pas, mais je serais CEO je me poserais sérieusement la question.
Bah je te réponds ils peuvent produire plus si nvidia le décide
C'est l emballage du die avec l interposé et la hbm qui bloque
Chose que n'utilise pas les puces gaming
Ah mais tu n'utilises pas que du H100/H200 pour faire de l'IA, tu as aussi des produits comme les L40 (principalement utilisés en inférence) qui n'ont pas de HBM (puisque c'est un AD102) et qui margent plus qu'une GeForce.
Que penses tu d'un bus 128 bits avec 8 puces donc 16 go mais 64 mo de cache et ram à 24 gbps ?
Je ne suis pas architecte GPU, mais j'imagine que les ingénieurs de Nvidia ont fait leurs simulations et que l'option retenue pour AD104 était le meilleur compromis à leurs yeux.
Bah ça a 2 problème je pense que la puce serait pas plus petit le cache remplaçant les contrôleur ram en moins
Mais 2 puces ram en plus plus cher et version pro avec plus de ram impossible
C'est marrant tu fais les questions et les réponses 🙂