DLSS 3
Le Deep Learning Super-Sampling 3, souvent abrégé DLSS 3 pour des raisons évidentes, n'est compatible qu'avec la génération de carte graphique utilisant une puce Ada Lovelace (RTX 40). Résumé en quelques mots, il s'agit d'un DLSS 2 auquel on adjoint un mécanisme de génération d'images intermédiaires, ainsi que la technologie Reflex pour réduire la latence induite par ladite insertion. Les Tensor Cores sont donc toujours mis à contribution pour l'inférence d'une image lors de l'opération d'upscaling (Super Resolution), mais également une unité OFA qui va analyser les images rendues, afin de permettre la génération la plus précise possible des images intermédiaires, pour éviter les artefacts visuels. Cette unité n'est pas exclusive à la série 40, mais sa puissance ne serait pas suffisante (selon Nvidia) sur les générations précédentes, pour parvenir à un résultat visuel satisfaisant. Pour ceux désirant plus de détails, nous vous renvoyons aux pages dédiées que votre rédacteur avait rédigées à l'époque sur un autre média.
L'adoption du DLSS 3.0
Plus d'une trentaine de jeux et applications sont annoncés comme prenant ou allant prendre en charge le DLSS 3 dans les mois à venir. D'ores et déjà, un certain nombre est accessible à tout le monde, à l'instar de Flight Simulator depuis sa mise à jour 40th Anniversary, ou encore A Plague Tale : Requiem, F1 22, les Marvel's Spider-Man, Warhammer 40,000 Darktide et la version New Gen de The Witcher III. La dernière mise à jour de Cyberpunk 2077 inclut cette fois le DLSS 3 de manière publique, il était temps après de nombreux mois en beta privée.
Et comment tout ceci se met-il en œuvre au sein d'un jeu ? Par le biais de deux étapes : la première consistant à activer le DLSS Super Resolution (DLSS 2.x), puis d'y adjoindre l'option DLSS Frame Generation ou génération d'images. Reflex sera automatiquement activé (que l'option soit exposée ou non) et vous serez alors en mode DLSS 3. Selon les jeux, l'option de génération d'images ne sera pas forcément dans le même menu que celui ou se trouve le choix d'activation du DLSS Super Resolution, ce qui n'est pas des plus pratiques, mais les studios semblent avoir fait des efforts à ce niveau. A titre d'illustration, voici la façon d'activer le DLSS 3 sur Darktide.
Activation du DLSS 3 pour Warhammer 40,000: Darktide
Pour ce test, nous nous limitons à l'étude des performances du DLSS 3, l'aspect visuel qui est un point fondamental, nécessite des comparaisons d'images fixes mais aussi animées, qu'il n'est pas possible de traiter dans un tel dossier. Il fera l'objet de publications spécifiques à chaque jeu. Pour revenir au test actuel, nous avons souhaité évaluer l'implémentation du DLSS 3 au travers des jeux proposant une build publique officielle. Pas de beta donc et nous avons limité l'échantillon à 10 titres, pour des raisons temporelles.
Nous utilisons naturellement la RTX 4070 pour vérifier les gains à attendre pour cette dernière avec les différentes techniques d'upscaling contemporaines, et ce en comparaison du rendu dans la définition native choisie, ici 3840 x 2160. Cela permet ainsi de visualiser le comportement de cette dernière avec une telle définition dans des jeux gourmands, que ce soit de manière native, tout comme avec l'appui des solutions d'upscaling. Nous poussons tous les détails au maximum et activons le Ray Tracing lorsque l'option est disponible.
DLSS 3 - RTX 4070
Les gains sont variables selon les différents titres, mais le bénéfice du DLSS 3 est indéniable pour les jeux très gourmands (Cyberpunk 2077 & Portal with RTX) ou souffrant de limitation CPU, à l'instar de Flight Simulator. La RTX 4070 n'est pas une carte haut de gamme comme peut l'être la RTX 4090, elle parvient tout de même à proposer 60 i/s dans des jeux contemporains avec le RT actif et toutes les options au maximum, lorsque le DLSS 3 est actif. Voilà qui fera plaisir à certains disposant d'un écran UHD et pas forcément enclins à se saigner pour une carte à près de 2 K€.
1er centile DLSS 3 - RTX 4070
C'est encore plus sensible au niveau du 1er centile, c'est à dire là où le besoin se fait le plus fortement ressentir. De quoi jouer dans de bonnes conditions en UHD avec la RTX 4070, sachant que le pire cas de figure, Portal with RTX, propose tout de même 44 i/s, ce qui ne pose pas de problème insurmontable, en particulier avec un écran à rafraîchissement variable.
DLSS 3 Latence - RTX 4070
En contrepartie, la latence PC est dégradée en comparaison du DLSS2, mais en progrès par rapport au rendu natif, bien aidé par le framerate beaucoup plus important. Par soucis d'équité, Reflex est bien entendu activé pour les trois cas. Du fait de la limitation de nos graphiques dynamiques pour l'heure (ne permettant pas encore d'afficher plusieurs séries au sein d'un même graph), et afin de ne pas surcharger la page, nous n'affichons pas les données de consommation et d'efficacité énergétique. Toutefois, l'activation du DLSS 3 permet de réduire légèrement la consommation de la carte (5/10 %), quant à l'efficience énergétique (i/s pour 100 W), elle bondit avec un rapport favorable compris entre 2 et 5 fois en comparaison de celle mesurée sans upscaling, du fait de l'augmentation substantielle des performances en jeu. Voilà ce que nous pouvions vous dire sur le DLSS 3.0 et l'UHD avec la RTX 4070, passons à présent au suivi des fréquences et l'overclocking page suivante.
La carte est très bien techniquement
Le prix est correct mais ne révolutionne pas le marché par contre
Ça peut être encore intéressant de trouver un bon plan d'une carte d'une ancienne gen
Merci pour le test très réussie
Merci pour le test.
Ca m'avais manqué :-)
Merci à toi. Par contre pour les GPU il n'y a pas eu d'interruption dans les tests malgré le changement de site, vu l'absence de lancement depuis la 4070 Ti, hormis celui-ci 😉
la concurrence d'amd est au abonnée absent
navi 32 meme en rumeur il y a rien en ce moment ça sent pas bon
Que c'est bon de retrouver vos tests toujours au top 😍 Merci tout plein
Bonne petite carte quoi qu'il en soit et dans l'air du temps niveau dépense d'énergie, sans compte que c'est enfin une carte qui ne prend pas toute la place dans le boitier. Je n'aurais pas la Ti, je me demande si je ne me serais pas jeter sur celle-la. Toujours très (trop ?) chère mais qui fait bien le taff.
Si cela pouvait faire baisser le reste également...
On reprend les tests là ou on les avait laissé... et sur un site tout beau ! Bravo et merci Eric pour le test, et Nico pour le site :)
Hé oui ! On n'oublie par Cristallix / Jordan qui a bien aidé pour ces joooolis graphes :).
Sinon mi-figue mi-raisin cette carte. C'est performant et enfin avec une consommation raisonnable, mais à 659 € minimum (ce qui est un prix d'appel, il ne faut pas se le cacher...), ça me semble encore bien cher... merci le COVID ?
Test complet et visuellement parfait. Pour ce qui est de la carte hors mis le DLSS3 et sa consommation sobre, elle ne fait pas d'ombre aux RTX 3080/3080 Ti. Elle se retrouve à -16% de la TI du fait de son bridage à 200W. On verra si les AIB sortent des modèles plus testiboulés.
Si on compare avec la 6800xt sortie au même prix y a + de 2 ans c'est vraiment pas folichon, moins de Vram, même perf hors RT. Heureusement elle consomme bien moins (100w de moins).
C'est vraiment la stagnation du tarif qui dérange, des 3080/6800XT à 649-699€ on en as vu passer ses derniers mois, donc elle n'apporte pas grand chose pour une nouvelle génération 2 ans plus tard (en termes de perf/prix). C'est vraiment le points noir de cette génération car en soit, cette 4070 est plutôt réussi je dirais mais trop chère.
Le problème, c'est que des 3080 et 6800 XT, on en trouve de moins en moins à bon tarif, donc on a au moins la certitude d'avoir une offre équivalente en rastérisation dans cette gamme de prix et avec des avantages non négligeables (conso, encodage AV1, DLSS 3) quand elles disparaitront. Comme je l'ai écrit plusieurs fois, je pense qu'AMD et Nvidia doivent payer très cher les Wafer 4/5 nm, du coup, sauf guerre des prix entre eux, je crains que cette génération reste chère. Au moins le ratio perfs/€ s'améliore par rapport à la gamme supérieure, ce n'était pas le cas de la RTX 4080.