L'évolution du DLSS
Avant de parler de la dernière itération du Deep Learning Super Sampling aka DLSS, rappelons ce qu'est cette technologie de Nvidia dont l'origine remonte à l'intronisation de Turing (RTX 20). La promesse du DLSS (1) était d'offrir des performances en nette hausse, pour une qualité visuelle équivalente à celle atteinte avec un TAA classique. Pour ce faire, le caméléon procédait au rendu de dizaines de milliers d'images avec une excellente qualité visuelle à partir d'une build du jeu mis à disposition par les développeurs, collectant ainsi le résultat de sortie et les données d'entrée brutes (images en basse résolution et aliasées). Tout ceci était ensuite utilisé lors d'opérations d'apprentissage profond (Deep Learning) : des réseaux de neurones artificiels (de type auto-encodeur convolutif) étaient entraînés à obtenir cette qualité de sortie avec ces données d'entrée, au moyen de méthodes fortement matheuses (back propagation), leurs permettant "d'apprendre" les spécificités propres à ces images.
Il résultait de ces apprentissages des DNN models (Deep Neural Network signifie "réseau de neurones profond") capables d'imiter le comportement observé sur l'échantillon utilisé lors de l'apprentissage, et ce pour un coût bien moindre que la technique originelle. Comment ? Par le biais des Tensor Cores, qui utilisent alors les DNN models sur l'image brute aliasée de définition plus faible pour inférer en temps réel le rendu anti-aliasé à la définition d'affichage requise. L'inférence est friande des calculs en faible précision où les Tensor Cores excellent. Le résultat bien qu'encourageant restait néanmoins largement perfectible, ce à quoi Nvidia s'attela avec la version 2 ayant revu en profondeur l'auto-encodeur convolutif (commun à présent à tous les jeux), mais ce n'est pas tout, puisque la technique de Temporal Feedback a également été ajoutée. Il s'agit en fait de l'intégration des vecteurs de mouvement aux données d'entrée collectées en basse résolution. Ceux-ci sont ensuite appliqués à la précédente image de sortie (haute qualité), afin d'estimer plus précisément quelle sera l'apparence de la suivante. Cela permet de rendre des images plus nettes en améliorant la stabilité d'une image à la suivante. Nvidia a ensuite poursuivi l'amélioration de son modèle par apprentissage, au fur à mesure de la sortie de nouveaux jeux et la collecte de nouvelles données corrigeant les artefacts visuels présents.
Pour le DLSS 3, les verts ont ajouté une nouvelle technologie s'additionnant à l'upscaler : la génération d'image. Nvidia s'appuie ici sur les unités OFA (Optical Flow Accelerator) de ses GPU, pour le coup largement plus nombreuses sur les RTX 40 que les précédentes, afin d'analyser le flux optique entre deux images séquentielles dans le jeu et en déduire un "champ de flux optique". Plus clairement, il s'agit d'une cartographie sur laquelle vont être positionnées la direction et la vitesse à laquelle les pixels se déplacent entre l'image 1 et l'image 2. Les unités OFA sont en effet capables de capturer des informations au niveau d'un simple pixel, une précision que ne permettent pas les vecteurs de mouvement du moteur 3D. Ces derniers sont toutefois utilisés pour suivre les déplacements géométriques au sein de la scène. A l'aide de ces données, un modèle IA va alors générer l'image intermédiaire entre 2 images calculées. Couplée à l'uspcaler, cette technique permet de ne pas calculer mais inférer/générer jusqu'à 7/8 des pixels nécessaires (dépendant du niveau d'upscaling bien sûr) aux 2 images consécutives affichées.
Compte tenu de l'augmentation de latence liée au principe même de fonctionnement (il faut attendre le rendu de la seconde image avant de pouvoir générer l'image à insérer entre les deux et afficher ensuite tout cela), Nvidia couple systématiquement Reflex à sa Frame Generation. Kesako ? Il s'agit en fait d'une technologie permettant d'éviter au CPU de prendre de l'avance sur le GPU au niveau de l'envoi des images à calculer par ce dernier. Cette synchronisation a pour effet de réduire notablement la latence, mais nécessite pour être efficace (et éviter les faux positifs par les mécanismes de prévention de la triche en ligne) d'être intégrée au sein même du jeu.
DLSS 4
Quid du DLSS 4 à présent ? Commençons par la partie upscaling. Cette dernière subie une modification d'ampleur puisque l'on passe d'un modèle CAE / CNN à un modèle Transformer. Pour en apprendre un peu plus sur ce dernier, nous vous invitons à consulter notre dossier relatif à l'IA (effleurant juste ce vaste sujet, mais qui devrait vous permettre d'obtenir les notions élémentaires pour comprendre la nature du changement). Il innove par un mécanisme d’auto-attention (self-attention dans le jargon anglophone) permettant au réseau de se focaliser sur certains endroits jugés importants et de taille plus grande que ceux possibles via les modèles CNN précédents. Notez que ces Transformers sont la brique de base à l’œuvre dans les derniers réseaux à la mode tel Chat GPT : NVIDIA n’a donc pas fait cavalier seul ce coup-ci. Grâce à cela, les verts communiquent sur une implémentation de la reconstruction d’image 40 % plus rapide et faisant usage de 30 % de VRAM en moins, ce qui permet aux réseaux du DLSS 4 de manger 2 fois plus de paramètres en entrée pour un rendu toujours plus fidèle.
Dans les faits, les réseaux à l’œuvre dans les trois composantes de base du DLSS ont été mis à jour pour tirer partie de cette nouvelle structure : Super Resolution (l'upscaler permettant la mise à l’échelle de rendu effectué dans une définition inférieure)? Ray Reconstruction (débruitage et nettoyage du lancer de rayon) et DLAA (Anti-aliasing par IA). Dans chaque cas, le passage aux Transformers permet de limiter le ghosting (effet de rémanence de l’image précédente), améliorer la restitution des détails, ainsi que diminuer les artefacts temporels. Nvidia avance une charge computationnelle multipliée par 4, ce qui rendra le nouveau modèle certainement plus lent que le précédent sur les cartes disposant de moins de Tensor Cores ou d'itérations précédentes de ces derniers. Et si vous demandez le pourquoi d'un tel changement, les verts indiquent qu'ils ont amélioré durant 6 ans les précédents modèles CNN et qu'ils ne parviennent plus à obtenir d'évolutions visuelles significatives. Il fallait donc passer par cette étape pour franchir un nouveau palier qualitatif.
La partie Frame Generation évolue aussi largement. Exit l'analyse du flux optique via les OFA, c'est à présent l'IA qui s'en charge avec l'appui des Tensor Cores. Au lieu de se contenter de générer une seule image entre deux images rendues, il est possible à présent de passer ce nombre à 3 maximum avec la MFG (Multi Frames Generation). De quoi quadrupler les performances lorsque couplé à l'upscaling. Nvidia indique qu'il est ainsi possible de générer via l'IA jusqu'à 15/16 des pixels nécessaires pour ces images. Pour améliorer le confort de cette MFG, une technologie nommé Flip Metering permet de lisser l'envoi des images à l'affichage (Frame Pacing) pour éviter les désagréables changements de rythme trop brusques. Elle s'appuie sur une composante hardware uniquement présente à partir de Blackwell, justifiant d'après Nvidia la limitation de la MFG aux seules cartes de cette génération. Par contre, ce changement d'approche pour la Frame Generation (2x = une seule image insérée), pourrait potentiellement l'ouvrir aux générations antérieures à Ada Lovelace, puisque le débit des OFA n'est plus problématique. Reste à voir si celui des Tensor Cores de Turing et Ampere l'est... Mais laissons là ces supputations et finissons par Reflex 2, qui permettrait de son côté d'améliorer encore la latence selon Nvidia via la technique de Frame Warp. Nous détaillerons cela une fois disponible.
Jetons à présent un œil à la mise en pratique du DLSS 4. Nvidia annonce pas moins de 75 jeux disponibles à la commercialisation des RTX 5080/5090. De notre côté, nous avons pu accéder à 6 d'entre eux en version anticipée. Pour atteindre ce nombre, la stratégie des verts s'appuie sur 2 piliers : une intégration native au jeu via un patch des développeurs. C'est la solution préférentielle, mais comme cela dépend de la réactivité des acteurs, Nvidia propose une alternative qui permettra l'activation du nouveau modèle Transformer ou de la Multi Frame Generation au travers d'options intégrées à Nv App. Pour ce faire, il faut que le jeu dispose déjà d'une implémentation préalable du DLSS (quelle que soit sa version) et que les verts aient validé le jeu pour cela au sein de Nv App. Qui plus est, cela ne permettra pas non plus d'activer la MFG pour un jeu qui n'aurait pas implémenté au préalable la Frame Generation originelle du caméléon.
Jeux compatible DLSS 4 "day 1"
Nous avons essayé les 2 méthodes pour nous assurer de leur fonctionnement. Originellement, nous avions accès à des branches bêta d'Alan Wake II, Cyberpunk 2077 et Star Wars Outlaws illustrant l'implémentation native, depuis nous utilisons les versions officielles mis à jour pour apporter à tous ces fonctionnalités. AW2 active par défaut le modèle Transformer mais vous propose une option à cocher pour revenir au modèle précédent. La MFG est activable et la dernière version du jeu prend en charge de la Mega Geometry. CP2077 propose la même chose (hormis la Mega Geometry) et il en est de même pour SWO.
Dragon Age: The Veilguard peut de son côté utiliser le DLSS 4 via la technique de remplacement. Via Nvidia App, il est donc possible de changer le modèle (choisir "le plus récent" pour obtenir Transformer), mais aussi la Multi Frame Generation ou encore forcer le DLAA (s'il n'est pas proposé nativement dans le jeu). Cette technique fonctionne tout aussi bien que la native des exemples précédents, tout du moins avec ce jeu.
Et côté prestations ? Pour mesurer cela, nous avons sur les 4 jeux précédents, mesuré le niveau de performance en faisant varier les différents réglages. L'upscaler version Transformer se montre performant, puisqu'il permet en mode qualité un gain compris entre 68 et 502 pourcents en UHD (le niveau d'upscaling n'est pas systématiquement identique entre titres malgré le choix qualité systématique). Il faut dire que la charge est souvent excessive pour le GPU (qui n'est clairement pas taillé pour de tels réglages) qui s'effondre totalement en UHD natif et l'activation de l'upscaler lui permet de respirer un peu. La MFG amplifie ce phénomène et le nombre d'images par seconde grimpe au-delà des 60, permettant de retrouver la fluidité et rendre le jeu jouable, sans atteindre malgré tout le confort d'un 60 i/s sans Frame Generation.
DLSS 4 - Moyenne - MFG - RTX 5070 FE
Les 1% Low profitent également très largement de ces technologies, confirmant la sensation de fluidité visuelle, d'autant que le Frame Pacing est également sous contrôle, du fait du transfert de sa responsabilité au GPU (au lieu du CPU), de sorte que la plupart des effets négatifs de la Frame Generation au niveau de la fluidité sont gommés ou à tout le moins atténués.
DLSS 4 - 1% Low - MFG - RTX 5070 FE
C'est bien beau d'avoir un nombre d'images par seconde qui explose, mais quid de la pénalité côté latence, qui va conditionner la réactivité du jeu à vos actions ? Phénomène intéressant, s'il existe bien une pénalité, cette dernière est généralement contenue et le résultat est toujours bien meilleur qu'en rendu natif. Mais dans certains cas, la Latence PC mesurée est même meilleure avec la MFG activée. Comment est-ce possible ? Eh bien de nombreux facteurs entrent en jeu pour ce phénomène, dont le framerate. Lorsque ce dernier devient trop faible, la latence augmente de manière exponentielle du fait d'une saturation de la capacité de traitement du GPU. La FG permet de soulager ce dernier en limitant la charge, affectant donc positivement la latence PC.
Au jugé, il nous semble tout de même nécessaire d'obtenir à minima entre 40 et 45 i/s avant d'activer la MFG, pour obtenir une sensation de jeu réellement confortable. Il est donc utile d'adapter les réglages pour atteindre ce seuil, ou opter pour un upscaling plus agressif (Intermédiaire ou Performance à la place de Qualité), sachant que le modèle Transformer permet d'atténuer considérablement la dégradation visuelle entre ces réglages (en particulier avec une définition cible UHD). Attention malgré tout à ne pas se méprendre : ces 4 jeux restent parfaitement jouables avec SR + MFG en UHD et détails maximum avec la RTX 5070 et ce sans pour autant partir de cette base minimale évoquée précédemment. Il faudra par contre accepter une réactivité moindre que celle que l'on va ressentir normalement avec de tels framerates ainsi que la présence de quelques artefacts visuels persistants (cela dépendra de la sensibilité de chacun).
DLSS 4 : Latence - MFG - RTX 5070 FE
Reste à aborder le côté plus subjectif de la chose : la qualité visuelle. Si notre ressenti global est excellent en première approche (et dans le temps imparti très limité pour se faire une opinion sur le sujet), le nombre de titres compatibles reste limité durant cette phase de test. Des essais plus approfondis que nous pratiquerons dans les semaines / mois qui viennent permettront d'affiner cela. De par son principe d'apprentissage, le modèle Transformer va se bonifier avec le temps, d'ici là nous tâcherons d'évaluer la qualité visuelle au sein des titres disponibles. Concernant la MFG, de petits artefacts (ghosting principalement) sont notables lors de déplacements rapides. Tout ceci prenant beaucoup de temps (déjà phagocyté par les tests incessants des cartes), nous vous proposerons des dossiers dédiés à ce sujet dès que possible. il est temps de passer aux nuisances sonores de la carte page suivante.

Très bon test comme à chaque fois
Elle est à peine meilleur que la 4070 super qu'elle remplace c'est pas folichon
12 go de vram pour se niveau de perf en 2025 c'est pas terrible
Au dessus de la 4070 super et encore pas partout et pas tout le temps.
En fait, je pense que c'est la pire des 4 RTX 50 sorties.
Dire que je pensais peut etre revendre ma 4070 super justement pour une 5070 ti voir la classique. Mais jamais de la vie!
Wow, tu as lu le test en 5 minutes !! Super-lulu !! 😁
Edit : bon, je ne la trouve clairement pas dingue cette 5070, c'est grosso modo une 4070 Super "Super"... Vivement les tests des 9070/9070XT demain !!
Hâte ! 😄
J'ai lu que les partie principale à mes yeux je lirai plus en détail se soir
Super test très complet !
C'est là qu'on voit le mensonge de la com de nVidia avec son RTX 5070 > RTX 4090... on en est TRES TRES loin. Sinon la carte est quand même pas mal, sans plus.
Non bah il y a une constante aucune ce de gen n'est silencieuse
Pourtant un ou 2 caloduc en plus et/ou une carte un peu plus longue
En dehors de la RTX 5090 les autres RTX 50 ne valent que par le DLSS4.
Très bon dossier.
Qui est supporté par les rtx4000.
je serai plus méchant et je dirai qu’elles ne valent que parce qu’il n’y a plus de rtx4000 dispos en promo.
Merci Éric pour ce Dossier, magnifique comme d'hab' (j'ai adoré la page 5 avec le graph', en zoomant/dézoomant, je me suis cru dans TradingView hihi).
A part ça, déçu quand même (surtout le prix, effet nouveauté? Surement, mais je ne m'attendais à rien étant donné le même node de gravure), pour un mini die, c'est cher payer, elle s'en tire à peine mieux que la 4070 SUPER, et consomme "plus" en moyenne (on peut dire que c'est normal, la GDDR7 et le cache ne donne pas plus finalement), ne parlons pas de la Vram "radine" et pas franchement futurproof, les jeux qui viennent vont en demandés (et EU5 se démocratise très vite). Elle a pour elle que le DLSS4 finalement... A mon sens, elle aurait pu s'appeler RTX 5060Ti...
J'aimerais dans un futur proche si tu as l'envie et le temps, c'est de voir la conso' Vram et DDR sur les tests de jeux en moyenne, on ne le voit pas souvent voir jamais ailleurs..
Sinon, go nous donné le dossier de la RX9070/XT là! 😝