C'est presque évident ! NVIDIA a introduit l'IA dans le gaming avec ses GeForce en 2018 et sa génération Turing RTX. Actuellement, le géant vert est capable de générer des pixels à partir d'une entrée ayant peu de pixels (Super Résolution), et même de créer une image intermédiaire à partir de deux images consécutives, le tout en s'aidant des vecteurs de mouvements. Il y a quelque temps, on vous avait succinctement parlé de la Neural Texture Compression, qui est un outil capable de comprimer par IA des textures spécifiques de matériaux pour les décompresser plus rapidement que les techniques (par des frameworks génériques) habituelles plus lentes, tout en ayant une définition supérieure à la texture native. Et pour ceux qui crieraient à la technique propriétaire, sachez que cette méthode de NTC fonctionnerait sur une Radeon qui aurait des unités de calcul matriciel comme les RDNA 3, puisqu'AMD a implémenté des Matrix Accelerator dedans.
La suite ? NVIDIA a répondu à diverses questions provenant de divers média, et la question du DLSS 4 est tombée. Sans rentrer dans les détails, NVIDIA a affirmé cependant que des axes de travail avaient été explorés, et certainement validés, comme par exemple la génération de textures et des objets (NTC ?), voire même la génération de personnages dans les jeux pilotés par IA, afin de rendre les interactions et les comportements le plus "naturels possibles", et pas obéissant simplement à un script. Ces évolutions dans les jeux grâce à l'IA ont pour but d'améliorer l'immersion et de rendre cohérentes les diverses scènes que vous vivrez. La chose a déjà commencé, on peut citer NVIDIA ACE (génération de dialogues pertinents), NeMo (plateforme cloud qui permet aux devs de mettre de l'IA dans leurs créations), Audio2Face (synchronisation entre les animations faciales et les paroles). Depuis Half Life 2 réputé grâce, entre autres choses, à la pertinence de son IA), les évolutions sur ce secteur ont été moins flagrantes que l'évolution des graphismes par exemple.
Rome ne s'est pas faite en un jour, mais à voir ce que réservera le DLSS 4, qui pourrait arriver avec les cartes graphiques Blackwell, afin d'enfoncer encore le clou et donner un argument de plus en sa faveur. À voir sur quelles RTX ça pourrait tourner !
En lisant l'article, je me suis fait la réflexion qu'on reproche beaucoup à nVidia ses technologies fermées. Mais en même en étant précurseur, ça leur a coûté de développé tout ça (à une époque où toutes les entreprises n'en avaient rien à faire d'investir là-dedans). Ça vaut autant pour l'écosystème logiciel CUDA, que pour le réseau. Qu'est-ce que les entreprises spécialisées dans le matériel réseau en avaient à faire il y a 6 ans de développer des technologies réseaux pour IA avec pour seul client nVidia qui était le seul à prendre ce chemin... maintenant tout le monde veut un standard ouvert.
C'est assez comique de voir ensuite ces mêmes entreprises qui ont ratés le coche et pas eu la vision de l'avenir de venir reproché à nVidia d'avoir un écosystème fermé. Comme s'ils devraient assumer le coût du développement du logiciel pour les concurrents qui n'auraient plus qu'à se pointer avec leur matériel typé IA.
D'ailleurs je me répond à moi-même, mais je serais curieux de voir les plans d'Intel et surtout d'AMD. Qui pour l'instant ont surtout des rôles de "suiveur" plus que de "créateur".
Sur Cyberpunk 2077, j'utilise Lossless Scaling pour passer du 1600x900 a l'UHD
J'utilise le Scaling Type "Bicubic CAS" avec le scale factor de 2,4
Le paramètre Sharpness est regle a 4
Et pour moi c'est beaucoup mieux que le DLSS, l'image est mieux respectée, et reste bien nette
Pour l'instant, l'I.A. ne me sert a rien pour les graphismes en jeu
Ce que tu décris c'est pas du DLSS mais du downscaling, et donc DSR Factor dans le panneau de contrôle NVIDIA marche super bien
Non, c'est de l'upscaling, puisque le jeu tourne en 1600x900 et est upscale en UHD. Et oui, ce n'est pas du DLSS, c'est juste du traitement numérique du signal, mais justement je prefere ca, ca respecte mieux l'image d'origine du jeu
Exact.
Même procédé que de prendre une image du résolution inférieur de rechanger la taille par traitement bicubique exemple sur un GIMP. Et d'appliquer sharping pour durcir le Flou engendrer par la perte... Donc exactement le même procédé que le dsr... La seule différence que t'aurais avec le dlss c'est que tu va combler la perte de l'image qui est calculé en plus basse résolution par ce qui rendu par l'IA c'est tout et en dlss3 tu as en plus la Frame généré supplémentaires.... Moins personnellement j'ai beau chercher la petite bête dans tous les cas de figure des que tape de la haute résolution je n'arrive pas a détrôner le dlss... Des fois de petit bug graphique dans certains jeux mais perso c'est assez rare.. et pour mes plus vielle carte qui ne supporte pas le framegeneration le fsr3 fait un gain plus que notable... Même si il est largement moins propre que le dlss pour le coup..
Après ce n'est que mon avis...