Avec sa génération de GPU Turing, NVIDIA a clairement surpris son monde. En incrustant des unités spécifiques dédiées à l'IA, le caméléon a bouleversé l'approche de faire des jeux vidéos. Si les upscalings, à commencer par le DLSS puis le XeSS et enfin le FSR, ont été décriés comme étant une "tricherie", c'est vite oublier qu'il y a des contraintes dans la course à la performance dont nous n'avons pas conscience. En effet, la rastérisation telle qu'elle existait demandait de plus en plus de ressources pour permettre aux moteurs 3D d'afficher des jeux plus beaux, ou en tout cas tels qu'ils pouvaient être imaginés par les développeurs. C'est aussi dans cette optique le ray tracing hybride est apparu, composante de DX12 Ultimate : une requête des développeurs pour offrir des éclairages réalistes avec un effort moindre que celui que demandait la rastérisation. Pourquoi ne pas simplement faire un GPU plus gros sans IA ? Il coûterait une fortune et poserait des soucis d'encombrement. Si Turing était révolutionnaire, il était pour autant un peu trop juste pour afficher avec confort les effets que ses transistors dédiés devaient calculer. Depuis le DLSS et le RT de Battlefield 5, on peut dire que les choses n'ont plus rien à voir en matière de qualité.
Cependant, la firme a su faire évoluer son DLSS Spatial en DLSS 2 Temporal, prenant en compte les vecteurs de mouvement, et en diminuant le flou associé. Le DLSS 3 est arrivé et a fait grincer des dents, puisqu'il n'est réservé qu'aux RTX 40. Le DLSS 3.5, mal nommé s'il en est puisque toutes les RTX peuvent en profiter, est une reconstruction plus fidèle des effets ray tracing lorsque l'upscaling DLSS 2 est activé. Dans toutes ces évolutions du DLSS, on peut dire que la qualité générale et la volonté de rendre un détail toujours plus précis ont été respectés, en effet l'IA permet de restituer ces détails, qui disparaissent trop dans les solutions d'upscalings qui n'y font pas appel, on pense forcément au FSR, le moins fidèle des 3 upscalings qui ne fonctionne pas avec IA. AMD a pris la mesure de la chose, puisque le FSR 4 y fera appel, l'IA n'est donc pas prête à disparaitre.
Si l'IA associée au GeForce porte le nom de DLSS, d'autres technologies sont attendues afin d'une part de rendre l'immersion plus réaliste, et d'autre part donner aux PNJ la faculté d'avoir des comportements plus "humains", sans devoir répondre à un script bête et méchant (Audio2Face, ACE, etc). L'IA devrait permettre également d'améliorer les textures, tout en consommant moins de ressource, on pense forcément à la Neural Texture Compression de NVIDIA ou la Neural Texture Block Compression d'AMD. Le pas est franchi et ce n'est pas un feu de paille. Jensen a d'ailleurs déclaré à la conférence Goldman Sachs Communacopia qu'il n'était plus question pour NVIDIA de faire le moindre GPU qui n'ait pas d'IA.
We can't do computer graphics anymore without artificial intelligence". "We compute one pixel, we infer the other 32. I mean, it's incredible... And so we hallucinate, if you will, the other 32, and it looks temporally stable, it looks photorealistic, and the image quality is incredible, the performance is incredible
Si c'est réjouissant d'un point de vue gaming, cela fait craindre pour autant des dérives. En effet, dans toute course technologique, il y a la locomotive et les wagons suiveurs. Il ne faudrait pas que NVIDIA, par son avance, crée une cassure et que les développeurs ne suivent que le chemin vert. A priori, tant que les autres proposeront également leurs unités accélératrices d'IA, il n'y a pas de raison que cela se passe. Battlemage devrait reprendre le flambeau d'Alchemist côté Intel, ce dernier avait adopté également la philosophie d'IA par unités dédiées, sauf que le XeSS fonctionne sur toutes les cartes. Le FSR est ouvert, mais pèche qualitativement par rapport aux deux autres, nous ne savons pas comment le FSR 4 va opérer avec son IA, ni comment il va fonctionner sur les cartes antérieures à RDNA 4, ni même si ce sera possible. Il n'est pas illogique de penser que le FSR 4 carburera sur les RDNA 4, laissant les RDNA 3 et antérieurs avec le FSR 3. Il est des retards qui ne peuvent pas toujours être compensés, cela a toujours été. Mais si vous aviez des doutes quant à l'approche IA de NVIDIA, et de la volonté de ses concurrents de suivre le même chemin, ils sont à présents otés !
Jensen Huang reve de faire avec l'I.A. ce qu'il a deja fait avec le ray tracing pour les cartes graphiques : S'assurer d'avoir une technologie exclusive face a ses concurrents AMD et Intel
Pour le ray tracing, ca a super bien marche, mais maintenant l'avance de nVIDIA dans ce domaine va se reduire avec la venue de la RX 8800 de chez AMD
Mais c'est pas sur que nVIDIA parvienne a la meme chose pour l'I.A., car l'I.A. est bien plus dispensable que le ray tracing, tout du moins en ce qui concerne le gaming
Nvidia n'a jamais fait une technologie exclusive avec le ray tracing car le ray tracing chez nvidia s'est toujours basé sur les apis standards comme directx 12 RT et Vulkan RT.
Ils ont été les premiers à exploiter ces apis mais en rien ce n'était des technologies exclusives.
Le dlss oui ça en est une comme gsync mais pas le ray tracing.
Non seulement il faut faire plus beau en raster, mais en plus on veut du raytracing. Et pour ne rien arranger, la résolution des écrans augmente. Tout ça avec une loi de Moore morte, il faut forcément se tourner vers des techniques "sales" comme le DLSS et autres assistances ML pour continuer le progrès. Ca me semble inévitable.
Sauf que c est le mesh shading et absolument pas le raytracing hybride la nouveauté de DirectX 12 ultimate pour gagner en perf
Sauf que pour ça faudrait il que les devs arrête d utiliser dx12 ultimate comme un dx11 auquel on colle un patch raytracing
Bref comment prendre le pire de dx12 ultimate pour massivement rester compatible PS4 vu que le raytracing vu qu hybride ici s appuie sur une base de rasterisation donc reste parfaitement optionnel
Là où les mesh shader demande à minima du Vega chez AMD et du Turing chez NVIDIA, et que du coup des console PS4 sont parfaitement incapable de faire tourner
Les Mesh Shader ont bien été inaugurés par Turing, mais côté AMD il a fallu attendre RDNA 2 pour cela. La première itération de RDNA ne les prenait pas en charge (et s'effondre par exemple sous Alan Wake II de ce fait) et bien entendu ce n'est pas plus le cas de Vega ni de Polaris dont est dérivé l'APU de la PS4.
DX12 Ultimate correspond à DX12 plus l'intégration de toutes les nouveautés Hardware apportées par Turing, à savoir le RT, les Mesh Shader, le VRS et le Sampler Feedback. Le RT n'a jamais été implémenté pour améliorer les performances mais la qualité visuelle. Les 3 autres permettent effectivement des gains lorsqu'employé à bon escient.
DX12 est une API bas niveau permettant un meilleur accès aux ressources matérielles sans avoir à se fader les surcouches de l'OS entraînant une charge CPU supérieure. A son lancement il partageait les mêmes fonctionnalités que DX11. DXR (ensemble d'instructions dédiées à la prise en charge du RT sous DX12) a ensuite été lancé pour la normalisation de cette accélération hardware du RT sous Windows, avant l'avènement de DX12U.
DX12 Ultimate a surtout été lancé pour unifier l'API entre les derniers GPU pour PC et la future (à l'époque du lancement de DX12U) XBOX Serie X. A ma connaissance, la PS4 pas plus que la PS5, n'utilisent DirectX.
Sony ont toujours fait les choses à leur sauce sur playstation et ça leur à plutôt bien réussi, aucunes raisons de se faire chier a suivre de l'API multiplateformes 😀
C'est bien beau ces nouvelles technologies pour "améliorer" les graphismes mais ça rend pas les jeux plus intéressants...... maintenant on a de beaux graphismes, c'est sur, mais on a des bots complètements débiles, bien pires qu'avant, et des jeux creux. Rares sont les jeux qui m'absorbent dans leur monde, et tous ceux qui y parviennent sont dépourvus de RT et autres raffinements cosmétiques. Je pense sincèrement qu'aujourd'hui, l'aspect cosmétique l'emporte sur l'aspect ludique, et ça c'est bien dommage.
Les bots (PNJ) ne sont pas plus betes qu'avant, simplement, comme les graphismes ont evolues vers plus de realisme, tu t'attends aussi a ce que les PNJ aient un comportement plus realiste, ce qui n'est pas le cas
C'est particulierement visible sur Cyberpunk 2077, par exemple
Hitman-3 et Gear of war 5 sont sortis sur pc avant la première génération de RTX et les moteurs géraient des effets de lumière magnifique, en outre, on avait droit avant à une physique autrement plus développé que maintenant.
le souci c'est que Turing est sorti en 2018, Gears 5 en 2019 avec l'Unreal Engine 4, et Hitman III avec du ray tracing en 2021. aie aie aie 🤓