En 2023, il y a plus d'un an, NVIDIA avait montré ses travaux concernant une nouvelle méthode de compression des textures dans les jeux, la Neural Texture Compression. Le but, évident, est de diminuer le volume des textures dans les jeux tout en améliorant la qualité visuelle de celles-ci. Certes, les RTX ont des unités dédiées pour l'IA ce qui les rend toutes potentiellement capables de faire de la NTC, mais la méthode NVIDIA fonctionne aussi avec les autres cartes possédant des unités dédiées, dont les cartes RDNA 3 ayant des unités de calculs matriciels connues sous le nom de Matrix Accelerator. Certes, AMD ne les exploite pas, mais elles y sont.
L'idée était sûrement bonne puisque près d'un an plus tard, AMD annonce bosser sur une méthode dont la philosophie est identique : réduire la taille des textures et améliorer le rendu. Le nom ? Neural Texture Block Compression, on peut difficilement faire plus proche que le nom choisi par NVIDIA. Autre point, qu'AMD garde flou et qu'il expliquera lors de l'Eurographics Symposium on Rendering in London, c'est comment ça fonctionne ? Techniquement, on ne devrait pas être très éloignés des travaux des verts, mais il y a quand même un point qui interroge. Il y a bien Neural dans le nom de la technologie AMD, lui qui traditionnellement évite l'IA sur matériel dédié. Est ce qu'AMD va utiliser enfin ses Matrix Accelerator intégrés aux cartes RDNA 3 et donc limiter sa technologie à cette seule génération, ou va-t-il sortir un algo qui fonctionne sur toutes les Radeon via pilote, au risque de ne pas obtenir un résultat satisfaisant, à la manière d'un FSR 3 qui a pris 18 mois avant d'arriver à être un peu mieux.
Comment sera accueillie la chose ? Si la solution de NVIDIA est de meilleure qualité et qu'elle fonctionne sur RDNA 3, ça sera dur pour AMD de réussir cette fois. D'un autre côté, nous ne savons pas quand cela arrivera, mais il y a fort à parier que le premier qui sortira les marrons du feu en premier remporte l'adhésion du secteur. De plus, il se pourrait que l'arrivée des cartes Blackwell entraine celle du DLSS 4 ou de la NTC, et cela, nous espérons qu'il en sera touché un mot au SIGGRAPH à partir du 28 juillet.

Les 2 choses intéressantes c'est le gain attendu et si c'est transparent pu non pour les développeurs
Si on met de côté la faisabilité de la chose, c'est sa standardisation qui interroge ? Parce qu'une fois qu'un pendant de Directx rend transparent qu'on utilise la techno de Nvidia ou AMD sur telles ou telles carte, après encore faut-il que ce procédé devient un standard utilisé par tout les futurs jeux mais aussi qu'on trouve un moyen d'automatisé son application aux anciens ?
Quid ensuite de la volonté réelle des deux marques de faire profiter cette technologie aux joueurs car si on prend l'exemple de l'Infinity-Cache, AMD à finalement vendu ses Radeon 6000 à un prix comparative au RTX3000 et ce n'est que quand ils ont fait la bourde de produire trop de 6000 alors qu'ils lançaient les 7900XT(X), qu'ils ont pu vendre à prix très bas, tout en maintenant un minimum de marge.
Tu confonds un peu tout
La c'est une nouveauté logiciel amd est très ouvert à pousser pour que ça devienne un standard ( mantle fsr freesync .... )
L'infinity cache c'est un façon différente d'utiliser le cache du gpu c'est hardware
Les prix amd c'est juste adapté au marché
Les 6000 était plus competitives face au 30 que les 7000 face au 40
Sauf que comme la tech d’nvidia pourra aussi marcher sur les cartes équipés d’unité dédié, les travaux d’AMD ne serve à rien. Je n’ai que peu de doute qu’nvidia le sortira avant et de meilleures qualit.
Déjà quand ils l’annoncent en 2023 c’est qu’ils bossent dessus depuis déjà un certains temps, prenant AMD au dépourvu comme à presque chaque tech pour le gaming. Et la qualité des fonctionnalités chez nVidia à toujours été un cran au-dessus. J’aime bien AMD, mais il faut qu’ils sortent de leur rôle de suiveur de ces dernières années dans le monde du GPU. Allez, ils ont trouvés le "reBAR". Actuellement notre meilleur espoir de venir chatouiller nVidia serait plutôt Intel, ce qui est un constat affligeant vu qu’ils n’en sont qu’à leur 2ème génération de GPU gamer.
Bah non nvidia bloque aux seul geforce gsync dlss cuda ...
Rien ne marche sur les autres gpu
Amd est pour l'open source
Intel fait n'importe quoi les pilotes c'est pas du tout ça et les gpu même sans ça ne sont pas puissant
je crois qu'il te faut relire le billet, car justement NTC est pas bloquée aux seules GeForce. C'et ce qui va rendre la tâche d'AMD ardue, en plus ils sont en retard par rapport à NV sur l'avancée de cette technologie.
Ça serait limite une première du coup la technologie de nvidia a été présenté mais oas en ore disponible il me semble ?
Attention, open source du code et/ou des drivers ne veut pas dire open hardware. Si AMD fait quelque chose qui ne peut exploiter uniquement ses unités à lui et l'architecture RDNA, tu peux publier autant ton code que nécessaire que ton kernel ne sera pas reproductible.
Par ailleurs, NVIDIA pourra proposer une solution qui marche sur les archi rouges, sans pour autant poster son code, et pour autant s'ouvrir à d'autres architectures du coup. Là, ça pourrait la foutre mal à AMD, qui aurait du se bouger avant, c'est tout.
Enfin attendant, rien n'est sorti qu'importe le côté. faire des papiers scientifiques c'est bien, finaliser la R&D c'est mieux, et souvent pas le plus simple.
pas le plus simple non, mais d'un côté t'en as un qui sort des tas de trucs parce qu'il a le budget R&D et qui s'y tient et qui innove, et de l'autre un autre qui suit sans donner l'impression d'avoir une idée lumineuse ni même de cap à suivre, et qui n'a que le côté open pour s'en sortir, avec une qualité moindre reconnue. Moi ça me casse les couilles de voir AMD pédaler sur les GPU et arriver à rien inventer, mais faut croire que le budget est pas mis là dedans, et à terme, je les vois pas se refaire la cerise, RDNA 3 a marqué un recul dans la perf, RDNA 4 sera à son tour largué par Blackwell, quand le fossé devient abyssal, c'est dur de remonter. Surtout que cette fois, la finesse de gravure pourra pas tjs les sauver comme le 7nm de TSMC avait permis à RDNA 2 de taper le faux 8nm de Samsung. Pour la NTC, AMD a 13 mois de retard sur les verts, qui ont les ingés pour parvenir à leur fin.
Je te parle même pas de la latence où les Radeon sont vraiment pas bonnes, la preuve en est Antilag 2 qui arrive... plusieurs années après Reflex. Je rêve aussi d'une marque AMD forte et innovante, mais c'est une boite de CPU, et elle a pas le même modjo avec les GPU, il suffit de voir la valse des ingés GPU depuis 10 ans pour voir qu'il y a un truc qui tourne pas rond... hélas.
Au premier semestre 2023, on discutait sur des forum d'une série de jeux qui avec les effets ray-tracing demandaient beaucoup de ? "Hogwarts-Legacy, TLOU, Frostpunk, Cyberpunk, Returnal". Nvidia étaient pointé du doigts en étant moins généreux en mémoire vidéo et en maintenant encore dans des références milieu de gamme 8go.
Nvidia à finis par répondre à la polémique en présentant d'abord une technologie permettant de stocker plus de données en Vram et rendant les cartes dotés de 8go encore suffisante. Dans les mois qui ont suivi cette présentation et sans qu'on sache si c'est cette technologie qui était prête et à été utilisé par divers développeurs, plusieurs de jeux qui posaient problèmes, tournaient bien mieux sur les cartes de 8go.
Un an plus tard, c'est à dire "aujourd'hui", ce sujet revient dans l'actualité, pourquoi ? Il n'existe depuis longtemps plus de polémique et AMD dotant mieux ses cartes graphique en Vram, ils sont censés être moins concerné alors pourquoi c'est eux qui y reviennent ? Est-ce vraiment pour présenter à leurs tours, une technologie dans l'idée que celle que Nvidia à présenter l'année dernière ou est-ce une excuse pour tout autre chose et faire parler d'eux, qu'ils sont capables de recréer des dérivés de toutes les technologies relative à l'IA de Nvidia ? Quel intérêt AMD a à faire ça, outre le fait de vouloir être reconnu en matière d'IA et de profiter de la bulle spéculatif qui à fait que Nvidia à tout les investisseurs à ses pieds et qu'ils démultiplient la recherche et développement et autre projets ?
Parce que la compression n'a pas un effet uniquement sur la quantité de mémoire utilisée, mais aussi sur l'occupation de la bande passante. La compression à la volée, c'est un moyen de transférer plus de textures plus complexes, sans pour autant devoir utiliser de la mémoire plus rapide.
LA quantité de VRAM c'est une chose, mais souvent les gens oublient que le débit est très important aussi, et qu'il n'est pas toujours compensé par plus de RAM ou de cache. Tu peux augmenter autant que tu veux le réservoir, si le tuyau n'est pas plus large, tu ne vas pas augmenter le débit plus que ça ;)
L'article est super intéressant, car au-delà de la présentation d'AMD on peut surtout retrouver le programme de la conf associée. Il y a des présentations de tous les bords, et il y a d'autres informations comme qui présente pour AMD.
Car là on est sur des gens qui ont déjà présenté un papier très intéressant, et il faut le dire si c'est retenu prometteur, car il permet d'utiliser une méthode de compression par machine learning efficace, simple et peu gourmande, qui accélère le ray tracing. Un papier qui exploite le système de pipeline actuel des RTX 7900xxx, et démontrant que la combinaison des unités hardware permet d'obtenir un résultat correct plus rapidement sur des scènes complexes.
Avant qu'on me dise que je fais du hors-sujet, c'est juste pour souligner 2 points.
Il n'est pas impossible que maintenant, AMD exploite lui aussi des unités de produits matriciels directement sur le GPU, au risque de perdre la compatibilité avec ses "anciens" GPU. En vrai, pas de mal à ça, il serait temps car bon le retard devient un peu lourds sur de nombreux points. Surtout que niveau ML, leurs GPU ne sont pas si mauvais non plus (en faisant un test sur plusieurs modèles populaires, j'ai obtenu des performances assez proches d'une A40 avec une RX7900XTX, mais je n'en ai plus de dispo 😔).
L'autre point, c'est que des modèles légers de compression ajoutés dans le traitement peuvent grandement améliorer les performances à de très faibles pertes pour des scènes lourds et complexes, là où ces pertes sont le moins visibles. Le papier de NVIDIA démontrait que pour un coup faible en latence, le gain en qualité était immense, le tout en s'appuyant sur la même philosophie que ce papier d'AMD (d'ailleurs, ils datent à peu de chose près de la même époque).
Bon reste que comme le dis Thibaut, là à première vue il y a du retard, donc va falloir un grand coup de pied au derche chez les rouge ou alors ça a bossé en secret sur qqchose, ça on devra attendre que ça ne sorte vraiment au-delà des présentations.
Au-delà de l'intérêt évident de la chose, pourquoi AMD communique maintenant sur ce sujet alors qu'à la base, c'est née d'une polémique au premier semestre 2023, qui concernait que Nvidia ? En effet, début 2023, une série de jeux comme : "Hogwarts-Legacy, Frostpunk, Cyberpunk, TLOU, Returnal ..." faisaient explosé la consommation de Vram dés lors qu'on activait le raytracing en 1440p et au-dela. Nvidia était pointé du doigt parce qu'il était le porte drapeau des effets RT mais au lieu de prévoir des gpu milieu de gamme mieux doté en Vram, il maintenait le sacro-saint 8go : "2070, 2070Super, 2080, 3060Ti, 3070, 3070Ti et la 4060".
Nvidia finit par réagir en présentant une technologie à même de stocker plus de données pour que 8go de Vram soit suffiant puis quelques mois plus tard, sans qu'on sache si cette technologie était prête et diffusé aux développeurs, près de la moitié des titres qui posaient problèmes ont été patché et consommait moins de mémoire vidéo.
AMD n'à jamais été concerné car ils dotaient les Radeon 6000, la première génération compatible avec le raytracing, avec bien plus de Vram.
Un an à passé depuis cette polémique et Nvidia n'a jamais reparlé de cette technologie, jamais une autre série de jeux ont fait flamber la consommation en Vram ?
Un an après, AMD communique sur une technologie qui rappelle celle de Nvidia, pourquoi ? Le problème sur les jeux n'est plus d'actualité, les Radeon continuent à être mieux doté en Vram (RX7000 vs RTX4000) et comme plus des 3/4 des joueurs sur desktop et plus sur laptop ont des cartes/puce Nvidia, on ne comprend pas en quoi ils sont concernés ?
Est-ce vraiment un travail de bon samaritain ou est-ce une mise en scène en mode "regardez-moi", j'ai comme Nvidia, une longue expertise en IA, apportez-moi vos capitaux, que je profite à mon tour de la bulle spéculative en matière d'intelligence artificielle ?