Amd Schema Ntbc

Le problème de la taille des textures ne peut pas toujours être résolu par l'explosion de la quantité de VRAM, les calculs ont aussi besoin d'être allégés !

En 2023, il y a plus d'un an, NVIDIA avait montré ses travaux concernant une nouvelle méthode de compression  des textures dans les jeux, la Neural Texture Compression. Le but, évident, est de diminuer le volume des textures dans les jeux tout en améliorant la qualité visuelle de celles-ci. Certes, les RTX ont des unités dédiées pour l'IA ce qui les rend toutes potentiellement capables de faire de la NTC, mais la méthode NVIDIA fonctionne aussi avec les autres cartes possédant des unités dédiées, dont les cartes RDNA 3 ayant des unités de calculs matriciels connues sous le nom de Matrix Accelerator. Certes, AMD ne les exploite pas, mais elles y sont.

L'idée était sûrement bonne puisque près d'un an plus tard, AMD annonce bosser sur une méthode dont la philosophie est identique : réduire la taille des textures et améliorer le rendu. Le nom ? Neural Texture Block Compression, on peut difficilement faire plus proche que le nom choisi par NVIDIA. Autre point, qu'AMD garde flou et qu'il expliquera lors de l'Eurographics Symposium on Rendering in London, c'est comment ça fonctionne ? Techniquement, on ne devrait pas être très éloignés des travaux des verts, mais il y a quand même un point qui interroge. Il y a bien Neural dans le nom de la technologie AMD, lui qui traditionnellement évite l'IA sur matériel dédié. Est ce qu'AMD va utiliser enfin ses Matrix Accelerator intégrés aux cartes RDNA 3 et donc limiter sa technologie à cette seule génération, ou va-t-il sortir un algo qui fonctionne sur toutes les Radeon via pilote, au risque de ne pas obtenir un résultat satisfaisant, à la manière d'un FSR 3 qui a pris 18 mois avant d'arriver à être un peu mieux.

Comment sera accueillie la chose ? Si la solution de NVIDIA est de meilleure qualité et qu'elle fonctionne sur RDNA 3, ça sera dur pour AMD de réussir cette fois. D'un autre côté, nous ne savons pas quand cela arrivera, mais il y a fort à parier que le premier qui sortira les marrons du feu en premier remporte l'adhésion du secteur. De plus, il se pourrait que l'arrivée des cartes Blackwell entraine celle du DLSS 4 ou de la NTC, et cela, nous espérons qu'il en sera touché un mot au SIGGRAPH à partir du 28 juillet.

Amd Schema Ntbc

M Galonnier


  • Les 2 choses intéressantes c'est le gain attendu et si c'est transparent pu non pour les développeurs 

  • Si on met de côté la faisabilité de la chose, c'est sa standardisation qui interroge ? Parce qu'une fois qu'un pendant de Directx rend transparent qu'on utilise la techno de Nvidia ou AMD sur telles ou telles carte, après encore faut-il que ce procédé devient un standard utilisé par tout les futurs jeux  mais aussi qu'on trouve un moyen d'automatisé son application aux anciens ?

    Quid ensuite de la volonté réelle des deux marques de faire profiter cette technologie aux joueurs car si on prend l'exemple de l'Infinity-Cache, AMD à finalement vendu ses Radeon 6000 à un prix comparative au RTX3000 et ce n'est que quand ils ont fait la bourde de produire trop de 6000 alors qu'ils lançaient les 7900XT(X), qu'ils ont pu vendre à prix très bas, tout en maintenant un minimum de marge.

    • Tu confonds un peu tout 

      La c'est une nouveauté logiciel amd est très ouvert à pousser pour que ça devienne un standard ( mantle fsr freesync .... )

      L'infinity cache c'est un façon différente d'utiliser le cache du gpu c'est hardware 

      Les prix amd c'est juste adapté au marché

      Les 6000 était plus competitives face au 30 que les 7000 face au 40 

      • Sauf que comme la tech d’nvidia pourra aussi marcher sur les cartes équipés d’unité dédié, les travaux d’AMD ne serve à rien. Je n’ai que peu de doute qu’nvidia le sortira avant et de meilleures qualit.

        Déjà quand ils l’annoncent en 2023 c’est qu’ils bossent dessus depuis déjà un certains temps, prenant AMD au dépourvu comme à presque chaque tech pour le gaming. Et la qualité des fonctionnalités chez nVidia à toujours été un cran au-dessus. J’aime bien AMD, mais il faut qu’ils sortent de leur rôle de suiveur de ces dernières années dans le monde du GPU. Allez, ils ont trouvés le "reBAR". Actuellement notre meilleur espoir de venir chatouiller nVidia serait plutôt Intel, ce qui est un constat affligeant vu qu’ils n’en sont qu’à leur 2ème génération de GPU gamer.

        • Bah non nvidia bloque aux seul geforce gsync dlss cuda ...

          Rien ne marche sur les autres gpu

          Amd est pour l'open source 

          Intel fait n'importe quoi les pilotes c'est pas du tout ça et les gpu même sans ça ne sont pas puissant 

          • Bah non nvidia bloque aux seul geforce gsync dlss cuda ...

            Rien ne marche sur les autres gpu

            Amd est pour l'open source 

            Intel fait n'importe quoi les pilotes c'est pas du tout ça et les gpu même sans ça ne sont pas puissant 

            Édité le 28 Juin 2024 - 13:24 par lulu-nico .

            je crois qu'il te faut relire le billet, car justement NTC est pas bloquée aux seules GeForce. C'et ce qui va rendre la tâche d'AMD ardue, en plus ils sont en retard par rapport à NV sur l'avancée de cette technologie.

          • Bah non nvidia bloque aux seul geforce gsync dlss cuda ...

            Rien ne marche sur les autres gpu

            Amd est pour l'open source 

            Intel fait n'importe quoi les pilotes c'est pas du tout ça et les gpu même sans ça ne sont pas puissant 

            Édité le 28 Juin 2024 - 13:24 par lulu-nico .

            je crois qu'il te faut relire le billet, car justement NTC est pas bloquée aux seules GeForce. C'et ce qui va rendre la tâche d'AMD ardue, en plus ils sont en retard par rapport à NV sur l'avancée de cette technologie.

            Ça serait limite une première du coup la technologie de nvidia a été présenté mais oas en ore disponible il me semble ?

          • Attention, open source du code et/ou des drivers ne veut pas dire open hardware. Si AMD fait quelque chose qui ne peut exploiter uniquement ses unités à lui et l'architecture RDNA, tu peux publier autant ton code que nécessaire que ton kernel ne sera pas reproductible.

            Par ailleurs, NVIDIA pourra proposer une solution qui marche sur les archi rouges, sans pour autant poster son code, et pour autant s'ouvrir à d'autres architectures du coup. Là, ça pourrait la foutre mal à AMD, qui aurait du se bouger avant, c'est tout.

            Enfin attendant, rien n'est sorti qu'importe le côté. faire des papiers scientifiques c'est bien, finaliser la R&D c'est mieux, et souvent pas le plus simple.

          • Attention, open source du code et/ou des drivers ne veut pas dire open hardware. Si AMD fait quelque chose qui ne peut exploiter uniquement ses unités à lui et l'architecture RDNA, tu peux publier autant ton code que nécessaire que ton kernel ne sera pas reproductible.

            Par ailleurs, NVIDIA pourra proposer une solution qui marche sur les archi rouges, sans pour autant poster son code, et pour autant s'ouvrir à d'autres architectures du coup. Là, ça pourrait la foutre mal à AMD, qui aurait du se bouger avant, c'est tout.

            Enfin attendant, rien n'est sorti qu'importe le côté. faire des papiers scientifiques c'est bien, finaliser la R&D c'est mieux, et souvent pas le plus simple.

            pas le plus simple non, mais d'un côté t'en as un qui sort des tas de trucs parce qu'il a le budget R&D et qui s'y tient et qui innove, et de l'autre un autre qui suit sans donner l'impression d'avoir une idée lumineuse ni même de cap à suivre, et qui n'a que le côté open pour s'en sortir, avec une qualité moindre reconnue. Moi ça me casse les couilles de voir AMD pédaler sur les GPU et arriver à rien inventer, mais faut croire que le budget est pas mis là dedans, et à terme, je les vois pas se refaire la cerise, RDNA 3 a marqué un recul dans la perf, RDNA 4 sera à son tour largué par Blackwell, quand le fossé devient abyssal, c'est dur de remonter. Surtout que cette fois, la finesse de gravure pourra pas tjs les sauver comme le 7nm de TSMC avait permis à RDNA 2 de taper le faux 8nm de Samsung. Pour la NTC, AMD a 13 mois de retard sur les verts, qui ont les ingés pour parvenir à leur fin.

            Je te parle même pas de la latence où les Radeon sont vraiment pas bonnes, la preuve en est Antilag 2 qui arrive... plusieurs années après Reflex. Je rêve aussi d'une marque AMD forte et innovante, mais c'est une boite de CPU, et elle a pas le même modjo avec les GPU, il suffit de voir la valse des ingés GPU depuis 10 ans pour voir qu'il y a un truc qui tourne pas rond... hélas.

      • Tu confonds un peu tout ...

        Au premier semestre 2023, on discutait sur des forum d'une série de jeux qui avec les effets ray-tracing demandaient beaucoup de ? "Hogwarts-Legacy, TLOU, Frostpunk, Cyberpunk, Returnal". Nvidia étaient pointé du doigts en étant moins généreux en mémoire vidéo et en maintenant encore dans des références milieu de gamme 8go.

        Nvidia à finis par répondre à la polémique en présentant d'abord une technologie permettant de stocker plus de données en Vram et rendant les cartes dotés de 8go encore suffisante. Dans les mois qui ont suivi cette présentation et sans qu'on sache si c'est cette technologie qui était prête et à été utilisé par divers développeurs, plusieurs de jeux qui posaient problèmes, tournaient bien mieux sur les cartes de 8go.

        Un an plus tard, c'est à dire "aujourd'hui", ce sujet revient dans l'actualité, pourquoi ? Il n'existe depuis longtemps plus de polémique et AMD dotant mieux ses cartes graphique en Vram, ils sont censés être moins concerné alors pourquoi c'est eux qui y reviennent ? Est-ce vraiment pour présenter à leurs tours, une technologie dans l'idée que celle que Nvidia à présenter l'année dernière ou est-ce une excuse pour tout autre chose et faire parler d'eux, qu'ils sont capables de recréer des dérivés de toutes les technologies relative à l'IA de Nvidia ? Quel intérêt AMD a à faire ça, outre le fait de vouloir être reconnu en matière d'IA et de profiter de la bulle spéculatif qui à fait que Nvidia à tout les investisseurs à ses pieds et qu'ils démultiplient la recherche et développement et autre projets ?

         

13 commentaires

Laissez votre commentaire

En réponse à Some User