Av1 Logo

La qualité des encodages vidéo par le CPU est-elle menacée par les GPU d'AMD, Intel et NVIDIA ? Voilà une bonne question !

Jusqu'à présent, encoder une vidéo se faisait essentiellement par le processeur central, ou la carte graphique depuis que les constructeurs de GPU ont décidé d'utiliser la puissance de leurs bébés pour autre chose que du jeu 3D. Pour autant, ce qui est important dans cette pratique, c'est la qualité du rendu, qui se doit d'être le plus fidèle possible du modèle original, tout en consommant moins de bits ressources et de place. C'est possible grâce à divers CODECS, acronyme de Codage/Décodage. Encoder sur CPU prend plus de temps, mais la qualité est excellente, une restitution visuelle presque à l'identique. Le faire sur GPU est plus compliqué, pas techniquement, mais le rendu n'est pas toujours excellent : il faut faire des arbitrages entre qualité et taille de la vidéo encodée. Du moins, c'était le tableau plus ou moins dressé !

AMD (VCE), NVIDIA (NVEnc/NVDec) et Intel (QSV) ont leurs propres moteurs hardware de rendu d'encodage, qui fonctionnent avec le H.264 (le plus populaire), le H.265 (meilleur, mais pas massivement adopté), et l'AV1 (le futur d'après Tomiche qui en a fait une vidéo consultable en dessous du tableau). Tom's Hardware a voulu savoir quelle était la meilleure solution pour encoder une vidéo H.264 (AVC), HEVC (H.265) et AV1 sur GPU sans perdre en qualité, via le logiciel ffmpeg. Nos confrères ont pris plusieurs cartes de générations différentes pour mener à bien leurs observations. Les voici :

AMD : RX 590, RX Vega 56, RX 5700 XT, RX 6900 XT, RX 7900 XTX
Intel : Arc 770 et Core i9-13900K UHD 770
NVIDIA : GTX 1080 Ti, GTX 1650, RTX 2080 Ti, RTX 3090 et RTX 4090

Toutes les cartes du panel font du décodage AV1 globalement. Dans le lot, seule la RTX 4090 est capable de faire de l'encodage matériel AV1 grâce à ses deux moteurs, ce qui fait gagner du temps étant donné la grosse charge nécessaire pour traiter les flux et le bitrate (unité de qualité par unité de temps). Toutes les autres puces peuvent faire de l'encodage AV1, logiciel uniquement puisqu'elles sont dénuées de la capacité de le gérer en hardware. Ce chapitre est une explication rapide à certaines incompréhensions que vous pourrez lire ou entendre sur la toile et YouTube, mais corrigées par Tomiche !

Notre confrère a également fait varier le bitrate, la qualité donc, ainsi que la définition. Plus vous augmenterez le bitrate, plus votre vidéo sera "qualitative", mais plus son encodage sera long. De la même manière, plus vous augmentez la définition de votre vidéo, donc le nombre de pixels à traiter, et plus votre encodage durera. Dans cette optique, vous comprendrez, comme souvent d'ailleurs, qu'une accélération matérielle est plus efficace qu'une gestion purement logicielle. La spécialisation n'est pas toujours un mauvais choix.

Si on prend l'exemple de la RTX 4090, on peut se dire que c'est chouette de pouvoir encoder bien plus vite que n'importe quel matos sur le marché, faut-il encore que le résultat visuel soit satisfaisant. Tom's a également fait des captures d'écran pour voir les différentes qualités sur chaque carte utilisée. Au final, il en ressort plusieurs enseignements.

Premièrement, plus généralement, l'AV1 devrait s'imposer au détriment du H.265, ne serait-ce parce qu'il est gratuit et supporté par de grands noms, tout en offrant une qualité identique au H.265. De plus, la mort du H.264 semble actée et interviendrait bientôt puisque c'est le moins bon de tous et le plus vieux accessoirement. Deuxièmement, la RTX 4090 gagne haut la main le combat surtout AV1, mais tout n'est pas forcément rose pour les clients. Pourquoi ? Parce que seules les RTX 40 à partir de la RTX 4070 Ti ont deux moteurs d'encodage AV1, elles sont très chères, tandis que les RTX 40 jusqu'à la RTX 4070 n'en auraient qu'un a priori, impliquant des temps de traitement doublés par rapport aux ainées. À vérifier cependant.

Troisièmement, derrière NVIDIA, c'est Intel. Ses cartes Arc font le boulot et constituent une meilleure option qu'AMD sur le traitement des 3 CODECS. Sur le test, les rouges sont à la traine. Certes, les cartes RDNA 3 offrent un rendu excellent jamais vu sur une Radeon, mais la qualité et le traitement arrive juste au niveau de la GTX 1080 Ti, basée sur Pascal, et sortie il y a presque 7 ans. Il y a du mieux côté rouge, c'est évident, mais ces améliorations ne profiteront qu'aux seules cartes RDNA 3, comme l'AV1 ne profitera qu'aux seules RTX 40.

Espérons que les choses se décanteront, que l'AV1 se démocratisera plus encore, et que les prochaines générations de GPU, peu importe la couleur rouge, bleue ou verte, sauront offrir une accélération hardware sans avoir à taper dans du GPU à 1000 € minimum. En ce sens, pour ce qui concerne le présent, les RTX 4070 et inférieur devraient constituer également une solution intéressante pour l'AV1 pour un coût bien moindre... En théorie, ce pays imaginaire où tout se passe si bien !

Lire le test instructif !

M Galonnier


  • Oh purée, j'ai presque l'impression d'avoir enfin compris quelque chose à l'encodage de vidéos ! 🤩

    Merci Titi, espérons que tout ça progresse rapidement et que les rouges finiront par rattraper un jour le retard...

  • J'avais peur que ça soit indigeste un peu. Y a aussi la vidéo de Tomiche qu'est cool pour ça :)

  • Petite question pour bien comprendre, je comprends vite, mais il faut m'expliquer longtemps. ^^" Le fait d'avoir un codage matériel avec la 4090 implique un gain qualitatif ou simplement un gain de latence (temps entre le moment de la capture et le moment où les viewers le voient) comparé à un autre GPU ? Sans parler de la charge de travail en elle-même, car le contexte que j'ai en tête concerne un PC de stream/d'encodage, donc les ressources sont intégralement dédiées à OBS et l'encodage.

    • principalement du temps, et du fait d'un décodage hard par les RTX 40, un gain aussi en fluidité lors des streams par exemple, puisque les unités dédiées vont bosser et laisser le CPU ou les cuda cores faire leur boulot de gaming :)

      • Ok parfait :)  Merci pour ta réponse :) Donc si je comprends bien pour un PC dédié à l'encodage qui n'aura pas à partager ces perfs avec le gaming une ARC fera largement le boulot (contre une latence un peu plus élevée qu'en h264). Mais sur un PC unique dédié au stream ET au gaming, on a encore peu d'alternatives à moins de 1600€ pour le moment pour profiter de l'AV1 sans grosse contrepartie vis-à-vis des lags in game ou sur le live. C'est bien ça ?

      • ben les RTX 4070 Ti ont les 2 moteurs d'encodage AV1, elles sont plus autour des 1000 €. Les RTX 4070 devraient passer sur 1 moteur, ce qui devrait être plus efficace que de l'encodage logiciel. Toutes les autres cartes n'ont pas d'encodeur matériel AV1, mais les Arc sont meilleures que les AMD d'après les mesures de l'article

      • Ok note à moi-même : ARC pour commencer, puis 4070 quand je gagnerai au loto (oui je suis optimiste MDR) pour gagner en latence sur le PC de stream. Par contre pour les gens qui stream et jouent sur le meme pc... 4070ti/4080/4090 plutôt conseillées :)

7 commentaires

Laissez votre commentaire

En réponse à Some User