Choix Gpu

Choisir une carte graphique n'est jamais chose aisée. Quel prix ? Pour quel usage ? Nous vous aidons à y voir clair sur le marché des GPU en 2023.

Le monde du GPU n'est pas qu'une question de choix de couleur. La carte graphique est un composant à adapter à sa configuration, son but et les technologies que l'on désire utiliser. Voilà pourquoi ce dossier va vous permettre de faire votre choix en fonction de la définition désirée, du prix et de la possibilité, ou pas, d'accéder à la rasterization et au ray tracing.

Notre but étant de rendre la lecture de ce tableau la plus aisée possible au plus grand nombre, prenons deux secondes pour définir quelques termes.

Définition : La définition de nos écrans ou moniteurs PC correspond au nombre de pixels (pour picture elements en anglais) qu'ils peuvent afficher. Elle s'exprime par le produit du nombre de pixels verticaux affichés par le nombre de pixels horizontaux, soit dans notre cas 1920x1080 (1080p ou HD 1080), 2560x1440 (1440p ou QHD) et 3840x2160 (2160p ou UHD ou encore 4K pour des raisons marketing). La définition est souvent confondue avec la résolution, mais cette dernière prend en compte la taille de l'écran pour définir le nombre de pixels qu'il peut afficher sur une unité de longueur (communément le pouce).

Rastérisation : La rastérisation, aussi appelée matricialisation, consiste en un procédé de conversion d'une image vectorielle en une image matricielle. Pourquoi ? Pour l'afficher sur un écran en de jolis polygones créant l'univers de nos jeux préférés. Le principe de base est le suivant : le GPU va d'abord générer des formes géométriques de base (triangles) qui seront alors découpés/décomposés en pixels. Cette opération porte le nom de, on vous le donne en mille, de rastérisation, exécutée par des unités dédiées.

Ray Tracing : C'est un mode de rendu, utilisé dans l'imagerie de synthèse depuis des années, qui est une simulation physique des rayons de lumière. C'est le parcours inverse de la lumière qui est simulé en calculant les éclairages de la caméra vers les objets puis en dernier vers les lumières. Le contraire de ce qui se passe dans la vraie vie avec vos vrais yeux. Bien plus gourmand que la rastérisation, mais apportant une précision supérieure des éclairages, elle n'a commencé à être adoptée en jeu qu'au travers d'un rendu hybride, mixant rastérisation et lancer de rayons, accéléré matériellement depuis l'avènement des GPU Turing de NVIDIA (RTX 2000). A noter qu'il est possible de réaliser ce type de rendu sur un GPU ne disposant pas d'unités accélératrices dédiées, mais vu la charge de calculs à réaliser, les performances sont asthmatiques (cf. les GTX 1000 qui disposent d'un pilote Ad Hoc).

Ci-dessous, nous vous proposons une sélection de cartes graphiques ainsi que leur adéquation avec les définitions données et mode de rendu. Il s'agit bien entendu d'une simplification à l'extrême, mais cela devrait vous permettre d'opter pour un modèle donné, selon vos attentes, préférences en matière de marques et bien entendu budget.

1080p 1440p 2160p
Rasterisation Ray Tracing Rasterisation Ray Tracing Rasterisation Ray Tracing
Radeon RX 6600
Arc A750
Radeon RX 6650 XT
GeForce RTX 3060
GeForce RTX 3060 Ti
Radeon RX 6750 XT
GeForce RTX 3070
Radeon RX 6800 XT
GeForce RTX 4070 Ti
Radeon RX 7900 XTX
GeForce RTX 4090

Hnco


  • Pourquoi ne pas avoir inclut la RX 6700 (sans XT), qui permet un très bon rapport qualité/prix pour du 1440p (sans RT) ? 

    • Parce qu'on en trouve difficilement et que le tarif n'est pas toujours intéressant du coup. Mais oui c'est une alternative très intéressante si bon prix.

  • Comme vient de le dire Eric, son prix est très volage, passant de 350 à 450 € souvent. Les autres cartes ne font pas autant le yoyo. Mais si y a moyen, à son prix le plus bas, elle est excellente. Avec les mêmes forces et faiblesses de RDNA2

  • Disons que d'accepter de mettre plus de 500E dans un GPU (encore plus vrai pour un GPU "Très" Haut de Gamme complet), c'est accepter que les prix ne cessent d'augmenter comme on l'a bien vu ces dernières années. Autant dire qu'il n'y a pas de réels progrès en rapport/qualité/prix en vrai.

    Il en va de même pour les performances/consommation pour des cartes à pas plus de 300W, les bonds sont de plus en plus petits.

    Après, si on devait acheter un GPU maintenant, la bonne affaire est clairement la RX 6800 pour 500E (Novembre 2022), qui tiendra bien plus longtemps qu'une RTX 3070 (530E Mars 2023).

  • Mouais mais désolé les AMD sont incapables de gérée le raytracing en 1440p comme exemple la 6800 XT ou alors avec des fps excessivement faible.

    • Relis la page dédiée à la RX 6800 XT, il est précisé avec FSR et dans les jeux faisant un usage restreint du RT 😉.

  • Bon dossier 

    Je trouve juste qu'il y a trop de carte 

    La 6750xt et la 3070 je les trouves inutile 

    La 6750 xt fait moins bien en rt et la 3070 le gain est faible malgré le surcoup 

    Pour moi c'est 3060 ti ou carrément 6800 xt et au dessus si on a le budget 

    • De toute façon en neuf il n'y a pas grand chose d'intéressant en ce moment. Par contre en occasion ça commence à valoir franchement le coup ! Je me suis pris une 2080ti à 280in perso :D

  • Maintenant que l'on peut enfin trouver quelques cartes à des tarifs intéressants, un autre détail me chagrine : la conso. J'ai vu des RX 6700 vendues une bouchée de pain, des 6650 XT à des prix intéressants et même de la 3060 Ti mais à chaque fois, ça demande 650 W en alim. Quand on a une bonne alim' 550 W, c'est frustrant, pas envie de changer alim + GPU, ça casse le budget.

    • Pourrais-tu partager tes spots de chasse au GPU d'occaz stp ? J'avoue qu'une nouvelle CG @pascher (donc un prix "normal") pour faire suite à ma GTX 1070 ne serait pas de refus.

      Pour ce qui est des alims, est-ce vraiment un prérequis avéré ? Quand je vois que mon 3600X (4,2 GHz @ 1.175V) et ma GTX  consomment 88W (donné à 95W) et 136W (donnée à 150W de mémoire) en charge lourde, ça laisse de la marge (même avec tout le reste) avec une alim de 550W. En l'état je ne vois pas comment une carte à 200 - 250W ne passerait pas (mais je reste ouvert à une démonstration empirique ^_^).

11 commentaires

Laissez votre commentaire

En réponse à Some User