Protocole de test
Ce test visant à départager les GPU entre eux, nous tâchons de les mettre en situation en limitant autant que possible les influences d'autres facteurs. Nous optons donc pour une configuration particulièrement musclée, avec un Core i9 de génération Raptor Lake. Nous désactivons l'Hyper-Threading afin de privilégier la répétabilité des mesures et désactivons un cœur efficient sur deux, pour privilégier les plus rapides en libérant de l'enveloppe de puissance, tout en disposant de suffisamment de threads pour les moteurs 3D les plus gourmands à ce niveau. Enfin, nous activons le Resizable BAR dans le bios, afin de profiter de cette fonctionnalité pour les cartes le supportant.
• Hardware
Intel Core i9-13900KS (8P+4E+4E / HT Off)
ASUS MAXIMUS Z690 Hero
G.Skill Trident Z5 [2 x 16 Go 6000@36-36-36-2T]
Corsair MP 600 - 1 To (OS) / Corsair MP 600 Core - 4 To (Jeux)
BeQuiet! Dark Power Pro 12 - 1200 W
Asus PG43UQ
Asus nous a également procuré un moniteur ROG Swift PG43UQ pour nos tests. Ce modèle UHD d'une diagonale élevée, permet de mieux traquer les éventuels défauts ou optimisations par trop agressives des concepteurs de GPU, dans leurs tentatives pour pousser toujours plus loin les performances. L'Adaptive Sync est désactivée et nous utilisons un fréquence de rafraîchissement de 144 Hz pour les cartes capables d'assurer un tel débit en UHD.
Nous avons réuni pour ce test le panel de cartes suivantes. Entre parenthèses, sont indiquées les fréquences GPU et mémoire maximales en MHz. Pour rappel, la fréquence GPU variera plus ou moins largement à la baisse, pour les cartes dotées d'un "boost" par rapport à cette valeur indiquée, selon la charge, température et/ou consommation. Cette indication n'est donc là qu'à titre purement informatif et ne correspond pas forcément à la fréquence réellement appliquée durant les tests.
AMD Radeon RX 6800 (2 232/1 988)
AMD Radeon RX 6800 XT (2 425/1 988)
AMD Radeon RX 6900 XT (2 532/1 988)
AMD Radeon RX 7900 XT MBA (2 952/2 500)
NVIDIA GeForce RTX 3070 Founders Edition (1 980/1 1750)
NVIDIA GeForce RTX 3080 Founders Edition (1 980/1 188)
NVIDIA GeForce RTX 3090 Founders Edition (2 025/1 219)
Nvidia GeForce RTX 4070 Founders Edition (2 820/1 313)
Gainward RTX 4070 Ti Phoenix (2 880/1 313)
NVIDIA GeForce RTX 4080 Founders Edition (2 805/1 400)
GeForce RTX 4070 FE
• Software
- Windows 11 Pro 22H2
- AMD Adrenalin 23.4.1
- NVIDIA 531.42 (presse)
Nous utilisons Windows 11, ce qui implique nécessairement une version 64-bit afin d'exploiter une quantité conséquente de mémoire vive et ne pas limiter les jeux qui en auraient besoin à ce niveau. Les dernières mises à jour de l'OS et de DirectX sont bien sûr installées avant de procéder aux séries de tests des cartes graphiques (pas d'évolution logicielle, hormis les pilotes graphiques bien entendu, entre toutes les cartes composant l'échantillon retenu) .
Côté pilotes, nous employons les derniers disponibles au moment des mesures. A noter qu'AMD a enfin unifié ses pilotes destinés aux RX 7000 avec le reste de sa gamme. Côté vert, nous utilisons les pilotes mis à disposition de la presse, et qui sont les seuls à prendre en charge la RTX 4070 durant la phase de pré-lancement.
Les réglages par défaut sont utilisés pour tous les constructeurs : ils impliquent une optimisation du filtrage trilinéaire et de la tessellation (uniquement les RADEON pour cette dernière), qui conduit à limiter le facteur maximal de cette dernière, afin d'éviter une amplification géométrique risquant d'engorger le GPU. Voici ce que cela donne pour les cartes du caméléon :
Réglages pilotes Nvidia
Réglages par défaut des pilotes GeFORCE
Et ci-dessous les réglages par défaut des RADEON :
Pilotes AMD 23.4.1
Réglages par défaut des pilotes RADEON
• Protocole
La configuration est installée dans un boîtier Cooler Master Cosmos II, disposant d'un ventilateur 200 mm en façade, un 140 mm à l'arrière et deux 140 mm au sommet. Concernant les différents benchmarks utilisés, nous exécutons ces derniers au minimum 3 fois et retenons le meilleur score de la série. Pour les performances en jeu, les résultats ont été obtenus via Frameview 1.4.8323.32104943 (une interface graphique pour PresentMon) sur un déplacement reproductible, et correspondent à la moyenne de 3 "passes" minimum. La température de la pièce est maintenue à 20°C durant tous les tests.
L'échantillon de test est composé au total de 23 jeux, ils utilisent un moteur 3D différent, afin de mesurer l'efficacité de nos cartes dans diverses situations. Cela nous permet de tester 20 jeux en rastérisation et 17 utilisant le Ray Tracing. Nous essayons de suivre l'actualité vidéoludique en remplaçant régulièrement des références par de nouvelles, en nous assurant que les titres choisis conviennent à cet exercice (répétabilité, absence de limitation, etc.). Nous avons retenu la définition 2560 x 1440 (QHD) qui sied à cette carte. Enfin, les mesures sont réalisées avec des niveaux de qualité précisés dans les graphiques.

La carte est très bien techniquement
Le prix est correct mais ne révolutionne pas le marché par contre
Ça peut être encore intéressant de trouver un bon plan d'une carte d'une ancienne gen
Merci pour le test très réussie
Merci pour le test.
Ca m'avais manqué :-)
Merci à toi. Par contre pour les GPU il n'y a pas eu d'interruption dans les tests malgré le changement de site, vu l'absence de lancement depuis la 4070 Ti, hormis celui-ci 😉
la concurrence d'amd est au abonnée absent
navi 32 meme en rumeur il y a rien en ce moment ça sent pas bon
Que c'est bon de retrouver vos tests toujours au top 😍 Merci tout plein
Bonne petite carte quoi qu'il en soit et dans l'air du temps niveau dépense d'énergie, sans compte que c'est enfin une carte qui ne prend pas toute la place dans le boitier. Je n'aurais pas la Ti, je me demande si je ne me serais pas jeter sur celle-la. Toujours très (trop ?) chère mais qui fait bien le taff.
Si cela pouvait faire baisser le reste également...
On reprend les tests là ou on les avait laissé... et sur un site tout beau ! Bravo et merci Eric pour le test, et Nico pour le site :)
Hé oui ! On n'oublie par Cristallix / Jordan qui a bien aidé pour ces joooolis graphes :).
Sinon mi-figue mi-raisin cette carte. C'est performant et enfin avec une consommation raisonnable, mais à 659 € minimum (ce qui est un prix d'appel, il ne faut pas se le cacher...), ça me semble encore bien cher... merci le COVID ?
Test complet et visuellement parfait. Pour ce qui est de la carte hors mis le DLSS3 et sa consommation sobre, elle ne fait pas d'ombre aux RTX 3080/3080 Ti. Elle se retrouve à -16% de la TI du fait de son bridage à 200W. On verra si les AIB sortent des modèles plus testiboulés.
Si on compare avec la 6800xt sortie au même prix y a + de 2 ans c'est vraiment pas folichon, moins de Vram, même perf hors RT. Heureusement elle consomme bien moins (100w de moins).
C'est vraiment la stagnation du tarif qui dérange, des 3080/6800XT à 649-699€ on en as vu passer ses derniers mois, donc elle n'apporte pas grand chose pour une nouvelle génération 2 ans plus tard (en termes de perf/prix). C'est vraiment le points noir de cette génération car en soit, cette 4070 est plutôt réussi je dirais mais trop chère.
Le problème, c'est que des 3080 et 6800 XT, on en trouve de moins en moins à bon tarif, donc on a au moins la certitude d'avoir une offre équivalente en rastérisation dans cette gamme de prix et avec des avantages non négligeables (conso, encodage AV1, DLSS 3) quand elles disparaitront. Comme je l'ai écrit plusieurs fois, je pense qu'AMD et Nvidia doivent payer très cher les Wafer 4/5 nm, du coup, sauf guerre des prix entre eux, je crains que cette génération reste chère. Au moins le ratio perfs/€ s'améliore par rapport à la gamme supérieure, ce n'était pas le cas de la RTX 4080.
Heu, dur à trouver des 6800 XT ? Pendant 6 jours on pouvait avoir une Carte graphique Sapphire Pulse AMD Radeon RX 6800 XT Gaming OC à 569€ chez RdC vendue par RdC.
Pourquoi du coup si les wafer sont si cher faire les die si grand ?
Je m'explique sachant que le ga104 a un bus 192 bits et du coup 12 go de vram quel intérêt de faire une 4070 ti avec ?
Mettre 4 gpc et non 5 coûterait moins cher à produire
Une carte aussi puissante que la 4070 ti aurait mérité un ad103 castré bus 224 bits comme ça 14 go
Pour appuyer ce que vous dites
https://cdn.mos.cms.futurecdn.net/AtNozaoGiNMBtrnDWTADSQ-970-80.png.webp
Et ce n'est pas prêt de s'arranger. Pour la SRAM, la loi de Moore est quasiment terminé, et ne bénéficiera plus de réductions de tailles sur les nodes plus avancé. Ça veut dire des surfaces équivalentes mais des mm² qui coûteront plus chère sur les générations suivantes, pour une même quantité de cache. D'où l'intérêt des chiplets et de techno de gravure différentes pour chaque partie, adopté par AMD. NVidia aussi devrait s'y mettre.
A part une meilleures perfs en RT (et encore), cette carte ne met certainement pas la 6800 XT de Novembre 2020 à la retraite... Surtout vu son prix !! Et elle risque de moins bien vieillir avec juste 12Go de VRAM plus lents en bande passante que les 3070Ti.
Elle consomme 100 W de moins en charge, propose un encodeur AV1 et le DLSS 3. La bande passante mémoire tu ne peux pas la comparer directement à celle de la 3070 Ti, vu la multiplication du cache L2 entre les deux puces. Enfin, 12 Go, c'est loin d'être insuffisant, il ne faut pas oublier que les plateformes de développement, ce sont les consoles. Avec la génération actuelle qui dispose de 16 Go unifiés, si tu enlèves les besoins du CPU, tu as grand max 10/12 Go disponibles pour le GPU. Ca n'empêchera pas certains titres de faire de la surenchère avec des textures XXL, mais généralement la différence ne sera pas flagrante entre celle stockées dans 12 Go et d'autres dans 16 Go.
Et pour le RT, il n'y a vraiment pas photo, les cas où la 6800 XT fait illusion en performance, ce sont ceux des jeux où les effets sont tellement réduits qu'ils ne se voient pas, ce qui lui permet lorsqu'elle a suffisamment d'avance en rastérisation pure, de rester devant en hybride (là aussi c'est clairement expliqué dans le dossier). Par contre, dès que la charge RT monte, les RDNA 2 s'effondrent, leurs unités dédiées n'étant pas au niveau. Des 6800 XT, il y en a de moins en moins, (oui ok tu en trouves encore ponctuellement à bon prix), mais ça sera de moins en moins le cas, et payer au même prix voir plus chère une 6800 XT qu'une 4070, ne me semble pas une bonne idée, d'où la mise à la retraite. Maintenant l'occasion fait le larron, et avec un très bon prix, n'importe quelle référence peut devenir une excellente affaire.