Avant de commencer, un mot pour vous indiquer que nous introduisons également un nouveau type de graphiques dynamiques, saveur histogrammes superposés cette fois (là aussi, il est possible de filtrer les séries via la légende). La fonctionnalité tri n'est toutefois plus accessible (pour le moment) pour ce type de graphiques. Elle demande en effet un temps de développement supplémentaire (afin choisir sur quelle série appliquer le tri) que ne pouvait assurer pour l'heure notre Nicolas national, qui a déjà sacrifié une bonne partie de ses vacances pour vous proposer ces nouvelles versions. Mais promis, elle sera de retour avant la saint glinglin.
Bon finalement Nicolas s'est déchaîné pour réintroduire la fonction tri pour les graphiques à séries multiples, l'attente n'aura donc pas été longue !
Cela nous permet d'afficher la valeur 1% Low (les 1% d'images par seconde les plus faibles) en sus de la moyenne. Notez tout de même que cette valeur est bien moins répétable que la moyenne, puisque l'échantillon de valeurs est réduit au centième et que de ce fait, il est plus sensible à des anomalies pouvant survenir (tâches se lançant en fond, etc.). Il faudrait pour fiabiliser cela, augmenter significativement le nombre de "passes de tests" (nous en réalisons systématiquement trois), ce qui n'est pas compatible avec les délais de réalisation d'un dossier tel que celui-ci. Gardez donc ce point à l'esprit lors de la comparaisons de ces valeurs entre elles, un lecteur averti en vaut deux. Pour la même raison, nous n'affichons pas les décimales de cette série afin d'en faciliter la lecture, puisqu'un tel niveau de précision n'a pas beaucoup de sens du coup.
Comment se positionne donc la RTX 4070 SUPER FE au sein de l'échantillon de tests, en commençant par les jeux en QHD et rastérisation ? Cette dernière va systématiquement devancer la RTX 4070 FE, avec un avantage bien souvent conséquent sur cette dernière. Si elle ne parvient pas au niveau de la RTX 4070 Ti, l'écart séparant ces 2 cartes est bien moindre que celui séparant RTX 4070 et 4070 SUPER. La nouvelle venue prend également l'ascendant sur la RX 7800 XT, NVIDIA ayant calibré sa SUPER pour devancer cette dernière, cela ne fait aucun doute.
Performances en rastérisation QHD - RTX 4070 SUPER
Monter en définition change-t-il la donne ? Eh bien en fait, non, ou de bien peu. La charge se faisant plus intense, les unités de calculs plus nombreuses et le cache L2 plus conséquent permettent à la SUPER d'accroitre quelque peu son avantage sur sa petite soeur, mais on reste tout de même dans les mêmes ordres de grandeur. Le face à face avec la RX 7800 XT ne montre pas de changement notable entre les 2 rivales, la nouvelle venue continuant de prendre régulièrement l'avantage, même si le rapport de force peut s'inverser selon les titres, à l'instar de ce qui se passait en QHD.
Performances en rastérisation UHD - RTX 4070 SUPER
En activant le Ray Tracing au niveau de détail maximum (à l'exception des modes Psycho de Cyberpunk 2077 et Unobtanium d'Avatar), y compris le Path Tracing pour les jeux le supportant, la RTX 4070 SUPER continue de se positionner entre les autres 4070, mais toujours plus proche de la Ti. Les Radeon reculent comme à leur habitude dans ces conditions, plus la charge RT étant sévère et plus elles souffrent, à l'image des jeux en Path Tracing. À ce sujet, les 12 Go de la RX 7700 XT semblent insuffisants sous Alan Wake II, toutefois elle ne souffre pas autant en UHD (upscaled), pas plus que les cartes vertes dotées de cette même quantité de mémoire. Il s'agit donc probablement d'un bug, mais systématiquement reproductible sur notre configuration avec ces conditions de test.
Ces cartes étant trop justes pour activer le Ray Tracing en UHD nativement, nous activons simultanément (hormis pour Elden Ring n'en disposant pas et Metro Exodus EE ne proposant que le DLSS) les technologies d'upscaling disponibles dans les jeux (la meilleure pour chaque constructeur) en mode qualité, ainsi que le Frame Generation lorsque ce dernier est implémenté. À ce petit jeu, la présence largement plus répandue du DLSS 3 que le FSR 3 (qui plus est utilisable sur les concurrentes alors que l'inverse n'est pas vrai), donne aux verts un avantage considérable, alors qu'ils n'en ont déjà pas vraiment besoin en Ray Tracing. À noter qu'ils serait possible d'utiliser les pilotes spécifiques d'AMD pour activer le Fluid Motion Frames dans certains d'entre eux, mais cette technologie est loin d'être dépourvue d'inconvénients, comme sa désactivation lors de mouvements rapides de caméra, pour n'en citer qu'un. Lorsque le FSR n'était pas disponible dans le jeu, nous avons utilisé l'upscaling propriétaire du jeu, avec une mise à l'échelle similaire au mode qualité du FSR. La hiérarchie reste inchangée et la RX 7800 XT ne parvient à surnager que dans de trop rares cas face à la RTX 4070 SUPER.
La carte améliore le perf/prix chez nvidia c'est toujours une bonne chose mais je trouve que 12 go ça ne lui va pas bien
C'est sûr que 16 Go eussent été mieux, mais on est pas limité par les 12 Go pour l'heure, en particulier en QHD. Le bus mémoire 192-bit permet aussi de réduire significativement la taille du die (les interfaces sont moins denses en transistors et scalent moins bien en affinant la gravure comme l'a prouvé AMD), sur du 4/5 nm ce n'est pas négligeable en terme de coût pour une puce monolithique. Après Nvidia pourrait aussi sacrifier un peu de sa marge, mais vu qu'il en fait beaucoup plus sur les puces dédiées à l'IA et que TSMC n'arrive pas à suivre, je crois qu'il faut pas trop en demander pour le moment.
Tsmc peut suivre
C'est l'emballage des puces ia qui bloque pas la production des die
J'avoue que je n'ai pas suivi pour savoir où se trouvait la limitation. M'enfin t'as compris la remarque : pourquoi rogner sa marge quand tu peux faire plus de sous en privilégiant l'affectation des puces à l'IA plutôt qu'au gaming.
Je précise que je ne cautionne pas, mais je serais CEO je me poserais sérieusement la question.
Bah je te réponds ils peuvent produire plus si nvidia le décide
C'est l emballage du die avec l interposé et la hbm qui bloque
Chose que n'utilise pas les puces gaming
Bah je te réponds ils peuvent produire plus si nvidia le décide
C'est l emballage du die avec l interposé et la hbm qui bloque
Chose que n'utilise pas les puces gaming
Ah mais tu n'utilises pas que du H100/H200 pour faire de l'IA, tu as aussi des produits comme les L40 (principalement utilisés en inférence) qui n'ont pas de HBM (puisque c'est un AD102) et qui margent plus qu'une GeForce.
Que penses tu d'un bus 128 bits avec 8 puces donc 16 go mais 64 mo de cache et ram à 24 gbps ?
Je ne suis pas architecte GPU, mais j'imagine que les ingénieurs de Nvidia ont fait leurs simulations et que l'option retenue pour AD104 était le meilleur compromis à leurs yeux.
Bah ça a 2 problème je pense que la puce serait pas plus petit le cache remplaçant les contrôleur ram en moins
Mais 2 puces ram en plus plus cher et version pro avec plus de ram impossible
Bah ça a 2 problème je pense que la puce serait pas plus petit le cache remplaçant les contrôleur ram en moins
Mais 2 puces ram en plus plus cher et version pro avec plus de ram impossible
C'est marrant tu fais les questions et les réponses 🙂
Excellent test
La carte améliore le perf/prix chez nvidia c'est toujours une bonne chose mais je trouve que 12 go ça ne lui va pas bien
C'est sûr que 16 Go eussent été mieux, mais on est pas limité par les 12 Go pour l'heure, en particulier en QHD. Le bus mémoire 192-bit permet aussi de réduire significativement la taille du die (les interfaces sont moins denses en transistors et scalent moins bien en affinant la gravure comme l'a prouvé AMD), sur du 4/5 nm ce n'est pas négligeable en terme de coût pour une puce monolithique. Après Nvidia pourrait aussi sacrifier un peu de sa marge, mais vu qu'il en fait beaucoup plus sur les puces dédiées à l'IA et que TSMC n'arrive pas à suivre, je crois qu'il faut pas trop en demander pour le moment.
Tsmc peut suivre
C'est l'emballage des puces ia qui bloque pas la production des die
J'avoue que je n'ai pas suivi pour savoir où se trouvait la limitation. M'enfin t'as compris la remarque : pourquoi rogner sa marge quand tu peux faire plus de sous en privilégiant l'affectation des puces à l'IA plutôt qu'au gaming.
Je précise que je ne cautionne pas, mais je serais CEO je me poserais sérieusement la question.
Bah je te réponds ils peuvent produire plus si nvidia le décide
C'est l emballage du die avec l interposé et la hbm qui bloque
Chose que n'utilise pas les puces gaming
Ah mais tu n'utilises pas que du H100/H200 pour faire de l'IA, tu as aussi des produits comme les L40 (principalement utilisés en inférence) qui n'ont pas de HBM (puisque c'est un AD102) et qui margent plus qu'une GeForce.
Que penses tu d'un bus 128 bits avec 8 puces donc 16 go mais 64 mo de cache et ram à 24 gbps ?
Je ne suis pas architecte GPU, mais j'imagine que les ingénieurs de Nvidia ont fait leurs simulations et que l'option retenue pour AD104 était le meilleur compromis à leurs yeux.
Bah ça a 2 problème je pense que la puce serait pas plus petit le cache remplaçant les contrôleur ram en moins
Mais 2 puces ram en plus plus cher et version pro avec plus de ram impossible
C'est marrant tu fais les questions et les réponses 🙂