Si Navi 32 s'est fait attendre, probablement dans le but d'aider à l'écoulement des stocks RDNA 2, force est de reconnaitre qu'AMD l'a parfaitement calibré pour faire office de caillou dans la chaussure du géant vert. En effet, la RX 7800 XT s'avère un peu plus rapide que la RTX 4070 en rastérisation, tout en étant moins chère et dotée de davantage de mémoire, et ce même si cette dernière conserve l'avantage en Ray Tracing tout en consommant moins. La RX 7700 XT utilisant une variante partiellement désactivée de ce GPU, s'avère de son côté un peu moins intéressante que sa grande soeur, même si elle prend aisément l'avantage sur la 4060 Ti 16 Go dans cette gamme de prix. Bref, AMD se trouve en situation plutôt confortable au coeur de la gamme, ce qui n'est certainement pas pour lui déplaire. Toutefois, à l'instar de sa génération Turing (RTX 20), le caméléon a décidé de proposer un refresh de son coeur de gamme, au travers des modèles SUPER. L'objectif est d'améliorer le rapport performance/prix de ses cartes aux qualités indéniables, mais qui ont déçu sur ce point. Trois modèles sont lancés et nous commençons notre marathon par la RTX 4070 SUPER, qui va reprendre le créneau tarifaire de la RTX 4070 à 599 $ / 659 € (prix conseillé, le prix en boutique pouvant varier), cette dernière baissant de 50 $, à 609 €. Quid des performances, de la consommation électrique et des autres aspects environnementaux ? Réponses à ces questions et bien d'autres au sein de ce dossier.
Test • NVIDIA GeForce RTX 4070 SUPER : tueuse de RX 7800 XT ?
NVIDIA cible la Radeon RX 7800 XT avec ce nouveau modèle. Que vaut la GeForce RTX 4070 SUPER face à sa concurrente en jeu, mais aussi pour tout le reste ?
Excellent test
La carte améliore le perf/prix chez nvidia c'est toujours une bonne chose mais je trouve que 12 go ça ne lui va pas bien
C'est sûr que 16 Go eussent été mieux, mais on est pas limité par les 12 Go pour l'heure, en particulier en QHD. Le bus mémoire 192-bit permet aussi de réduire significativement la taille du die (les interfaces sont moins denses en transistors et scalent moins bien en affinant la gravure comme l'a prouvé AMD), sur du 4/5 nm ce n'est pas négligeable en terme de coût pour une puce monolithique. Après Nvidia pourrait aussi sacrifier un peu de sa marge, mais vu qu'il en fait beaucoup plus sur les puces dédiées à l'IA et que TSMC n'arrive pas à suivre, je crois qu'il faut pas trop en demander pour le moment.
Tsmc peut suivre
C'est l'emballage des puces ia qui bloque pas la production des die
J'avoue que je n'ai pas suivi pour savoir où se trouvait la limitation. M'enfin t'as compris la remarque : pourquoi rogner sa marge quand tu peux faire plus de sous en privilégiant l'affectation des puces à l'IA plutôt qu'au gaming.
Je précise que je ne cautionne pas, mais je serais CEO je me poserais sérieusement la question.
Bah je te réponds ils peuvent produire plus si nvidia le décide
C'est l emballage du die avec l interposé et la hbm qui bloque
Chose que n'utilise pas les puces gaming
Ah mais tu n'utilises pas que du H100/H200 pour faire de l'IA, tu as aussi des produits comme les L40 (principalement utilisés en inférence) qui n'ont pas de HBM (puisque c'est un AD102) et qui margent plus qu'une GeForce.
Que penses tu d'un bus 128 bits avec 8 puces donc 16 go mais 64 mo de cache et ram à 24 gbps ?
Je ne suis pas architecte GPU, mais j'imagine que les ingénieurs de Nvidia ont fait leurs simulations et que l'option retenue pour AD104 était le meilleur compromis à leurs yeux.
Bah ça a 2 problème je pense que la puce serait pas plus petit le cache remplaçant les contrôleur ram en moins
Mais 2 puces ram en plus plus cher et version pro avec plus de ram impossible
C'est marrant tu fais les questions et les réponses 🙂