D'ordinaire, les stocks d'une génération de carte graphique prête à être remplacée sont assez importants. Ampere et RDNA 2 ont vécu encore longtemps après leur remplacement par Ada et RDNA 3. Les GeForce RTX Blackwell ont été annoncées, et elle signent de facto la mort commerciale des RTX Ada, c'est inévitable. Si vous farfouillez régulièrement le web à la recherche d'une carte graphique haut de gamme, vous aurez probablement noté la raréfaction des RTX 4090 et RTX 4080 SUPER dans les rayons des revendeurs. Sachez que ce n'était que le début puisque d'autre cartes viennent de passer au statut EOL, soit End of Life. Quelles sont les cartes jugées aptes à être remplacées, avec une certaine inertie des ventes et du stock, ce qui pourrait amener à un stock proche de 0 quand les cartes Blackwell seront là.
La RTX 4070 devrait donc mourir de sa belle mort dès le mois de janvier, ce qui signifie qu'elle pourrait devenir très vite hors stock. Surtout que la source mentionne une absence de restock en février, ça sent le sapin pour elle. Les RTX 4060 Ti et RTX 4060 devraient terminer leur parcours au mois de mars, et ne devraient pas voir au-delà de Q1 2025. C'est d'ailleurs assez logique tout ça car les RTX 4070 puis 4060 Series verront leurs remplaçantes arriver quelque part entre février et mars... Ce n'est pas une coïncidence ! Avant de se décider pour un fond de stock Ada ou une nouveauté Blackwell, si vous aviez prévu de partir sur une GeForce, il faudra attendre les tests qui viendront en temps et en heure.

Bof...
Vu les prix délirants (au dessus du MSRP + TVA) auxquels ces cartes sont actuellement proposées, il vaut mieux attendre la sortie des RTX 50.
Par exemple, il est impossible de trouver une 4070 Ti Super (neuve) à moins de 950 balles, là où les futures 5070 Ti sont supposées être vendues à ce même prix, avec +20% de perf au minimum.
Donc, il suffit d'être un tout petit peu patient...
Si suffisamment de gpu sont disponibles pour éviter l’excuse de la « rupture » pour encore augmenter les prix et si le groupe LDLC ne considère pas que les gens sont des vaches à lait. J’ai l’impression que leur politique de prix c’est « on augmente tant que ça se vend et quand ça ne se vend plus on arrête d’augmenter »
Eh oui... Cela s'appelle la loi de l'offre et de la demande, et vive le capitalisme ! :-P
Pour la demande des cartes en question, elle devrait se faire plus légère une fois que Trump-la-mort aura mis en place ses "tariffs" aux USA...
Point de 4070 Ti Super (i.e avec 16Go de VRAM, car en dessous, c'est trop peu) dans votre capture d'écran...
J'ai donc eu de la chance de pouvoir acheter une Asus ProArt RTX 4080 Super OC sur PC Componentes pour 1100 € livré.
Reçu en janvier 2025, pas encore tester, je la passe sous l'eau dans 5 semaines, le temps de recevoir le WaterBlock Bykski (prévu pour la 4070 Ti mais compatible 4080 Super).
Hâte de monter la bête dans mon boitier Cosmos 1000 custom en remplacement de ma MSI GTX 1080 Ti Gaming X.
En principe, j'aurai que 2 tubes à réchauffer pour bien positionner dans les trous du nouveau WB GPU et le tour est joué.
J'espère descendre en dessous des 70 °C en pleine charge et gagner en perf par rapport à la TUF en plus du silence.
Avec la pénurie des 4080 Super, le prix qui augmente de génération en génération, je pense avoir fait le bon choix.
Vraiment hâte de connaitre les prix des 5080 custom Asus le 29 janvier et une comparaison des perfs avec la 4080 Super.
Attention aux bonimenteurs qui vous font croire d'une génération à l'autre qu'il y a un gap de 30% de perf en plus. Mon exemple, qui n'est pas l'exemple j'en conviens, avec ma RTX 3080 Ti qui aujourd'hui avec un OC normal fait les mêmes perf qu'une RTX 4080 en RT Path-Traçing (sans DLSS) en QHD sous CP 2077. La RTX 5080 fera un +15% mais ce qui fera la différence c'est le DLSS 4. Comme depuis la RTX 2080 l'augmentation des perfs est liée aux technologies propriétaires de Nvidia. Ce n'est pas une critique juste un constat.
c'est amusant de "juger" les techno de NVIDIA et de voir que les autres ont pris le même chemin, mais pour eux ça passe crème ! La rastérisation était le mode de rendu roi il y a plusieurs années, elle reste imprécise dans ses rendus et est liée à de la programmation (éclairages, etc). Si tu veux une carte aujourd'hui qui te permette de faire du 60/120 ips et plus en UHD en rastérisation, prépares toi à avoir un four de 2500 mm², qui consomme 1200 W, et qui soit cher comme 2 RTX 5090. De plus, si une telle carte existait, elle serait tout simplement CPU LIMITED. Il faut intégrer, et c'est le souci des gens qui vivent dans le passé, que les sauts de gravure actuels ne permettent plus d'avoir des gains mirobolants, et qu'en plus tu as la barrière du CPU qui ne te permettrait de toute façon pas d'atteindre les performances de tes rêves. Alors quelle est la solution pour d'une part s'affranchir des limites CPU et d'autre part augmenter quand même les performances ? Ben c'est l'IA, et dans la mesure où le rendu est identique à la rastérisation dans la restitution des détails (car la raster est bien plus mauvaise quand il faut rétablir les ombres, les réflexions et les éclairages puisque c'est au bon vouloir des devs de la calculer) au contraire du RT par exemple qui est de plus facile à implémenter, pourquoi s'entêter avec la rastérisation ? Cette croyance digne des plus grands supporters de foot totalement opaques et fermés à une discussion un peu constructive. l'IA et donc les Frame Generation, qui ne sont pas des Fake Frames comme disent certains YT pour paraitre plus intelligents qu'ils ne seront jamais, elles sont calculées et pas "devinées", y a du job et des algo derrière. Si le rendu est bon, et ça semble unanimement le cas de tous ceux qui ont vu le Transformer Model en action, où est-ce que ça gêne si derrière tu as un framerate qui va bien ? Je rappelle aussi que une CG qui envoie 30 ips en UHD aura une latence dégueulasse, même si les FG induisent de la latence, au final avec elles tu auras une latence meilleure que la rastérisation, car la latence est avant tout liée aux perfs générales et qu'elles s'envolent avec les FG. On observe ça souvent dans nos perf tests, parce qu'on surveille les latences justement, très peu le font, et surtout pas les blablateurs basheurs de YT. Attention donc aux bonimenteurs qui vont croire que y a que la rastérisation que existe et que tout le reste c'est du vent. C'est surtout faire fi des vraies contraintes qui se posent aux constructeurs de GPU et aux développeurs, contraintes qui sont techniques avant tout. Le souci, c'est que des gens sur YT racontent n'importe quoi, que c'est leur fond de commerce, et qu'ils y vont à fond sur la désinformation avec des réflexions type Gala / Voici. Je pousse ce coup de gueule contre les discours alléchants et vides, et faux de certains, la rastérisation, c'est terminé, ce ne sera plus le rendu dominant dans les années qui viennent. Le retour en arrière assurerait non pas 15 mais 3 % de perfs en plus... sans IA.
Ca ne t'est pas dédié comme réponse même si j'ai rebondi sur la tienne, c'est plutôt une mise au point générale contre les véhiculeurs de mensonges sous couvert de "liberté" de s'exprimer, séduisants dans le discours people mais techniquement trop justes 🙂
Désolé d'avoir touché la corde sensible, ma critique vaut également pour les autres acteurs. C'est votre vision des choses mais c'est pas la vision. Le RT n'apporte pas que du + à l'instar des TV UHD qui apporte trop de profondeur et donc une image pas naturelle. Le RT c'est des surfaces miroirs un environnement où tu as l'impression qu'il a plu du début à la fin, bref un environnement surjoué qui doit s'appuyer sur le DLSS, le SFR ou le Xess pour être efficace. Oui il faut vivre avec son temps et accepter les avancés technologique même si au final ces avancés coûte de - en - en R&D et en industrialisation mais optimisent les marges. Le cloisonnage d'une génération à l'autre c'est déjà du bullshit, une RTX3000 peut faire du FG et une RTX 4000 peut faire ce que propose les RTX5000 (exemple Nvidia mais chez AMD c'est probablement la même musique) C'est un coup de gueule pas une attaque car tous ces acteurs sont là pour faire de l'argent et c'est bien normal. Simplement j'invite les joueurs à prendre la mesure du truc et ne pas tomber dans le piège du marketing. Un jeu est fun de par son scénario et sa capacité à nous vendre une histoire avec un minimum au niveau esthétique. Je pense qu'une CG à 500€ est suffisante pour profiter du JV sur PC. On peut s'équiper dans toutes les marques à ce niveau de prix et s'assurer une pérennité sur 5 ans minimum. Après le marché de niche c'est une autre histoire, celui qui a du fric il fait ce qu'il veut et il a bien raison. Les "bonimenteurs" sont ceux qui nous montre des testes avec un matos XXL qui ne représente pas la communauté des joueurs sur PC. Ça flatte leur sponsors mais ça frustre leurs lecteurs.
je pense que tu ne sais pas ce qu'est la rastérisation, et les limites aujourd'hui qui en découlent, les contraintes techniques également qui obligent à prendre un autre chemin. Tu restes cantonné dans ta vision et c'est ton droit, mais c'est pas ici que tu pourras faire comprendre que les ingénieurs chez AMD NVIDIA et INTEL sont tous des vendus qui font des choix à la va vite et que nous savons mieux qu'eux ce qu'ils doivent faire. C'est trop souvent le genre de stupidité qu'on entend sur YT à part un, VCG, qui a compris de quoi il parle. En plus la rastérisation est une programmation qui est une programmation empirique, les devs doivent calculer les trajets eux mêmes des sources lumineuses, et ça ne va as plus loin qu'un rayon incident et un rebond. mais en aucun cas la réalité. Tu cites les réflexions pour légitimer tes propos, mais c'est pas que ça. Mais selon la loi de Brandolini, ma tentative d'explication a été balayée par un argument irrationnel youtubesque de faux experts, et donc toute tentative de ma part pour te faire prendre conscience du changement est vaine. On a le droit d'être contre l'usage de l'IA, mais on ne peut pas nier ad vitam aeternam les contraintes qui existent. Il y a des moyens de gagner, tu te plains de 15% en rastérisation, mais sais tu que le nœud de gravure est le même entre Ada et Blackwell ? C'est au contraire pas mal, sauf si on regarde les gains entre Ampere et Ada avec 3 sauts de gravure.... Nos tests te frustrent parce qu'on utilise pas un matériel "basique" ? Il y a plusieurs questions à se poser avant : que dois-je tester ? Si c'est un GPU, il faut éviter que le CPU limite, donc tu prends le meilleur pour cet usage, sinon tu vas avoir 20 graphiques où toutes les cartes auront la même valeur, et aucun enseignement à tirer. Et quel est le matériel basique que je devrais choisir à la place ? Chacun va y aller de la sienne, et le problème restera le même : tu seras CPU limited.
Tu touches pas la corde sensible, tu tapes juste à côté en fait, parce que rien n'est caché ni galvaudé ni mal traité.