La question que tout le monde se pose est de comprendre comment AMD a pu se louper à ce point sur le lancement de ses RX 9070 XT ? Comment une telle entreprise - qui n'est pas une PME de quartier - a pu expédier des samples en décembre, fournir des documents à la presse pour le CES, et tout annuler dans un claquement de doigts, que Thanos lui même n'aurait pas aussi bien réussi ? Depuis hier tard, nous savons que ces Radeon seront lancées finalement en mars, et cette date lointaine est loin de rassurer, puisque les cartes sont prêtes chez les revendeurs, avec lesquels AMD serait en bisbille. On peut imaginer leur frustration d'avoir produit ces cartes et de ne pas être en mesure de les vendre, pour des raisons étranges.
Il y a plusieurs pistes à explorer, et chacun aura la sienne ou sa propre intuition. La première, on pourrait penser qu'AMD attend que les RTX 5070 soient réellement lancées pour voir leur tarif en boutiques, et le stock qui y sera associé. S'il peut fournir plus de cartes que son concurrent, c'est mieux pour lui. La seconde, qui ne serait pas déconnante, serait de penser que le FSR 4 n'est pas aussi bien avancé que prévu, et qu'il faudrait un peu de temps encore pour l'exhiber lors de la conférence qu'AMD tiendra de source sûre lors du lancement. Il n'est pas impossible que le Multi Frame Generation de NVIDIA ait bouleversé les plans des rouges, qui pourraient bosser sur une solution équivalente (même si ça ne se fait pas en 1 mois), ou assurer la présence du FSR 4 sur les cartes RDNA 3, les seules avec RDNA 4 à posséder des unités dédiées IA, au contraire de RDNA 2. Une autre piste serait également de penser qu'AMD n'a pas le même type de contrat auprès de TSMC que son concurrent direct NVIDIA, ce dernier ayant les moyens de s'allouer une grosse partie de la production, AMD préférant probablement prioriser les CPU qui se vendent très bien avec des marges folles comme celle du Ryzen 7 9800X3D, au contraire de la RX 9070 XT qui aurait un gros GPU monolithique sûrement cher à produire, TSMC ne faisant aucun cadeau. Cela permettrait aussi à AMD de constituer un stock plus gros de cartes pour le jour J, surtout que les cartes ont commencé à être usinées chez les partenaires, et même envoyées chez les revendeurs.
Peu importe les raisons au final, seule la vérité du moment est réellement intéressante, mais il est clair que cette communication ubuesque aura fait du mal à la confiance des clients. D'un autre côté, si ça permet d'avoir des cartes au software plus abouti, nous ne pouvons qu'acquiescer. Il reste donc un peu plus de deux mois pour savoir ce qu'AMD aura vraiment concocté, peut-être à la GTC 2025 du 17 au 21 mars, où l'IA sera au centre des débats...comme pour RDNA 4 ?

Autre option, non mentionnée dans l'article et, à mon humble avis, la plus probable:
AMD s'est rendu compte que ses cartes ne sont pas au bon niveau performances/prix par rapport aux RTX 5000 de NVIDIA, et est en train de rogner ses marges pour baisser les prix, avec le gros problème des GPU déjà vendus aux intégrateurs partenaires (i.e. il va falloir rembourser en partie ces derniers et se mettre d'accord avec eux sur un nouveau prix de vente de leurs cartes).
Etonné ? (question à destination des trolls AMD)
AMD est incapable d'être sur le front des CPU et aussi sur celui des GPU.
(sans évoqué le fait qu'AMD n'a jamais reproduit ou reconduit le niveau de compétitivité qu'avait ATI, pour le marché des GPU)
Bref, tant qu'AMD reste à ce niveau de masse salariale ou plus précisément à une capacité inférieure de ressources R&D (comparé à Intel ou NVidia pris individuellement), ils ne pourront pas être compétitifs dans les deux marchés.
Pour aller dans le sens de l'article, quelque soit le choix dans la dichotomie des pistes envisagées (attente des 5070 ou FSR4 cassé), mon explication ci-dessus reste très plausible. Quant à la piste des coûts TSMC, je ne pense pas que cela soit pertinent. En effet, les négociations avec TSMC sont faites bien en amonts (peut-être même 1 à 2 ans avant). Il est très fortement improbable que cela soit l'explication.
C'est depuis maxwell que nvidia a vraiment largué amd en temre de vente donc amd a déjà réussi à être au niveau mais ça commence à remonter à loin
Certes, mais ma remarque traite d'AMD (CPU+ GPU).
Et il s'agissait du niveau de compétitivité qu'ATI avait atteint et qu'AMD n'a jamais reconduit.
De plus ce n'est pas Maxwell qui a été déterminant, mais la stagnation d'AMD. Les "XXXX islands" qui semblaient être de simples itérations. Bons mais pas excellents quand on a connu les 9700/9800 Pro.
Hd 4870 hd 5870 c'était sous amd elles était excellente
Le tout début de gcn à bien marché aussi
Après oui les autres island ça à stagné
Amd a pas su renouveller leur architecture rdna est venue trop tard
Non pas excellentes mais passables.
C'est limite de la mauvaise foi...
Ah bon !
Et ça c'est de mauvaise fois => https://www.hardware.fr/articles/736-15/recapitulatif-performances.html
Si tu vas part la suffit juste de lire la conclusion https://www.hardware.fr/articles/725-23/conclusion.html
Le bench c'est bien mais rapport qualité prix la HD explose la GT a l'époque.
Votre écrit : "Hd 4870 hd 5870 c'était sous amd elles était excellente "
Car votre commentaire était en réaction du mien.
=> Ces cartes étaient bien, passables pour d'autres, mais pas excellente. Les 9700/9800 Pro étaient les dernières cartes ATI excellentes.
AMD n'a jamais pu ou su reproduire cela.
Ceux qui ont connu cette époque ne peuvent pas dire le contraire. AMD a tué la compétitivité d'ATI en la rendant au mieux médiocre.
C'est un fait lorsque l'on a observé toutes ces périodes.
Donc on en revient à la R&D d'AMD sous dimensionnée pour permettre une compétitivité à la fois sur le segment des CPU et des GPU. AMD est obligé de bâcler l'un des deux.
PS : le lien que j'avais fourni correspond à des tests SLI vs Crossfire de l'époque avec ces GPU. La conclusion concerne pas les GPU mais la pertinences des systèmes multi GPU en fonction du coût et de la performance ... alors je pense que votre interprétation de la conclusion est erronée.