Banniere Gigabyte Rtx4070 Wf

La carte par devant, par derrière, et même de côté !

Ce qui nous a choqués lorsque nous avons reçu le colis, c'est la petitesse de l'emballage. Nous avions été frappés par le gigantisme des cartes ADA, et une grande partie des cartes Ampere par le passé, et recevoir cette boite rikiki nous a surpris, agréablement. Une fois en main, nous la mesurons à 26.3 cm, et nous la pesons entre deux cakes à 927 g, c'est un poids plume finalement compte tenu de l'explosion du marché à ce niveau. Vous voyez le refroidisseur qui possède 3 moulins de 8 cm de diamètre, les deux extrêmes moulinant dans le sens inverse du central. Biens cachés, il y a 3 caloducs qui échangent la chaleur avec les ailettes. Et attention, il n'y a aucun pouet pouet LED RGB, c'est sobre !

La carte n'est pas très épaisse, comptez un petit peu plus que 2 slots, 2.1 exactement, ce qui est tout à fait acceptable, et rappelle clairement le bon vieux temps, où on faisait des cartes à taille humaine. Vous noterez que le TGP officiel est de 200 W, ce qui n'est pas exagéré par rapport aux autres cartes ADA, mais aussi par rapport à Ampere sous la forme d'une RTX 3070 ou 3080. Pour le coup, GIGABYTE semble avoir calibré en fonction de cette valeur, pas compliquée à gérer pour une telle société aguerrie. Notez que vous avez, classiquement, 3 ports DP 1.4 et 1 HDMI 2.1.

Si on retourne la carte, une backplate masque l'ensemble des composants du PCB. Ce dernier n'est pas très long, occupant les 2/3 de la longueur. Le troisième ventilateur, le plus éloigné des connectiques, souffle à travers les ailettes en aluminium, c'est une architecture maintes fois reprise sur les cartes Ampere, depuis l'avènement des PCB courts finalement. L'objectif est d'optimiser le refroidissement, sans obstruer le flux d'air. Les ailettes profitent à fond de ce dernier pour refroidir et évacuer la chaleur, l'inconvénient est que la chaleur ainsi évacuée l'est en direction du CPU, ce qui est moins sympa, et donc cela nécessite, en théorie, une circulation d'air correcte dans votre châssis.

Le connecteur d'alimentation est, comme nous l'avons vu la semaine dernière, laissé au libre choix des constructeurs. Ici, GIGABYTE a opté pour un classique 8 pins, ce qui est aussi agréable et rassurant quant à la consommation de la carte. Théoriquement, ce sont 225 W dont bénéficie la carte, 200 W selon les recommandations NVIDIA pour les GeForce RTX 4070. Nous aborderons ce sujet dans les chapitres suivants.

M Galonnier


  • Jolie bébé et beau test...Je crois malheureusementt que l'époque des GPU à prix correct est définitivement terminé. Quoiqu'il en soit, la sobriété et l'efficacité de ce modèle sont ma foi plaisant...Si je fais un héritage, sait-on jamais...

    • Je ferai mon deuil définitif à la prochaine sortie des série 60 (RTX 4060 / RX 7600) ou 50 ; mais ça semble mal parti... Après le prix des GPU est plutôt à la baisse ces derniers temps, il faut rester optimiste !

      • Je reste persuadé que Nvidia comme AMD se sont fait saigner par TSMC lorsqu'ils dont réserver les allocations de production 5 nm pour cette génération en pleine pénurie de semi-conducteurs. Du coup je crains que cette génération soit perdue des 2 côtés au niveau de la tarification, même s'il reste un espoir que la génération suivante puisse revenir à des tarifs plus raisonnables (si tant est que ces deux là restituent une partie des économies de production aux consommateurs, ce qui est loin d'être gagné).  

    • Ce n'est pas ici le test général des RTX 4070 mais celui de cette Gigabyte spécifiquement. Donc qu'elle respecte le prix minimum est une bonne chose oui, certains modèles dits "custom" comme elle seront plus chers.

    • Et par "plus cher", ça risque d'être "bien plus cher", plus de 100 € usuellement. La FE est prévue comme un prix d'appel, à la fois pour promouvoir la carte et pour laisser à NV le monopole des cartes apatropcher mais restant de qualité. Voir un custom day one à ce prix, qui plus est à la conception de qualité et une consommation réduite, c'est déjà remarquable !

6 commentaires

Laissez votre commentaire

En réponse à Some User