Thibaut vous annonçait ce weekend l'arrivée de la nouvelle fournée de pilotes graphiques Intel 31.0.101.4146 , avec à la clé des améliorations de prise en charge ou corrections de bugs sous certains jeux pour les cartes graphiques Arc de la marque.
Mais une autre optimisation est apparue en catimini dans ces pilotes, plutôt intéressante car c'était quelque chose de relevé dans tous les tests en fin d'année dernière et notamment celui d'Eric : une surconsommation des Arc A750 et A770 au repos , comparé à la concurrence. Intel avait dès le lancement de ses cartes dégainé un guide permettant de réduire cette consommation au repos, avec des résultats très positifs puisque les A750 et A770, selon les retours de plusieurs utilisateurs, parvenaient à atteindre voire passer sous la barre des 10W lorsqu'elles étaient peu sollicitées, une fois les réglages faits.
Il y avait cependant un "mais" à tout cela : cette réduction de la consommation n'était efficace que pour l'utilisation d'un unique écran. Un utilisateur s'était manifesté dès le 26 octobre sur GitHub pour faire part de ses relevés après application des recommandations du guide publié par Intel. Avec sa carte A770 16Go, il indiquait avoir une consommation au repos de l'ordre de 5 à 7W avec un seul écran, mais 35 à 40W dans les mêmes conditions en double écran. Malgré une participation active du support d'Intel à la discussion, aucune solution n'a pu être trouvée au problème avant l'annonce, le 12 janvier dernier, de l'arrivée future d'un correctif qui allait permettre d'obtenir également cette réduction de la consommation au repos avec deux écrans, à condition par contre de se limiter au 1080p et 60Hz.
Vous l'aurez sûrement compris : ce correctif a finalement été intégré dans les pilotes 31.0.101.4146 qui viennent de sortir en ce début du mois de mars. Shenef, l'utilisateur à l'origine de la discussion sur GitHub, les a évidemment tout de suite testés et confirme les gains puisqu'il passe de 38-40W avec les pilotes 4091 à 8-9W avec les pilotes 4146, en double écran 1080p + 900p. Il faut tout de même noter qu'il n'y a par contre actuellement aucune réduction de la consommation au repos si vous utilisez plus de deux écrans, même avec les nouveaux pilotes. Le sitcom n'est donc peut être pas encore terminé ! (Source : VideoCardz)
Intel n'est pas le seul dans cette situation. Nvidia et surtout AMD subissent aussi une forte augmentation de consommation quand deux écran sont branchés au repos.
C'est quand même assez inhabituel et chez AMD en tout cas la cause viens de la GDDR6 qui se met a sa fréquence maximal dès qu'un deuxième écran est branché. A voir si c'est pas aussi le cas des Intel ARC.
Ça pue le bug logiciel quand même, pas de raison qu'un autre écran vienne titiller la GDDR6 sur le bureau. M'enfin, il me semble que c'était déjà le cas en 144 Hz sur des générations précédentes, et que ça n'a jamais été corrigé, donc j'ai peu espoir.
J'en doute puis ce qu'on est sur un bug ou je dirais un système de fonctionnement connu depuis la sortie des rx 6000 soit + 2ans après. Si c'était un simple bug ça aurait été corrigé depuis le temps.
Ma 6800xt à toujours eu la GDDR6 à 2000mhz au repos à partir du moment où un deuxième écran est connecté (les deux font 60hz en plus rien de fou). Ce qui entraîne une consommation de la carte entre 35 et 40w en idle...
Là où les Vega (56, 64, VII) font moins de 10 watts en multi écrans. C'est la qu'on peut voir l'avantage indéniable de la HBM face à la GDDR