GPU Boost et GTX 680 : une double variabilité Cartes Graphiques Publié le Mercredi 2 Mai 2012 par Damien Triolet URL: /focus/65/.html Lors de notre test de la GeForce GTX 680, nous avions émis quelques réserves par rapport au comportement de GPU Boost, le turbo de Nvidia. Celui-ci est en effet non-déterministe dans le sens où, pour permettre au GPU de monter en fréquence, il se base sur la consommation réelle et non une estimation qui a l'avantage d'être identique pour tous les GPU. Une approche qui a l'avantage de maximiser les performances des échantillons qui consomment le moins, par exemple parce qu'ils souffrent de moins de courants de fuite, mais qui introduit par contre une dose de variabilité dans les performances de 2 échantillons. Quelle est donc la vraie fréquence maximale de GPU Boost ? En observant le comportement de quelques cartes du commerce, nous avons pu commencer à comprendre pourquoi Nvidia est embarrassé par les questions qui tournent autour de ce point. Tous les GK104-400 (version du GPU destinée à la GeForce GTX 680) ne sont pas qualifiés à la même fréquence maximale ! Par exemple, l'échantillon que nous a fourni Nvidia pour le test est qualifié à 1110 MHz alors qu'un exemplaire Gigabyte que nous avons tiré du commerce dispose d'un GPU qui n'a été qualifié "que" à 1084 MHz. D'autres le sont à 1071 MHz, d'autres encore à 1097 MHz etc. Cela signifie qu'en plus du fonctionnement non-déterministe de GPU Boost, la montée en fréquence sera limitée différemment suivant l'échantillon, peu importe que la température du GPU et sa consommation soient largement sous les limites. Mis face à ces observations, Nvidia refuse toujours de répondre, arguant du fait, après insistance, qu'il veut garder sa procédure de qualification secrète pour éviter que ne s'en inspire la concurrence. En général, et en simplifiant, les premiers lots de GPU sont testés et des spécifications communes sont définies qui permettent de disposer d'un certain volume de production avec un certain niveau de performances et une certaine enveloppe thermique. Dans le cas du GK104-400, probablement parce que la GeForce GTX 680 est au coude à coude avec la Radeon HD 7970, Nvidia semble vouloir profiter du moindre point de performances disponible… même si l'atteindre est incompatible avec un volume de production suffisant. En d'autre termes, Nvidia veut profiter des performances d'un GPU à 1110 MHz et du volume de production d'un GPU à 1058 MHz. Comment cela fonctionne en pratique ? Nous pouvons supposer que chaque GPU reporte en nombre de bins de 13 MHz (crans) l'écart entre la fréquence de base et la fréquence turbo maximale, tout comme chaque GPU reporte depuis quelques temps déjà une tension qui lui est propre. Notre échantillon presse est ainsi un GK104-400 qualifié à 1006 MHz + 8 bins (1110 MHz) alors que l'échantillon Gigabyte se contente d'un GK104-400 qualifié à 1006 MHz + 6 bins (1084 MHz). En pratique nous avons pu observer que la variation de performances entre deux cartes provient plus de l'utilisation de GPU qualifiés à des fréquences maximales différentes qu'au fonctionnement non-déterministe de GPU Boost, la plupart des jeux restant bien en-dessous de sa limite de consommation. Quel écart de performances entre ces deux échantillons ? Cet écart de 2% dans les spécifications réelles de ces 2 GeForce GTX 680 se traduit par une différence pratique de 1.5%, qui peut monter à 5% dans le cas d'Anno 2070, très gourmand et qui est également influencé par la consommation GPU, visiblement plus faible sur l'échantillon presse. Tout ça pour ça ? Pourquoi nous soucier de ce point de détail ? Après tout, 2% d'écart, voire moins dans les jeux ne font pas une grande différence, ce que ne manque pas de souligner Nvidia... qui ne compte cependant pas s'en passer ! Nous supposons en effet que le concepteur de GPU a opté pour cette approche de manière à grappiller le moindre point de performances face à la concurrence. Copyright © 1997-2024 HardWare.fr. Tous droits réservés. |