Nvidia GeForce GTX 660 Ti, Asus DirectCU II TOP, EVGA SuperClocked et AMD Radeon HD 7950 v2 en test

Publié le 17/08/2012 (Mise à jour le 07/09/2012) par
Imprimer
PowerTune vs GPU Boost
AMD et Nvidia ont tous deux mis en place des systèmes de contrôle de la consommation de leurs cartes graphiques, ce qui leur permet de fixer des fréquences plus agressives tout en garantissant la fiabilité de leurs produits. Sans ces systèmes, il faudrait se contenter de fréquences plus réduites sans quoi la fiabilité pourrait être remise en cause puisque des tâches très lourdes pourraient entraîner les cartes graphiques et leurs GPU à un niveau de consommation pour lesquels ils ne sont pas prévus.

Ce contrôle de la consommation, une fois implémenté, peut également être exploité à d'autres fins, par exemple pour mettre en place des modes turbo ou d'économie d'énergie.

AMD est le premier à avoir développé une telle technologie, avec PowerTune, introduit sur les Radeon HD 6900 et intégré à toutes les Radeon HD 7000. A l'instar de la base des technologies turbo des CPU, elle consiste à estimer la consommation de la puce sur base d'une multitude de capteurs d'utilisation internes aux différents blocs qui la forment. Il peut sembler étrange au premier abord d'estimer la consommation eu lieu de la mesurer, mais cela permet de conserver un comportement déterministe sur le plan des performances. Une formule relativement complexe transpose ensuite ces niveaux d'utilisation en puissance consommée en prenant en compte des paramètres qui correspondent au cas le moins favorable : un GPU qui souffre de courants de fuite importants et qui fonctionne dans un environnement très chaud.

Deux raffinements ont été apportés récemment par AMD à cette technologie. Le premier consiste à estimer la température du GPU en associant une valeur temporelle à la consommation estimée. Cette température estimée peut alors remplacer la constante qui représente le pire des cas et donner en pratique plus de marge dans les situations classiques. Pour simplifier : il s'agit d'estimer plus précisément la consommation pour éviter de devoir être trop conservateur. La température réelle est toujours mesurée et utilisée à un niveau de protection supérieur ainsi que pour réguler le ventilateur.

Cette évolution est activée à partir des Catalyst 12.7 beta pour l'ensemble des Radeon HD 7900. En pratique cela ne fera pas de différence dans les jeux, en dehors de gros overclockings, mais cela permettra à celles-ci de conserver une fréquence plus élevée dans les stress tests. Notez qu'AMD pourrait exploiter cette nouvelle capacité pour autoriser le GPU à dépasser pendant quelques secondes son TDP, comme le fait Intel avec ses derniers CPU, mais dans le cas du rendu 3D en temps réel dont la charge est relativement constante dans la durée, cela n'aurait que peu d'intérêt.

La seconde nouveauté est l'introduction d'un turbo dénommé Boost, une mode à laquelle il était devenu difficile d'échapper. Concrètement Boost représente la capacité de PowerTune à modifier la tension GPU, en plus de sa fréquence. Cette nouveauté est réservée aux Radeon HD 7970 GHz Edition et HD 7950 v2 puisque le bios doit contenir une table de couples fréquence/tension, mais surtout parce que le GPU doit être validé d'une manière plus complexe. La Radeon HD 7970 GHz est ainsi validée jusqu'à 1000 MHz avec une tension fixe classique mais également jusqu'à 1050 MHz avec une tension qui augmente progressivement (850 MHz et 925 MHz dans le cas de la Radeon HD 7950 v2). PowerTune peut actuellement gérer jusqu'à 256 étapes (P-states) avec une granularité de 4 MHz et une latence d'une poignée de millisecondes.


En pratique le TDP de la Radeon HD 7970 GHz Edition restant surdimensionné par rapport à la consommation des jeux vidéo (à de rares exceptions près), Boost peut être vu plus comme un moyen de valider en toute sécurité le GPU à une fréquence supérieure qui sera d'application constante dans presque tous les jeux, que comme un turbo qui apporterait un gain variable sous certaines conditions strictes.

La situation est cependant différente pour la Radeon HD 7950 v2, pas uniquement parce que son enveloppe thermique ne dispose pas d'autant de marge, mais surtout parce qu'AMD a prévu de pouvoir écouler à travers ce modèle les échantillons de son GPU Tahiti qui souffrent de courants de fuite très élevés. En d'autres termes, AMD doit rester très conservateur au niveau des paramètres pris en compte pour l'estimation de sa consommation. Pour compenser quelque peu, le TDP est passé de 200 à 225W, mais cela reste insuffisant pour que Boost puisse s'enclencher d'une manière constante comme c'est le cas sur la Radeon HD 7970 GHz Edition. La Radeon HD 7950 v2 se contente ainsi la plupart du temps de 850 MHz, la fréquence maximale avant augmentation de la tension GPU.

Notez que Boost entraînant une augmentation de la tension, la consommation progresse exponentiellement, ce qui ne fait pas de cette approche une solution destinée à augmenter le rendement énergétique. Une particularité partagée avec la technologie GPU Boost de Nvidia qui ne vise pas à améliorer le rendement par watt mais bien à profiter de chaque watt disponible pour proposer quelques points de performances supplémentaires.

Il s'agit cependant du seul point commun entre les deux technologies : PowerTune reste totalement déterministe : dans des conditions identiques, toutes les Radeon HD 7900 se comporteront de la même manière. Ce n'est pas le cas du côté des GeForce.

Notamment grâce à une consommation bien maîtrisée, Nvidia a pu introduire un premier turbo pour GPU, dénommé GPU Boost, qui est lui aussi destiné à maximiser la fréquence GPU pour profiter pleinement de l'enveloppe thermique disponible. Notre avis concernant l'approche de Nvidia est mitigé puisque GPU Boost n'est pas déterministe : contrairement aux CPU, il se base sur la consommation réelle, qui varie entre chaque exemplaire d'un GPU suivant sa qualité de fabrication et les courants de fuite qui l'affectent.

Pourquoi une telle approche ? Nvidia a probablement été pris de court quand AMD a mis en place PowerTune avec les Radeon HD 6900, profitant de l'expérience de son équipe CPU, et n'a pas encore eu la possibilité d'intégrer une technologie similaire. Celles-ci doivent prendre place au cœur de l'architecture et nous pouvons supposer que le développement de Kepler était déjà trop loin dans son développement. La parade a été de mettre en place un monitoring externe au GPU avec les GeForce GTX 500. C'est ce même système qui reste utilisé sur les GTX 600 et il faudra attendre la génération suivante pour qu'une technologie plus évoluée soit implémentée.

La technique actuelle de Nvidia a par ailleurs pour désavantage d'être relativement lente (100ms vs qqs ms) mais elle a par contre pour avantage de permettre à chaque échantillon de profiter pleinement de la totalité du TDP alors que les CPU et les Radeon, s'ils ne sont pas les pires des exemplaires, voient leur consommation surestimée par rapport à la réalité et ne profitent donc pas dans tous les cas de la totalité de leur TDP.

Qui plus est, Nvidia ne valide pas tous les échantillons d'un même dérivé de ce GPU (le GK104-400 pour la GTX 680, le GK104-325 pour la GTX 670 et le GK104-300 pour la GTX 660 Ti) à la même fréquence turbo maximale. Officiellement, Nvidia se contente de donner une fréquence maximale garantie mais laisse le GPU monter bien au-delà s'il a pu être qualifié plus haut. En d'autres termes, GPU Boost représente également un overclocking automatique du GPU. Le problème est que la presse reçoit rarement un échantillon moyen et que du coup les performances que nous reportons peuvent être quelque peu surévaluées par rapport aux performances que vous pourriez rencontrer avec un exemplaire du commerce.

Nvidia se défend en expliquant vouloir donner le maximum de performance à chaque exemplaire d'une même carte et précise que si la variation au niveau de la fréquence GPU Boost maximale peut être significative, la variation au niveau de la fréquence GPU Boost moyenne observée en pratique est plus réduite. La raison étant que la limite de consommation va empêcher le GPU de monter à un niveau très élevé dans les jeux les plus gourmands, mais également que sa température va le limiter.

Ce que Nvidia oublie de préciser dans ce raisonnement, c'est qu'il revient également à dire que nous surévaluons légèrement les performances puisque les tests se font dans des conditions idéales : test bref sur table de bench. Bien que cela puisse rendre notre travail plus sympathique, nous ne pouvons malheureusement pas jouer une heure pour faire chauffer le GPU avant chaque mesure de performances !

Pour rappel, nous avons observé l'écart de performances entre deux GeForce GTX 680. Sans chercher le pire des cas nous avons observé une différence théorique de 2% et pratique de 1.5%. Ce n'est pas énorme mais embêtant sur le principe quand le match est serré avec la concurrence… La marge de manœuvre allouée à GPU Boost explosant avec les GeForce GTX 670 et GTX 660 Ti (15%), cela devient réellement problématique de notre point de vue.

Quelle solution ? L'idéal serait que Nvidia permette aux testeurs de limiter les cartes au niveau du cas le moins favorable, avec une fréquence GPU Boost limitée à la valeur officiellement garantie. Nvidia ne proposant pas une telle solution pour limiter l'envergure de GPU Boost, nous avons donc opté pour la simulation d'un tel échantillon par nos propres moyens en jonglant avec les paramètres "d'overclocking". De quoi pouvoir vous proposer d'une manière très précise (malgré l'aspect "bricolage" de la solution) les performances garanties pour un échantillon basique en plus des performances que vous pouvez obtenir avec un échantillon plus favorable. Dans quelle proportion ces différents types d'échantillons se retrouveront-ils dans le commerce ? Malheureusement, nous ne le savons pas, Nvidia et ses partenaires refusant catégoriquement d'aborder le sujet.
Vos réactions

Top articles