Comparatif : les Radeon R9 290 et 290X d'AMD, Asus, Gigabyte, HIS, MSI et Sapphire

Publié le 17/07/2014 par
Imprimer
Avant de rentrer dans le vif du sujet, nous allons revenir en détail sur Powertune et la gestion de la consommation du GPU. Un point important puisqu'il a été nécessaire de comprendre son fonctionnement plus en détail pour tenter d'introduire une nouveauté dans ce dossier : des mesures de nuisances sonores avec charge réelle normalisée. De quoi isoler les performances des différents ventirads mais également tester toutes les cartes de manière plus neutre, en réduisant l'impact de la variabilité naturelle et d'un possible tri des échantillons presse.


La problématique de la consommation GPU
Nous vous en avons déjà parlé à plusieurs reprises, Powertune représente l'ensemble matériel et logiciel chargé de la gestion de la consommation et de la température du GPU. C'est Powertune qui régule le comportement des Radeon récentes de manière à s'assurer qu'elles restent dans les clous, c'est-à-dire qu'elles évoluent dans des conditions adaptées du point de vue de leur fiabilité.

Auparavant, AMD et Nvidia étaient censés s'assurer que leurs cartes graphiques restaient fiables dans le pire des cas, c'est-à-dire avec une application très lourde dans un boîtier mal refroidi. Au fil du temps, les GPU ont gagné en flexibilité mais toutes leurs capacités ne sont en général pas exploitées en même temps. En pratique, les unités de texturing ne sont par exemple pas saturées en permanence, en même temps que les unités de calcul ou que les ROP. En théorie elles peuvent cependant l'être, et c'est ce que cherchent à faire les stress tests tels que Furmark. Très rapidement, AMD et Nvidia ont ainsi décidé de qualifier ces tests de "power virus" et de ne plus s'embarrasser des contraintes qu'ils imposent s'ils doivent prévoir leurs cartes graphiques de manière à ce qu'elles puissent les faire tourner sans problème.

AMD et Nvidia ont ainsi choisi, subjectivement, un autre référant pour représenter une application gourmande. Il ne s'agissait plus du pire des cas mais de ce qu'ils estimaient être une charge lourde rencontrée lors d'une utilisation normale de leurs cartes. Cette approche leur a permis de maintenir des fréquences élevées sans avoir recours à des systèmes de refroidissement et à des étages d'alimentation plus imposants. La fiabilité des cartes en a pris un coup puisque certains stress tests pouvaient les endommager, comme nous l'avions constaté sur les Radeon HD 4800 en 2009. Pour contrer cela, des limitations logicielles ont été mises en place, telles qu'une détection de certaines applications pour réduire la fréquence GPU ou insérer des temps de repos entre les différentes opérations qu'il doit traiter.

Tout cela c'était du bricolage approximatif. Aujourd'hui, les GPU AMD intègrent un moteur de gestion très avancé capable d'autoréguler le GPU. Le principe reste le même : pouvoir proposer une carte graphique dont le GPU peut fonctionner à un niveau de spécification plus élevé que celui qu'elle est capable de maintenir dans le pire des cas. Grossièrement, au lieu de valider un GPU à une fréquence faible, par exemple 700 MHz, mais adaptée à tout type de charge, l'approche d'AMD consiste à le valider à une fréquence plus élevée, par exemple 1 GHz, mais qui sera réduite lorsque la charge dépasse un certain niveau. De quoi apporter un gain de performances significatif dans de nombreuses applications, dont la majorité des jeux vidéo.

Pour aller plus loin, Nvidia et plus récemment AMD ont intégré dans leur analyse la prise en compte de la température GPU. Le but est double : éviter l'envolée des nuisances sonores et leur permettre de valider leurs solutions à des fréquences encore plus élevées, sans devoir prendre en compte le pire des cas au niveau de la température ambiante. De quoi offrir quelques points de performances de plus lorsque le boîtier est très bien validé (ou en hiver ou lorsque le testeur n'a pas le temps de laisser le GPU chauffer…).

Toutes ces évolutions sont bénéfiques pour l'utilisateur : elles permettent d'obtenir plus de performances. Elles peuvent cependant être source d'abus. Par exemple, si les testeurs se laissent abuser par l'inertie thermique, ils risquent de surévaluer les performances. C'est notamment le cas lorsque des benchmarks intégrés aux jeux sont utilisés par facilité puisque les performances sont alors mesurées après une plus ou moins longue période de chargement durant laquelle le GPU est au repos. La fréquence GPU, et donc ses performances, peut être significativement différente si les performances sont mesurées au milieu d'une session de jeu. Prendre en compte cette évolution des cartes graphiques allonge ainsi significativement les périodes de test et demande à ce que l'environnement soit contrôlé lors des comparaisons. Une carte graphique testée en hiver à 20 °C puis en été à 28 °C n'affichera pas les mêmes performances.

Un autre abus possible est à chercher dans la sélection des échantillons de test. Les Radeon R9 290 et les GeForce depuis Kepler basent la gestion de leur GPU sur la mesure de leur consommation réelle. Une consommation qui varie d'un exemplaire à l'autre, la production n'étant pas uniforme, notamment au niveau des courants de fuite. Si un exemplaire particulier de GPU consomme moins qu'un autre dans des conditions identiques, lorsque la consommation devient limitée à une même valeur, son moteur de gestion va l'autoriser à rester à une fréquence plus élevée. AMD, Nvidia et leurs partenaires ont ainsi l'opportunité de fournir à la presse les meilleurs échantillons, issus d'un tri plus ou moins sélectif de la production. Un détail qui ne leur a pas échappé.

Petite variante de cet abus, la fréquence maximale variable spécifique aux GeForce. Nvidia a décidé depuis les GTX 600 de ne plus spécifier une fréquence maximale mais uniquement une tension maximale. La fréquence GPU évoluant différemment par rapport à la tension pour chaque échantillon, la fréquence maximale devient variable, tout comme les performances maximales. Un tri sélectif permet de gagner quelques points par rapport à la moyenne, d'autant plus quand les tests sont brefs et favorisent l'application en pratique de la fréquence maximale.


Quelle solution ?
La parade pourrait être pour la presse de se fournir exclusivement dans le commerce et de tester à chaque fois plusieurs échantillons (3 ? 5 ? 10 ?). Que ce soit en termes de coûts, s'il faut systématiquement acheter plusieurs cartes, ou de temps, s'il faut en tester de nombreux exemplaires, ce n'est malheureusement pas réaliste. Nous essayons ainsi pour notre part de prendre en compte autant que possible le comportement du système de gestion dans nos protocoles de tests, nos analyses et nos conclusions. Cela implique de prendre le temps de le comprendre, ce qui n'est pas toujours évident, AMD et Nvidia refusant en général de communiquer à son sujet au-delà de quelques détails grossiers, dans certains cas incorrects puisque dictés par des impératifs de communication qui n'ont que faire de la réalité technique.

Nous effectuons dès lors de très nombreux tests pour en savoir plus et, à chaque lancement de GPU, nous harcelons autant AMD que Nvidia pour plus de clarté à ce sujet, grignotant par-ci par-là un petit détail à force d'insistance ou lorsqu'ils se retrouvent face à des données qui pourraient leur causer du tort. En cas de doute ou si nous avons des indices qui pointent vers des performances potentiellement surévaluées à la suite d'un tri très sélectif, nous faisons en sorte de nous pencher sur des exemplaires issus du commerce. Nous avions ainsi récupéré 2 R9 290X de référence issues de 2 revendeurs différents, constaté un comportement moins bons que celui de la carte fournie par AMD et bien entendu conservé l'une de ces cartes pour nos tests.


Des freins bienvenus
Malgré toutes ces possibilités d'abus qui compliquent le travail des testeurs (à moins qu'ils ne fassent en sorte de fermer les yeux sur cette problématique), la gestion de la consommation avancée des GPU, mise en avant en tant que "turbo", est globalement une bonne chose pour l'utilisateur.

Un utilisateur qui peut cependant avoir l'impression, à tort, qu'il est anormal d'observer des baisses de fréquence significatives lors de sessions de jeu. Cette incompréhension est à chercher du côté de la communication autour de ces technologies : il ne s'agit pas vraiment de turbos mais plutôt de freins. Une réalité moins facile à vendre sur le plan commercial, qui explique en grande partie pourquoi AMD et Nvidia se contorsionnent pour éviter de décrire trop clairement leurs systèmes de gestion des GPU.

Grossièrement, que ce soit GPU Boost chez Nvidia ou Powertune chez AMD, l'approche est la même : le GPU part de sa fréquence maximale et freine si nécessaire pour rester dans les clous en terme de sécurité et de fiabilité.

La baisse de la fréquence GPU, ou le "throttling" en anglais, n'est pas une anomalie. C'est un phénomène voulu qui, en fin de compte, autorise plus de performances avec une limitation des nuisances. Ceci étant dit, un problème ou un défaut de conception peut causer une baisse de fréquence plus importante et, au contraire, un effort supplémentaire des fabricants de cartes graphiques au niveau de la capacité du ventirad et de l'étage d'alimentation peut limiter cette baisse.

Enfin, AMD et Nvidia ont la possibilité de mettre en place une fréquence limite, en général appelée fréquence de base pour renforcer "l'effet turbo", sous laquelle ils estiment qu'il faut éviter d'aller. Pour ne pas trop pénaliser les performances ils peuvent alors prévoir leurs cartes graphiques pour accepter des compromis différents, que ce soit au niveau de la fiabilité ou des nuisances. Par exemple, si les GeForce sont descendues jusqu'à un certain niveau de fréquence, Nvidia laisse la température de leur GPU s'apprécier au-delà de la limite de sécurité. De son côté AMD laisse sur ses cartes de référence la vitesse du ventilateur monter au-delà de la limite de nuisance.

Une approche qui permet de garantir un certain niveau de performances dans un maximum de situations (pas dans toutes, la fréquence GPU reprend sa chute au-delà d'un nouveau seuil), mais qui peut être discutable. L'un comme l'autre estiment cependant que leurs cartes graphiques ne se retrouveront que rarement dans cette situation lors d'une utilisation normale.


Powertune en détail
Avec Hawaii, Powertune a poursuivi son évolution et AMD a développé une nouvelle interface, nettement plus rapide, pour le contrôleur de l'étage d'alimentation : SVI2 ( Serial VID 2).


Celle-ci autorise des changements de tension/fréquence en 10 µs, avec une granularité de 6.25 mV. AMD n'a pas voulu nous indiquer la variation minimale de fréquence à laquelle cela correspond. Il est difficile de l'observer précisément puisque la valeur reportée par exemple dans GPU-Z n'est jamais la valeur réelle mais une valeur lissée. Nous l'estimions au départ à +/- 10 MHz mais après différents tests il s'est avéré qu'elle variait suivant la fréquence du GPU dans le cas des cartes overclockées. Nous l'estimons dorénavant entre 6.5 et 7.5 MHz suivant la carte. Notez que l'interface SVI2 est capable de supporter jusqu'à 255 P-states mais AMD n'en a pas besoin d'autant pour le moment.

Cette interface est capable de transmettre au GPU des tensions/intensités à 40 kHz, ce qui exige une bande passante significative de l'ordre de 20 Mbps. Si le GPU reçoit toutes ces données c'est parce qu'AMD a revu complètement le fonctionnement de PowerTune :


En effet, PowerTune sur Radeon R9 290 est non-déterministe, exactement comme GPU Boost, mais toujours autopiloté par le GPU, comme pour les précédentes Radeon. Il se base sur la température réelle du GPU ainsi que sur sa consommation réelle, deux paramètres qui vont varier d'un échantillon à l'autre du GPU.

L'algorithme utilisé par PowerTune peut être très complexe, la technologie étant flexible et les capteurs internes, précédemment utilisés pour estimer la consommation, étant toujours présents. AMD indique que PowerTune peut par exemple exploiter les données des capteurs internes et/ou de la consommation instantanée pour en déduire une future élévation de la température GPU et l'anticiper avec une légère hausse de la vitesse du ventilateur alors que sans celle-ci une hausse plus importante aurait été nécessaire. Notez que comme souvent avec les GPU, rien ne dit qu'une possibilité technique est réellement exploitée dans les produits et les pilotes finaux.

Depuis très longtemps, la courbe de vitesse du ventilateur des cartes graphiques est on ne peut plus simple : T° X = Y %. Pour les GeForce GTX 700, Nvidia a opté pour une limite de température basse de 80 °C qui permet de limiter la vitesse du ventilateur puisqu'il s'agit d'une simple courbe comme expliqué plus haut. Son système de contrôle logiciel du GPU se charge de faire en sorte de respecter cette température.

Pour la Radeon R9 290X, un peu plus gourmande, AMD a dû faire des compromis, en privilégiant les performances et les nuisances sonores. La température visée est ainsi élevée : 95 °C. AMD indique que tous les composants sont prévus pour cette température, bien entendu principalement le GPU et son packaging. Avant d'avoir du recul sur les taux de retour nous ne pouvons que laisser le bénéfice du doute à AMD. Notez que la comparaison avec les 80 °C de Nvidia n'est pas spécialement valide puisque les choix ont été différents et peuvent faire que 95 °C est un problème pour l'un et pas pour l'autre.

Ensuite, AMD a abandonné la courbe de ventilation classique. Le lien température – vitesse ventilateur n'est plus rigide et AMD peut imposer une vitesse de ventilateur maximale, indépendante de la température, ce qui est une meilleure approche au final pour limiter les nuisances sonores que celle de Nvidia.

Typiquement voici comment Powertune se comporte sur la Radeon R9 290X de référence lors du démarrage d'une tâche 3D telle qu'un jeu :

1. Le GPU monte à 1000 MHz
2. Il y reste si sa consommation ne dépasse pas la limite de 208W, sinon sa fréquence est réduite
3. Le ventilateur accélère lentement jusqu'à ce que le GPU atteigne 94 °C
4. Si cela est nécessaire, il accélère rapidement jusqu'à sa vitesse maximale pour ne pas atteindre 95 °C
5. Si le GPU atteint 95 °C, sa fréquence est réduite jusqu'à revenir à 94 °C
6. Si le GPU est descendu jusqu'à 727 MHz, le ventilateur peut accélérer au-delà de la vitesse maximale
7. Si la température GPU atteint 100°C pendant 2 secondes, la carte se coupe brutalement
Vos réactions

Top articles