HardWare.fr


AMD Radeon R9 290X et R9 290 en test : Hawaii sort ses watts
Cartes Graphiques
Publié le Mercredi 6 Novembre 2013 par Damien Triolet

URL: /articles/910-1/amd-radeon-r9-290x-test-hawaii-sors-ses-watts.html


Page 1 - Introduction

Enfin ! Cela s'active sur le segment haut de gamme jusqu'ici largement dominé par Nvidia et les GeForce GTX Titan et GTX 780. Avec un nouveau GPU de 6.2 milliards de transistors qui prend place dans les Radeon R9 290X et R9 290, AMD compte bien jouer des coudes pour convaincre les joueurs à la recherche des meilleures performances.



Hawaii : un compromis à 6.2 milliards de transistors
Proposer une évolution des cartes graphiques haut de gamme alors que le procédé de fabrication exploité pour leurs GPU n'évolue pas est loin d'être simple. C'est pourtant ce qu'attendent de nombreux joueurs et tant AMD que Nvidia doivent y répondre en essayant de tirer le meilleur compromis en termes de performances, de coûts de fabrication, de consommation et nuisances liées etc.

Pour passer du GK104 ou GK110, Nvidia a opté pour un élargissement massif de l'architecture de son GPU, ce qui lui a permis d'augmenter significativement les performances dans une enveloppe thermique donnée. Cela peut paraître contre-intuitif au premier abord, mais à l'intérieur d'une certaine plage de performances, plus un GPU est gros, moins il consomme. Ceci s'explique par le fait qu'un plus gros GPU pourra être cadencé à une fréquence moindre, ce qui veut dire tension moindre et consommation relative en nette baisse.

Cette approche a un coût important, rappelons que la surface d'une puce est un des paramètres principaux qui définissent son coût de fabrication. Le GK110, est passé à 7.1 milliard de transistors (569 mm²) par rapport aux 3.5 milliards du GK104 (294 mm²), différence qui inclut cependant l'ajout de fonctions dédiées au marché professionnel (double précision, ECC...). La voie prise par Nvidia est d'autant plus coûteuse qu'elle revient à laisser de côté une partie des performances dont est capable le GPU.


Hawaii et ses 16 puces GDDR5 : 6.2 milliards de transistors et bus 512-bit.

AMD a également élargi l'architecture de son GPU en passant de Tahiti à Hawaii, mais dans une moindre mesure, le compromis ayant été fait plus en faveur des coûts de fabrication. Presque mécaniquement, cela signifie qu'AMD doit soit se contenter de performances inférieures à celle de la concurrence, soit d'une consommation en hausse. C'est ce second choix pour lequel AMD a opté mais en travaillant l'unité de gestion Powertune du GPU pour contenir quelque peu sa gourmandise et les nuisances liées.

Pour rappel, le précédent GPU Radeon haut de gamme, Tahiti, a inauguré le procédé de fabrication 28 nanomètres et par conséquent en a essuyé les plâtres, ce qui donne à AMD une petite marge de manœuvre supplémentaire pour son évolution sur le 28nm. Nous avons des raisons de penser que Tahiti est le seul GPU qui a été fabriqué en 28nm HP alors que tous les autres GPU GCN, dont Hawaii, l'ont été sur une autre variante que nous supposons être le 28nm HPL.

Entre Tahiti et les autres GPU, AMD a par ailleurs exploité une implémentation différente de ses interfaces mémoire GDDR5 (PHY). Nettement plus compactes, ces interfaces sont potentiellement moins bien adaptées aux très hautes fréquences de bus mais permettent un gain de densité tel que l'avantage est évident. C'est ce qui a permis à AMD de placer un bus mémoire de 512-bit sur Hawaii. Même avec une fréquence limitée, il permet une progression de la bande passante, mais occupe en pratique sur le GPU une surface inférieure de 20% à celle du bus 384-bit du GPU Tahiti.

De quoi permettre à AMD d'augmenter la densité moyenne de transistors dans son nouveau GPU qui passe à 6.2 milliards de transistors et 438 mm² par rapport aux 4.3 milliards de transistors et 352 mm² de Tahiti. Un monstre plus raisonnable que le GK110, mais un monstre tout de même qui voit sa puissance de calcul progresser de 37% et ses débits de pixels et de triangles doubler.


Page 2 - Hawaii : l'architecture du GPU

Hawaii : l'architecture du GPU
Comme tous les GPU AMD depuis Tahiti et la Radeon HD 7900, Hawaii est basé sur l'architecture GCN qui a la particularité d'exploiter ses unités vectorielles de façon à ce qu'elles présentent un comportement scalaire plus efficace du point de vue des shaders, ces programmes qui sont exécutés sur la géométrie ou les pixels. Nous avions détaillé cette évolution de l'architecture graphique d'AMD vers GCN lors de sa sortie.

A sa base, cette architecture repose sur des blocs fondamentaux appelés Compute Units (CU) qui intègrent chacun 64 unités de calcul (les "cores" en langage marketing), 4 unités de texturing, des caches et toute la logique de contrôle nécessaire au bon fonctionnement de l'ensemble. Voici résumées les spécifications des 6 GPU GCN actuels :

Oland : 6 CU, 1 triangle par cycle, 8 ROP, L2 256 Ko, 128 bits
Cape Verde : 10 CU, 1 triangle par cycle, 16 ROP, L2 512 Ko, 128 bits
Bonaire : 14 CU, 2 triangles par cycle, 16 ROP, L2 512 Ko, 128 bits
Pitcairn : 20 CU, 2 triangles par cycle, 32 ROP, L2 512 Ko, 256 bits
Tahiti : 32 CU, 2 triangles par cycle, 32 ROP, L2 768 Ko, 384 bits
Hawaii : 44 CU, 4 triangles par cycle, 64 ROP, L2 1024 Ko, 512 bits

Plus en détail, voici les représentations de l'architecture des 4 derniers GPU listés, retravaillées sur base des dernières informations qui vont nous permettre de reparcourir l'architecture GCN avec quelques détails supplémentaires :


[ Bonaire ]  [ Pitcairn ]  [ Tahiti ]  [ Hawaii ]

Pour les versions plus grandes de ces diagrammes :

[ Bonaire ]  [ Pitcairn ]  [ Tahiti ]  [ Hawaii ]


Lors de la présentation du GPU Hawaii, nous avons pu en savoir plus sur l'organisation interne des GPU GCN, détails qu'AMD n'avait pas communiqués jusqu'ici et qui rendent les précédents diagrammes d'architecture légèrement incorrects.

AMD introduit le concept de Shader Engine, une structure qui comprend une unité de traitement géométrique ainsi que les blocs d'unités de calcul et de ROP (ou RB, Render Back-ends) qu'elle alimente. Pour certains GPU GCN, vient s'ajouter le concept de Shader Array, des sous-ensembles d'unités de calcul et de ROP présents à l'intérieur d'un Shader Engine. Ces concepts sont bien entendu comme toujours une représentation imaginée et simplifiée de l'architecture, l'implémentation physique étant plus complexe et souvent différente.

La raison de cette subdivision en Shader Engines et en Shader Arrays est liée d'une part à des contraintes physiques (consommation, répartition des points chauds sur la puce etc.) et d'autre part à la volonté de faciliter la distribution équilibrée des différentes tâches, principalement des pixels. Chaque groupe de ROP se voit assigner statiquement un ensemble de petites zones (tiles) de l'image qui est ainsi virtuellement quadrillée. Lorsqu'un triangle est pris en charge par un moteur géométrique, celui-ci doit donc être répliqué dans tous les rasterizers qui correspondent aux zones de l'écran qu'il affecte, ce qui est par exemple le cas de tous les triangles de plus de quelques pixels, raison pour laquelle un bus de communication relie tous les moteurs géométriques entre eux sur ces diagrammes.

En d'autres termes, n'importe quel rasterizer ne peut pas générer des pixels qui correspondent à n'importe quelle zone de l'écran. Et n'importe quel Shader Engine / Shader Array ne peut pas calculer et écrire en mémoire n'importe quel pixel.

Cette approche relativement rigide permet de répartir d'une manière équilibrée les pixels entre les différentes unités de calcul et ROP. Elle impacte directement la possibilité des proposer des versions castrées de ces GPU. Pour conserver cet équilibre, AMD doit ainsi désactiver un nombre de CU proportionnel au nombre de SE/SA. Par exemple il n'est pas possible de créer un GPU Pitcairn avec 18 CU, la version castrée du GPU doit obligatoirement passer à 16 ou 12. Il en va de même pour Tahiti et Hawaii (le nombre de CU passe de 44 à 40 pour la Radeon R9 290). Par contre les CU de Bonaire et Cape Verde peuvent être désactivés par paires alors qu'un seul CU à la fois peut-être désactivé sur Oland, ce qu'AMD a fait pour la Radeon R7 240.


A l'intérieur d'un Shader Engine, peuvent se retrouver un ou deux Shader Arrays, concept qui s'efface dans le premier cas par souci de simplification. A l'intérieur du Shader Array nous retrouvons un certain nombre de Compute Units, de 5 à 11 suivant les designs proposés par AMD, mais nul doute que l'architecture est prévue pour aller au-delà.

À côté des CU, prennent place les mémoires qu'ils se partagent par groupe de 4 maximum (les barres verticales violettes sur les diagrammes) : cache L1 pour les unités scalaires/constantes (K$ 16 Ko) et cache L1 pour les instructions (I$ 32 Ko). Dans le cas de Tahiti illustré ici, avec 8 CU par Shader Array, ceux-ci se regroupent par 4 au niveau de ces petits caches. Dans le cas de Hawaii, avec 11 CU par Shader Engine, le dernier groupe n'est composé que de 3 CU. Pitcairn est le moins efficace au niveau de l'implémentation puisqu'il faut deux ensembles de caches pour seulement 5 CU.

Enfin, tout à gauche, nous retrouvons les partitions de ROP (RB), jusqu'à 4 par Shader Engine. Chaque partition représente 4 ROP capables de prendre en charge et écrire en mémoire jusqu'à 4 couleurs ainsi que 16 valeurs Z, et englobe les différents caches nécessaires à leur fonctionnement optimal. Avec GCN 1.1, soit Bonaire et Hawaii, les performances des ROP ont été revues à la hausse, notamment en HDR FP16, grâce à un regroupement plus intelligent des pixels qui permet de les stocker et de les réordonner jusqu'à 2x plus efficacement. Par ailleurs les ROP sont capables de détecter plus efficacement quand les écritures sont inutiles lors du mélange de pixels de manière à pouvoir les éviter et économiser de la bande passante mémoire. AMD nous indique par ailleurs que ces deux optimisations permettent également d'économiser de l'énergie au niveau des ROP, ce qui a probablement participé à permettre de doubler leur nombre entre Tahiti et Hawaii.

Alors que les ROP sont connectés directement aux contrôleurs mémoire puisqu'ils intègrent déjà un cache hyper spécialisé, les CU, via toutes leurs voies de lectures/écritures, sont connectés au cache L2 qui passe à 1 Mo sur Hawaii. C'est 33% de plus que pour Tahiti, au niveau de sa taille mais également au niveau de la bande passante interne qui y est proportionnelle. Entre les différents L1 et le cache L2 de Hawaii, la bande passante combinée peut ainsi atteindre 1 To/s. Le tout alimente ensuite le bus mémoire de 512-bit.


Au cœur de chaque CU, nous retrouvons les 4 unités vectorielles 16D (SIMD) qui forment les 64 "cores" mis en avant par le marketing. Chaque SIMD dispose d'un fichier registres dédié de 64 Ko et chacune de ses lignes d'exécution est capable d'effectuer une opération de type FMA 32-bit par cycle (2 flops). Les instructions complexes sont traitées en plusieurs cycles par les SIMD, contrairement à l'architecture Nvidia qui dispose d'unités dédiées.

Ces SIMD sont capables de traiter les opérations en double précision (64-bit) en 16 cycles soit à 1/16ème de leur débit classique. AMD a cependant la possibilité d'augmenter ce débit en complexifiant ses unités de calcul. Tahiti est ainsi passé à un débit de 1/4 alors que Hawaii dans sa version R9 290X se contente de 1/8ème sans que nous ne sachions avec certitude s'il s'agit du maximum dont est capable le GPU ou s'il a été bridé pour donner un avantage sur ce point à sa version FirePro.

Toute la logique de contrôle est intégrée au niveau du CU ainsi que 64 Ko de mémoire partagée (LDS, Local Data Share) et un ensemble de 4 unités de texturing et 16 unités de lectures/écritures qui leur sont liées. Celles-ci accèdent à la mémoire externe via un cache L1 de 16 Ko.

Pour les GPU GCN 1.1, les CU ont été mis à jour pour intégrer la mémoire partagée dans un espace mémoire unifié (flat addressing), évolution nécessaire pour la HSA qui facilitera notamment le travail des compilateurs dans le cadre du GPU Computing. Seconde petite évolution : AMD a amélioré la précision des instructions natives LOG et EXP, ce qui devrait permettre de les privilégier dans plus de cas par rapport aux macros moins performantes (pour le détail, la précision passe à 1 ULP).


Si nous revenons à un niveau plus élevé de l'architecture, Hawaii est le premier GPU AMD à disposer de 4 processeurs géométriques, ce qui veut dire qu'il peut prendre en charge jusqu'à 4 primitives (triangles, lignes, points) par cycle. L'unité de tessellation étant présente à ce niveau (elle est distribuée dans les ensembles d'unités de calcul chez Nvidia), la capacité de Hawaii à générer des triangles est également doublée par rapport à Bonaire/Pitcairn/Tahiti.

Pour rappel, lorsque la quantité de triangles et données associées qui sont générés est élevée, ils doivent être dirigés vers la mémoire vidéo, ce qui est moins efficace que de tout garder à l'intérieur du GPU mais permet d'éviter d'engorger celui-ci à un point tel qu'il serait totalement paralysé. Pour gagner en efficacité dans certains cas, AMD indique avoir apporté quelques optimisations au niveau du buffer utilisé pour le transfert en mémoire vidéo du flux de données généré par la tessellation. Par ailleurs, pour éviter d'y avoir recours autant que possible, la mémoire partagée peut être exploitée d'une manière plus flexible en tant que cache pour les données géométriques. Compte tenu du gain que nous avons observé sur tous les GPU GCN avec les pilotes récents, nous supposons que ce dernier point est une évolution logicielle qui n'est pas spécifique à Hawaii.


Bien qu'AMD ne mette que très peu en avant ce point, ou tout du moins évite d'en parler, Bonaire et Hawaii introduisent une légère évolution de l'architecture GCN que nous qualifions de 1.1. En plus de petits détails décrits ci-dessus, ces évolutions concernent principalement le processeur de commande du GPU et sont destinées au GPU Computing et à la HSA (Heterogeneous System Architecture).

Parmi ces évolutions, notons le support de 8 files d'attente par compute pipeline (ACE, Asynchronous Compute Engine), ce qui va dans le sens de la technologie Hyper Q de Nvidia réservée aux Tesla K20 et permet de mieux alimenter le GPU en évitant que lors de dépendances entre kernels (programmes à exécuter), le GPU ne se retrouver bloqué en attendant le résultat de l'un d'eux. Ainsi, les 2 ACE de Bonaire permettent de supporter jusqu'à 16 files d'attente alors que Hawaii passe, comme les GPU intégrés aux APU des PS4 et Xbox One, à 8 ACE et donc à 64 files d'attente. De quoi autoriser un gain d'efficacité significatif du GPU Computing où de nombreuses petites tâches doivent être traitées, ce qui revient à rendre son utilisation envisageable en pratique dans plus de cas.

Un adressage mémoire unifié est également au programme et de nouvelles instructions font leur apparition dont certaines dédiées au débogage du code. Vous pourrez retrouver un extrait du document qui détaille l'évolution du jeu d'instruction (mais qui a été retiré par AMD le temps d'en corriger certaines notations qui étaient peu claires au niveau du nom des différentes architectures) dans le dossier que nous avions consacré à Bonaire il y a 6 mois de cela.


La dernière nouveauté se situe au niveau du support complet (Tier2) d'une fonctionnalité optionnelle de DirectX 11.2 : les Tiled Resources, sujet que nous avons déjà évoqué. Rappelons que DirectX 11.2, ou plutôt Direct3D 11.2, n'introduit que de petites nouveautés optionnelles pour les niveaux matériels 11_0 et 11_1 et qu'aucun niveau matériel 11_2 n'existe au grand dam des fabricants de GPU qui ont l'habitude d'essayer de mettre en avant ce point.

Parler de GPU de génération DirectX 11.2 est donc un non-sens dont ne manqueront cependant pas d'abuser certains acteurs de l'industrie. Support complet des tiled resources ou pas, Bonaire et Hawaii ne sont en réalité pas plus DirectX 11.2 qu'une Radeon R9 280X, qu'une Radeon HD 7000, qu'une GeForce GTX 700 ou qu'une Radeon HD 3000 !


Page 3 - TrueAudio

TrueAudio
Avec Windows Vista, Microsoft a en quelque sorte mis à la retraite tous les accélérateurs audio. Par souci de simplifier et rendre plus fiable sa pile audio, celle-ci a été implémentée d'une manière logicielle alors qu'elle l'était auparavant au niveau de pilotes ce qui donnait pas mal de flexibilité aux développeurs d'accélérateurs audio. Certes, si DirectX à travers DirectSound ou EAX a fermé des portes, OpenAL a permis de continuer à utiliser des accélérateurs audio mais avec une portée nettement plus limitée.


À travers TrueAudio, AMD entend contribuer à changer cela. Dans bien des cas, les développeurs de jeux vidéo sont limités en terme de budget CPU attribué à la partie audio de leur moteur ce qui les force à se contenter d'effets simples et/ou prérendus en évitant en positionnement en 3D et en temps-réel des sons. AMD est convaincu que les gros studios vont vouloir aller plus loin sur le plan audio et que l'arrivée de consoles dont les processeurs intègrent des capacités de traitement audio évoluées vont rapidement les convaincre de faire le pas. En concevant ces processeurs, AMD est, il est vrai, dans une position idéale pour avoir une idée du bon timing pour ce genre de chose.

A la question de savoir si TrueAudio est identique à ce qui va se faire sur l'une des consoles à venir, AMD ne répond pas et se contente de dire que, peu importe, si les gros studios veulent aller plus loin au niveau audio et que les développeurs des moteurs de jeux sautent le pas, il suffira de les convaincre d'ajouter un module TrueAudio. Parmi les effets visés par l'accélération matérielle, AMD met principalement en avant le son 3D en général mais également les réverbérations ou le placement précis des voix.


TrueAudio est un accélérateur de traitement audio intégré aux GPU Hawaii et Bonaire. Exactement de la même manière, AMD aurait pu exécuter ce traitement à travers OpenCL, des démos ont d'ailleurs était faites précédemment dans ce sens. Le problème est que cela aurait représenté une utilisation inefficace de ses unités de calcul alors que quelques petits circuits spécialisés peuvent fournir le même résultat à coût réduit, voire négligeable pour un gros GPU, et ce à une fraction de la consommation.


AMD a donc opté pour un petit DSP (Digital Signal Processor). Celui est basé sur un ensemble de cores HiFi EP de Tensilica , société spécialisée dans le traitement audio. AMD ne précise pas quel nombre de cores ont été intégrés mais nous a indiqué que ce nombre était identique pour Hawaii et Bonaire, les deux GPU équipés de TrueAudio. Chacun de ces cores, programmables en C, dispose d'un DSP spécialisé dans le traitement audio 24-bit et dont la ou les unités de calcul vectoriel sont de type VLIW, de 32 Ko de L1D, de 32 Ko de L1I et de 8 Ko de mémoire scratch.


Intégrer ces cores n'est cependant pas suffisant et AMD a dû les encadrer d'une structure qui permet de les piloter et de les alimenter. Elle inclut notamment 384 Ko de cache commun, un accès au bus mémoire pour piloter jusqu'à 64 Mo de mémoire vidéo et bien entendu un moteur DMA pour s'assurer d'un transfert rapide de toutes les données nécessaires au bon fonctionnement de TrueAudio.


Attention, il ne s'agit pas d'une carte son ! TrueAudio est un accélérateur de traitement audio auquel accède uniquement l'application qui lui envoie un signal, le reçoit une fois traité et renvoie ce signal vers la pile Windows standard. Même dans le cas où la sortie HDMI de la carte graphique est exploitée pour transporter le son, celui-ci doit faire un aller-retour vers l'application et la pile Windows.


Du point de vue des développeurs, il sera possible d'accéder aux capacités de traitement de TrueAudio via l'API AMD TrueAudio qui est en cours de finalisation. Pour que cela soit réellement utile en pratique, AMD devra convaincre un maximum de fournisseurs de middlewares de supporter sa solution.

Dans l'immédiat deux développeurs ont annoncé le support de TrueAudio. Le développeur indépendant Xaviant qui travaille sur le jeu Lichdom. Il était en démonstration avec une version fonctionnelle de TrueAudio lors de la présentation à la presse du GPU Hawaii et force est de constater que la démonstration était plutôt très convaincante sur le plan du positionnement audio. AMD a également convaincu les développeurs d'Eidos/Square Enix, avec lesquels ils ont déjà travaillé sur plusieurs jeux, d'intégrer le support de TrueAudio dans le nouveau Thief, prévu pour fin février 2014. Est-ce que cette initiative ira au-delà du support dans une poignée de jeux ou finira aux oubliettes ? Affaire à suivre...


Page 4 - Powertune évolue

Powertune
PowerTune est depuis quelques années la technologie de contrôle de la consommation des GPU AMD. A l'origine, elle consistait à utiliser de nombreux capteurs de charge internes pour estimer aussi précisément que possible la consommation du GPU de manière à l'empêcher de dépasser le TDP. Une approche totalement déterministe qui permet à chaque exemplaire d'afficher des performances identiques dans des conditions identiques, comme c'est le cas sur les CPU et contrairement à la technologie GPU Boost de Nvidia qui se base sur une mesure directe de l'intensité du courant. Par ailleurs, PowerTune est une unité de contrôle intégrée directement dans le GPU alors que GPU Boost est un monitoring principalement logiciel. PowerTune peut donc réagir beaucoup plus vite et surtout travailler à une fréquence plus élevée.


Sur les Radeon HD 7000 originales, 3 P-states étaient exploités par PowerTune avec un High State dans lequel pouvait évoluer les fréquences/tensions. Les Radeon HD 7970 GHz Edition et HD 7950 v2 ont introduit un 4ème P-state. Ce Boost State permet de faire évoluer la fréquence avec une tension plus élevée.

À partir de Bonaire, AMD a remis à plat sa gestion des P-sates :


Pour la Radeon 7790, 8 P-States qui représentent des couples fréquence/tension différents sont cette fois exploités. Suivant l'activité du GPU, l'estimation de sa consommation et de son échauffement, PowerTune va faire passer le GPU d'un P-Sate à l'autre avec une granularité de 10 ms. AMD précise cependant que dans les outils d'overclocking, la fréquence reportée sera lissée, sans donner plus de précisions à ce sujet.

Avec Hawaii, PowerTune poursuit son évolution et ce sont cette fois pas moins de 64 P-states qui sont disponibles. Pour gérer tout cela avec un délai de réaction très court, AMD a développé une nouvelle interface, nettement plus rapide, pour le contrôleur de l'étage d'alimentation : SVI2 ( Serial VID 2).


Celle-ci autorise des changements de tension/fréquence tous les 10 µs, avec une granularité de 6.25 mV. AMD n'a pas pu nous indiquer la variation minimale de fréquence à laquelle cela correspond mais nous l'estimons à +/- 10 MHz dans le cas des Radeon R9 290. Il est difficile de l'estimer précisément puisque la valeur reportée par exemple dans GPU-Z n'est jamais la valeur réelle mais une valeur lissée (qui varie alors par +/- 0.8 MHz). Notez que cette interface est capable de supporter jusqu'à 255 P-states mais AMD n'en a pas besoin d'autant pour le moment.

Cette interface est capable de transmettre au GPU des tensions/intensités à 40 kHz, ce qui exige une bande passante significative de l'ordre de 20 Mbps. Si le GPU reçoit dorénavant toutes ces données c'est parce qu'AMD a revu complètement le fonctionnement de PowerTune :


En effet, PowerTune sur Radeon R9 290X est dorénavant non-déterministe, exactement comme GPU Boost. Il se base sur la température réelle du GPU ainsi que sur sa consommation réelle, deux paramètres qui vont varier d'un échantillon à l'autre du GPU. Nous n'avons cependant pas ici à faire à la double variation que l'on retrouve du côté de Nvidia du fait que la fréquence turbo varie aussi d'un échantillon à l'autre, ce qui est un autre sujet. La fréquence maximale du GPU de la Radeon R9 290X reste bien fixe et identique pour tous.

L'algorithme utilisé par PowerTune peut être très complexe, la technologie étant flexible et les capteurs internes étant toujours présents. PowerTune peut par exemple exploiter les données des capteurs internes et/ou de la consommation instantanée pour en déduire une future élévation de la température GPU et l'anticiper avec une légère hausse de la vitesse du ventilateur alors que sans celle-ci une hausse plus importante aurait été nécessaire. Depuis très longtemps, la courbe de vitesse du ventilateur des cartes graphiques est on ne peut plus simple : T° X = Y %. Ce n'est plus le cas avec la Radeon R9 290X.

PowerTune tout comme GPU Boost ne définissent cependant pas le comportement des produits qu'ils pilotent, cette tâche revient à Nvidia et AMD qui choisissent quelles limites imposer pour chaque produit. Avec la Radeon HD 7970, AMD fixait une consommation maximale et une table de correspondance du taux d'activité de chaque bloc du GPU avec la consommation liée. Cette table de correspondance représentait le pire des cas et vu que PowerTune se basait exclusivement sur cette estimation, de nombreuses cartes étaient en pratique à une consommation inférieure et auraient peut-être pu tourner à une fréquence supérieure. C'était le prix à payer pour garantir les mêmes performances pour tous.

Avec GPU Boost, Nvidia ne s'est jamais embarrassé de ce détail et étant donné que son approche a été acceptée par la majorité, AMD a estimé qu'il n'y avait plus de raison d'imposer cette limite à ses cartes graphiques. Pour les GeForce GTX 700, Nvidia a opté pour une limite de température basse de 80 °C qui permet de limiter la vitesse du ventilateur puisqu'il s'agit d'une simple courbe comme expliqué plus haut. Son système de contrôle logiciel du GPU se charge de faire en sorte de respecter cette température.

Pour la Radeon R9 290X, AMD a dû faire des compromis, en privilégiant les performances. La température visée est ainsi élevée : 95 °C. AMD indique que tous les composants sont prévus pour cette température, bien entendu principalement le GPU et son packaging. Avant d'avoir du recul sur les taux de retour nous ne pouvons que laisser le bénéfice du doute à AMD. Notez que la comparaison avec les 80 °C de Nvidia n'est pas spécialement valide puisque les choix ont été différents et peuvent faire que 95 °C est un problème pour l'un et pas pour l'autre.

Ensuite, le lien température – vitesse ventilateur n'étant plus rigide, AMD peut imposer une vitesse de ventilateur maximale, ce qui est une meilleure approche au final pour limiter les nuisances sonores que celle de Nvidia.

Le problème bien entendu c'est qu'au vu de la consommation élevée du GPU Hawaii, AMD doit accepter une vitesse de ventilateur suffisante. C'est la raison pour laquelle deux modes sont proposés pour la Radeon R9 290X : Quiet avec 40% max (2120 RPM) et Uber avec 55% max (3120 RPM). PowerTune doit s'assurer de ne pas dépasser 94 °C, 40% ou 55% (47% pour la Radeon R9 290) ainsi qu'une consommation GPU de 208W. Il s'agit ici de la consommation du GPU seul, en sortie de l'étage d'alimentation. Ajoutez la perte à son niveau (elle est visible dans GPU-Z en comparant les courants d'entrée et de sortie), la consommation de la mémoire et du reste de la carte graphique et vous obtenez un TDP de +/- 300W.

Typiquement voici comment PowerTune se comporte sur la Radeon R9 290X lors du démarrage d'une tâche 3D telle qu'un jeu :

1. Le GPU monte à 1000 MHz
2. Il y reste si sa consommation ne dépasse pas 208W, sinon tension et fréquence sont réduites
3. Le ventilateur accélère lentement jusqu'à 94 °C
4. Si cela est nécessaire, il accélère rapidement jusqu'à sa vitesse maximale pour ne pas atteindre 95 °C
5. Si le GPU atteint 95 °C, tension et fréquence sont réduites jusqu'à revenir à 94 °C
6. Si le GPU est descendu à 727 MHz, le ventilateur peut accélérer au-delà de la vitesse maximale
7. Si la température atteint 100°C pendant 2 secondes, la carte se coupe brutalement

Dans le cas de la Radeon R9 290, c'est à partir de 662 MHz que le ventilateur peut accélérer au-delà de la vitesse maximale qui a été définie.


Page 5 - CrossFire et Eyefinity aussi

CrossFire X via PCI Express
Depuis les Radeon HD 2900, et après un bref passage via un Compositing Engine externe avec les Radeon X1900, AMD intègre le support de CrossFire dans ses GPU. Il s'agit d'une part d'un Compositing Engine, chargé d'associer le travail des deux GPU et d'autre part d'une interface de communication entre les GPU. Ce sont les fameux connecteurs CrossFire qui prennent place sur le dessus des Radeon.

Depuis quelque temps cependant, cette interface n'est plus utilisée dans toutes les situations, notamment en multi-écran avec une résolution Eyefinity. La bande passante offert par le lien CrossFire est limitée à 0.9 Go/s, ce qui ne lui permet pas de prendre en charge les très hautes résolutions. Les transferts entre GPU se font alors directement via le bus PCI Express.


En travaillant sur l'optimisation de ce mode de transfert, AMD s'est aperçu qu'il pouvait être plus flexible et au moins aussi performant que l'interface dédiée, à condition d'intégrer un moteur DMA dans le bloc CrossFire X. Hawaii est le premier GPU à le faire.

AMD assure qu'il n'y a aucun impact sur les performances et que cela permet d'activer le Frame Pacing, pour lisser la cadence d'affichage et réduire les micro-saccades, sur toutes les résolutions. Se pose bien entendu la question de l'efficacité suivant le type de PCI Express exploité (3.0 16x, 3.0 8x, 2.0 8x…), la présence de switchs PCI Express éventuels etc. Ne disposant actuellement que d'une seule Radeon R9 290X, nous n'avons pas encore pu nous pencher sur le sujet plus en détail.


Eyefinity plus flexible
Avec les Catalyst 13.11 beta fournis pour ce test et celui des autres Radeon R200, la partie affichage a droit à du neuf. Tout d'abord, tout comme Nvidia, AMD supporte le nouveau standard VESA Display ID v1.3 qui permet de configurer automatiquement l'affichage sur les écrans 4K de type tiled display. Nous avons pu le vérifier, c'est fonctionnel.


Plus important, LA limitation d'Eyefinity disparaît enfin : si les 3 écrans utilisent un même ensemble résolution/timings, il est dorénavant possible d'utiliser simultanément les 2 sorties DVI et la sortie HDMI. Plus besoin de passer obligatoirement par un connecteur DisplayPort et un adaptateur actif pour les écrans qui ne supportent pas cette connectique nativement. Cette fonctionnalité étant logicielle, il est incompréhensible pour nous qu'AMD ne l'ait pas implémentée plus tôt.

C'est la raison pour laquelle la connectique des Radeon R9 200 de référence revient vers 2 DVI + HDMI + DP au lieu de DVI + HDMI + 2 mini-DP. Cette possibilité pourrait également être activée pour les anciennes cartes, si leur connectique le permet, ce qui est le cas de certaines cartes partenaires. Il est possible qu'une mise à jour du bios soit alors nécessaire, mais AMD n'a pas confirmé ce point.



Page 6 - Performances théoriques : pixels

Notez que par rapport à nos précédentes mesures théoriques, nous avons allongé la durée de nos tests de manière à ce que la fréquence GPU puisse se stabiliser en terme de consommation. Ils restent cependant suffisamment brefs pour ne pas être influencés par la température de manière à représenter les débits bruts des différents GPU. Nous avons repris leurs versions les plus performantes, excepté pour Tahiti pour lequel nous avons opté pour la Radeon R9 280X de manière à ce que tous les GPU AMD soient représentés à 1 GHz.

Performances texturing
Nous avons mesuré les performances lors de l'accès aux textures en filtrage bilinéaire activé et ce, pour différents formats : en 32 bits classique (8x INT8), en 64 bits "HDR" (4x FP16), en 128 bits (4x FP32), en profondeur de 32 bits (D32F) et en FP10, un format HDR introduit par DirectX 10 qui permet de stocker des textures HDR en 32 bits avec quelques compromis.


Les GeForce GTX sont capables de filtrer les textures FP16 à pleine vitesse contrairement aux Radeon, ce qui leur donne un avantage considérable sur ce point d'autant plus que leur architecture reposer sur une proportion plus importante d'unités de texturing par unités de calcul.

Notez que dans ce test, les GeForce à base de GK104/106/107 ont du mal à atteindre leur débit maximal dans ce test. Les Radeon peuvent également s'éloigner plus ou moins de leur maximum théorique, cette fois parce que PowerTune les en empêche en réduisant la fréquence GPU, estimant ou mesurant que le niveau de consommation est trop élevé lorsque leurs unités de texturing sont saturées. Ce n'est pas le cas pour les Radeon HD 7900 ni pour les Radeon HD 7800 (depuis la mise à jour de PowerTune en automne 2012), ni pour la Radeon HD 7790. La Radeon HD 7770 et la Radeon R9 290X sont par contre quelque peu limitées.


Fillrate
Nous avons mesuré le fillrate sans et puis avec blending, et ce avec différents formats de données :


[ Standard ]  [ Avec blending ]

Le fillrate est l'un des points forts du GPU Hawaii qui intègre pas moins de 64 ROP chargés d'écrire les pixels en mémoire. Tout comme pour Bonaire, ces ROP profitent qui plus est d'une efficacité supérieure avec blending. De quoi permettre un gain massif dans un exemple aussi simple que notre test qui tombe pour ces GPU dans le cas idéal.

À l'inverse, le fillrate peut être vu comme le point faible du GK110. Ainsi, il n'augmente que très peu par rapport au GK104, un peu plus de 10% en théorie pour la GTX Titan et un petit peu moins en pratique. Pour rappel, les 14 SMX de la GeForce GTX Titan sont capables de transférer 56 pixels par cycle vers les ROP et ceux-ci sont capables d'en écrire 48 en mémoire par cycle, contre 32 et 32 pour une GeForce GTX 680. La limitation se situe en fait au niveau des rasterizers : le GK110 en dispose de 5 contre 4 pour le GK104. Chacun de ceux-ci étant capable de générer 8 pixels, le GK110 est en réalité limité à 40 pixels par cycle contre 32 pour le GK104. La différence de fréquence réduit encore cet écart.

Suivant sa configuration, la GeForce GTX 780 peut être limitée au niveau des rasterizers soit à 32, soit à 36, soit à 40 pixels par cycle. Notre échantillon de test était dans le premier cas et se retrouve donc avec un fillrate légèrement inférieur à celui d'une GeForce GTX 680.

Au niveau du fillrate, les GeForce GTX Kepler sont enfin capables de transférer les formats FP10/11 et RGB9E5 à pleine vitesse vers les ROP, bien que le blending de ces formats se fasse toujours à demi vitesse. Si les GeForce et les Radeon sont capables de traiter le FP32 simple canal à pleine vitesse sans blending, seules ces dernières conservent ce débit avec blending. Elles sont par ailleurs nettement plus rapides en FP32 quadruple canal (HDR 128 bits).

Bien que les Radeon 7800 disposent du même nombre de ROP que les Radeon HD 7900, leur bande passante mémoire inférieure ne leur permet pas de maximiser leur utilisation avec blending ainsi qu'en FP16 et FP32 sans blending.


Page 7 - Performances théoriques : géométrie

Notez que par rapport à nos précédentes mesures théoriques, nous avons allongé la durée de nos tests de manière à ce que la fréquence GPU puisse se stabiliser en terme de consommation. Ils restent cependant suffisamment brefs pour ne pas être influencés par la température de manière à représenter les débits bruts des différents GPU. Nous avons repris leurs versions les plus performantes, excepté pour Tahiti pour lequel nous avons opté pour la Radeon R9 280X de manière à ce que tous les GPU AMD soient représentés à 1 GHz.

Débit de triangles
Étant donné les différences architecturales des GPU récents au niveau du traitement de la géométrie, nous nous sommes évidemment penchés de plus près sur le sujet. Tout d'abord nous avons observé les débits de triangles dans deux cas de figure : quand tous les triangles sont affichés et quand ils sont tous rejetés (parce qu'ils tournent le dos à la caméra) :


Quand les triangles peuvent être éjectés du rendu, les GeForce GTX Titan, GTX 770 et GTX 660 profitent pleinement de leur capacité de prise en charge de 7, 4 ou 2.5 triangles par cycle pour se démarquer des Radeon. Bonaire se comporte ici exactement comme Tahiti et Pitcairn alors que Hawaii passe à la vitesse supérieure mais sans pouvoir égaler le GK104.

Une fois que les triangles doivent être rendus, le débit maximal théorique des GeForce chute sur certains modèles alors que leur efficacité est plus généralement en baisse, peut-être parce que ces GPU sont engorgés à un endroit ou à un autre, ou encore parce que leurs performances ont été réduites artificiellement pour différencier les Quadro des GeForce. La Radeon R9 290X prend ainsi la tête sur ce point.

Ensuite nous avons effectué un test similaire mais en utilisant la tessellation :


Avec les GeForce GTX Kepler, Nvidia réaffirme sa supériorité lorsqu'il s'agit de traiter un nombre important de petits triangles générés par un niveau de tessellation élevé. Les Radeon HD 7900/ R9 280X ne se démarquent pas des Radeon HD 7800 et de la Radeon HD 7790 qui disposent du même nombre d'unités fixes dédiées à cette tâche.

L'architecture des Radeon fait qu'elles peuvent être engorgées plus facilement par la quantité de données générées, ce qui réduit drastiquement leur débit dans ce cas. AMD fait évoluer progressivement les différents buffers liés à la tessellation, et la manière de les utiliser, pour éviter autant que possible de se trouver dans ce cas. Les derniers pilotes apportent d'ailleurs des gains significatifs à ce niveau pour l'ensemble des GPU GCN.

Hawaii affiche un gain important au niveau du débit brut, soit lorsque les triangles générés ne doivent pas être rendus. Lorsque c'est le cas, il se contente par contre dans notre test d'une progression de +/- 10% par rapport à Tahiti. Notre test étant relativement lourd en termes de données générées par triangles, nous supposons que le GPU souffre d'un embouteillage à un endroit ou à un autre, peut-être au niveau du canal de transfert de ces données vers les contrôleurs mémoire (mais pas directement au niveau de la bande passante globale qui est loin d'être saturée).


Page 8 - Spécifications, la Radeon R9 290X de référence

Spécifications

Depuis quelque temps nous hésitons sur la manière de qualifier la ou les fréquences des Radeon. Peut-on réellement parler de fréquence turbo lorsqu'il n'y a pas réellement de fréquence de base atteinte en pratique et à partir de laquelle le comportement du GPU change ? Quand il n'y a pas de fréquence minimale ? Dans le cas des GeForce GTX 600 et 700, le qualificatif de fréquence turbo semble logique alors que dans le cas d'une Radeon R9 280X, il l'est beaucoup moins. Nous avons donc décidé de faire le compromis de combiner fréquence turbo et fréquence maximale sur une même ligne et d'ajouter une fréquence de base à titre de référence lorsque cela fait sens. Le calcul des débits théoriques se fait cependant uniquement sur base des fréquences turbo/max (variable dans le cas des GeForce).

Dans le cas de la Radeon R9 290X, AMD indique que 727 MHz n'est pas une fréquence de base et qu'en réalité il n'y en a pas. Néanmoins, il s'agit de la fréquence à partir de laquelle il y a une rupture dans le comportement de la carte. Il en va de même pour la Radeon R9 290 quand elle atteint 662 MHz.

Par rapport à une GTX Titan, la R9 290X est devant en terme de puissance de calcul et de débit de pixel, mais derrière au niveau des débits de triangles et de filtrage des textures. La Radeon R9 290X profite cependant d'une bande passante mémoire 11% plus élevée que celle des cartes auxquelles elle est comparée ici. De quoi annoncer un match relativement serré.

La Radeon R9 290 conserve la même bande passante mémoire que sa grande sœur, mais se contente de 95% de ses débits de triangles/pixels et de 86% de sa puissance de calcul.


Radeon R9 290X de référence
Pour ce test, AMD nous a fourni une Radeon R9 290X de référence :




Pour sa Radeon R9 290X de référence, AMD reprend son design habituel. Comme d'habitude, une nouvelle famille de cartes graphiques a droit à un style de coque différent. Sobre mat pour les HD 5000, mat pas très beau pour les HD 6000, sobre brillant pour les HD 7000 et finalement mat assez agressif pour les Radeon R200. Visuellement c'est plutôt réussi même si nous aurions tendance à préférer le style plus sobre des Radeon HD 7000 d'autant plus que leur coque résonne moins au contact. Si rien d'indique que cela impacte en pratique les nuisances sonores, le sentiment de robustesse s'en ressent.

Dans tous les cas, la coque en plastique reste de conception assez simple, AMD ayant clairement décidé de ne pas tenter de concurrencer Nvidia sur le niveau de finition des GTX 780 et Titan de référence.

Au niveau du ventirad en lui-même, nous retrouvons la même turbine que sur les Radeon HD 7970 ainsi qu'une très large chambre à vapeur surmontée d'un radiateur en aluminium similaire mais pas tout à fait identique. Il a notamment été biseauté au niveau de la sortie d'air pour diriger plus efficacement l'air vers la grille d'extraction.


Le PCB de référence s'inspire largement lui aussi de celui de la Radeon HD 7970. La connectique a cependant été revue avec deux sorties DVI, une sortie HDMI et une sortie DisplayPort alors que les connecteurs CrossFire X disparaissent bien que leurs traces soient toujours présentes sur le PCB (voir sur la photo arrière). Attention, aucune sortie analogique n'est supportée et il ne sera pas possible de connecter un écran VGA via un adaptateur DVI->VGA.

AMD reste sur un étage d'alimentation de 5 phases pour le GPU mais certains composants auraient été quelque peu musclés. Il faut dire qu'avec un TDP de +/- 300W et une limite de consommation de 208W pour le GPU, qui peut être relevée de 50% via le panneau de contrôle, le stress à leur niveau peut être relativement important. Par défaut ils sont cependant très bien refroidis.

A noter qu'AMD se contente toujours de connecteurs d'alimentation 8+6 broches, ce qui signifie qu'en pratique la consommation va légèrement au-delà des normes lors de charges très lourdes. En pratique ce n'est en aucun cas un problème puisque l'alimentation via le bus PCI Express, plus sensible, n'est que très peu mise à contribution, un très bon point.

AMD a conservé le double bios et le petit switch qui permet de passer de l'un à l'autre. Ces 2 bios prennent ici plus d'importance, l'un étant configuré en mode Quiet et l'autre en mode Uber. La seule différence entre ces deux modes concerne la vitesse maximale du ventilateur, de 40% pour le premier et de 55% pour le second, à partir de laquelle la fréquence GPU va être réduite progressivement. Notez qu'il faut restaurer les paramètres par défaut du CCC pour que le changement de bios soit pris en compte.

En mode Uber notre échantillon a maintenu presque en permanence sa fréquence maximale de 1 GHz à l'exception de Anno 2070 et Crysis 3 pour lesquels la baisse était légère (+/- 990 MHz). En mode Quiet par contre la fréquence maximale n'a été maintenue dans aucun jeu et variait entre 840 et 950 MHz suivant la charge qu'ils représentent.

Bonne nouvelle si vous n'appréciez guère les petits grésillements électriques, notre échantillon de Radeon R9 290X de référence ne souffre pas du tout de coil whine contrairement aux GeForce GTX 700 qui en présentent un petit peu et aux Radeon HD 7900 tristement célèbre pour ce problème. Plusieurs confrères nous ont confirmé que leurs samples ne souffraient d'aucun coil whine également, ce qui nous laisse penser qu'AMD s'est soit enfin penché sur le problème, soit a mieux trié que d'habitude les cartes envoyées à la presse.

Afin d'éviter de démonter la carte alors que nos tests ne sont pas encore terminés, nous avons repris la photo du PCB fournie par AMD, qui a été étrangement retouchée pour en effacer les vestiges des connecteurs CrossFire. Les performances de la Radeon R9 290X étant fortement liées à son refroidissement, tout démontage/remontage peut avoir un impact, ce que nous avons cherché à éviter.


Page 9 - La Radeon R9 290 de référence

Radeon R9 290 de référence
Pour la mise à jour de ce test, AMD nous a fourni deux Radeon R9 290 de référence. Celle-ci reprend exactement le même design que la Radeon R9 290X :



Le ventirad est parfaitement identique, tout comme le PCB. Seule la version du GPU Hawaii qui est embarquée diffère. Nous retrouvons deux sorties DVI, une sortie HDMI et une sortie DisplayPort. Attention, aucune sortie analogique n'est supportée et il ne sera pas possible de connecter un écran VGA via un adaptateur DVI->VGA.

L'alimentation reste sur des connecteurs 8+6 broches pour alimenter un étage d'alimentation de 5 phases dédié à la consommation du GPU qui peut atteindre 208W, ce qui à l'échelle de la carte représente un TDP de +/- 300W.

AMD a conservé le double bios et le petit switch qui permet de passer de l'un à l'autre mais contrairement à la Radeon R9 290X, il n'y a ici pas deux versions du bios. Le second est une copie du premier et la vitesse de ventilateur est identique.

Au départ, AMD l'avait prévue à 40% et c'est dans cette configuration que nous avions débuté nos tests. Rapidement, les résultats se sont cependant avérés être très décevants, voire franchement mauvais. Si AMD contenait quelque peu les nuisances sonores sur le papier, en pratique lors de nos tests en boîtier, notre échantillon atteignait rapidement ses limites… et par sécurité la vitesse du ventilateur montait de 40 à 46%, puis redescendant, remontait… De quoi rendre la carte insupportable en plus d'offrir des performances décevantes.

Nous avons bien entendu fait part de nos premières impressions à AMD, en ne mâchant pas nos mots : en l'état nous devrons conseiller à nos lecteurs de fuir ce modèle ! Face à des remarques similaires de quelques confrères et à la baisse de prix opérée par Nvidia, AMD a pris une décision radicale : reporter le lancement et tenter de rectifier le tir. Une bonne chose selon nous.

Pour éviter de devoir modifier les cartes déjà en stock chez les revendeurs, c'est à travers le premier pilote officiel que cette rectification se fait. AMD a reprogrammé PowerTune pour modifier la limite du ventilateur et la passer à 47%. D'autres paramètres ont également pu être modifiés, mais leur influence est marginale par rapport à celle de la vitesse du ventilateur.

Au final, les nuisances sonores certes augmentent significativement sur le papier, mais en ce qui nous concerne, il n'y a pas de réelle différence : elles passent d'une oscillation permanente entre 43.2 et 46.7 dBA à 47.0 dBA fixe. Quitte à ne pas proposer du silence, AMD propose cependant enfin des performances. Un moindre mal qui représente probablement le meilleur compromis auquel pouvait arriver AMD pour cette Radeon R9 290.

Notre échantillon a maintenu de justesse sa fréquence maximale dans quelque jeu mais était en général en-dessous, descendant jusque 790 MHz dans les cas les plus lourds, ce qui est nettement mieux que les 662 MHz rencontré au départ !

Compte tenu de la consommation relativement plus élevée à fréquence égale que sur la Radeon R9 290X, nous avons supposé que notre échantillon de Radeon R9 290 était "moins bon" puisqu'une variabilité existe à ce niveau. AMD nous a alors fourni un second échantillon effectivement meilleur, ce qui nous laisse penser que la première Radeon R9 290 envoyée n'était pas issue d'un tri sélectif spécial presse. Vous pouvez consulter la page "PowerTune en pratique, variabilité" pour plus de détails.

Bonne nouvelle si vous n'appréciez guère les petits grésillements électriques, nos échantillon de Radeon R9 290 de référence ne souffrent pas du tout de coil whine. Par contre la turbine du premier échantillon présente un petit bruit mécanique à faible vitesse de rotation.


Page 10 - Consommation

Consommation
Nous avons utilisé le protocole de test qui nous permet de mesurer la consommation de la carte graphique seule. Nous avons effectué ces mesures au repos sur le bureau Windows 7 ainsi qu'en veille écran de manière à observer l'intérêt de ZeroCore Power d'AMD. Pour la charge, nous avons opté pour des mesures dans Anno 2070, en 1080p avec tous les détails poussés à leur maximum, ainsi que dans Battlefield 3, en 1080p dans le mode High.


Au repos les Radeon R9 290 affichent une consommation en hausse par rapport à ce que nous avions l'habitude d'observer sur les Radeon HD 7970, ce qui peut être lié à la taille du GPU Hawaii ou à la télémétrie complexe mise en place par AMD.

Comme toujours, c'est en charge que cela se complique. En mode Quiet, la consommation totale de la Radeon R9 290X s'approche de 220W. Dans ces conditions, le GPU est cependant limité en fréquence dans les deux jeux testés (~940 MHz pour Battlefield 3 et ~870 MHz pour Anno 2070), sa température maximale et sa vitesse de ventilateur maximale étant rapidement atteintes. C'est la raison pour laquelle la consommation est identique dans ces deux jeux alors qu'Anno est nettement plus gourmand.

Fortement limitées par leur température cible de 80 °C, les GeForce GTX 780 et Titan se contentent de fréquences réduites ce qui limite ici leur consommation. Une GeForce GTX 780 capable de toujours maintenir sa fréquence maximale, telle que celle de MSI, va afficher une consommation similaire à celle de la nouvelle Radeon dans Anno, mais nettement moindre dans Battlefield.

Une fois passée en mode Uber, la Radeon R9 290X libère son GPU qui maintient 1 GHz dans Battlefield 3 et oscille entre cette même fréquence et 990 MHz dans Anno 2070. La consommation augmente cette fois assez nettement pour atteindre un nouveau record pour une carte de référence mono-GPU.

Si nous mesurons 278W, cela se fait après quelques minutes de charge. Au début du test de charge, quand le GPU atteint 94 °C mais que le ventilateur n'est pas encore à sa limite, la consommation du GPU est légèrement plus élevée. Par ailleurs le nouveau PowerTune fait varier tension et fréquence tellement vite que notre équipement n'est pas adapté à mesurer les pics de consommation. Mieux vaut donc prévoir une alimentation adaptée à une consommation de 300W, voire un petit peu plus, pour éviter tout problème.

La Radeon R9 290 se place logiquement entre les 2 modes de la Radeon R9 290X avec une consommation maximale dans nos conditions de test (système ouvert, température de la pièce à 26 °C) de près de 250W, liée la vitesse intermédiaire de son ventilateur.

Notez que nous avons fait l'impasse sur le rapport performances/watts qui n'a pas réellement de sens pour comparer les GPU lorsqu'il n'y a pas de différence technologique significative. Nous avons en effet constaté que la variation que nous pouvons observer d'un échantillon à l'autre pouvait rendre trompeuse ces données. Malgré sa consommation qui explose, le rendement énergétique de la Radeon R9 290X semble cependant en légère hausse sur base de notre échantillon.


Page 11 - Bruit et températures

Nuisances sonores
Nous plaçons les cartes dans un boîtier Cooler Master RC-690 II Advanced et mesurons le bruit d'une part au repos et d'autre part en charge sous le test1 de 3DMark11. Un SSD est utilisé et tous les ventilateurs du boîtier ainsi que celui du CPU sont coupés pour la mesure. Le sonomètre est placé à 60cm du boîtier fermé et le niveau de bruit ambiant se situe à moins de 20 dBA, ce qui est la limite de sensibilité pour laquelle il est certifié et calibré.


Si la Radeon R9 290X est relativement discrète au repos, bien que les GeForce fassent mieux, c'est loin d'être le cas en charge contrairement à ce que le nom de ses 2 modes peut laisser penser. Non, le mode Quiet n'est pas silencieux (ventilateur à 40% - 2120 RPM). Il correspond à un niveau de bruit élevé, qui était jugé acceptable il y a encore quelques années. Depuis, les mentalités ont évolué, de nombreux fabricants de cartes graphiques ont suivi la tendance et Nvidia est passé par là avec des designs de référence moins bruyants.

En mode Uber, la Radeon R9 290X fait exploser le compteur. A moins de disposer d'un boîtier extrêmement bien isolé, d'être sourd ou d'utiliser en casque, ce mode sera tout simplement insupportable. A noter que dans ce mode le ventilateur radial ne tourne qu'à 55% (3120 RPM) et qu'il dispose donc encore de pas mal de marge. A 100% (5310 RPM) il atteint 65.7 dBA. La Radeon HD 7970 GHz n'est certes pas beaucoup plus supportable, mais il s'agit ici du modèle de référence alors que des fabricants ont sorti des modèles qui à défaut d'être silencieux sont nettement moins bruyants.

La Radeon R9 290 se comporte comme sa grande sœur au repos et à mi-chemin en charge, ce qui est logique puisque dans sa version finale le ventilateur tourne à 47% (2525 RPM). Elle fait alors sans aucun doute partie des cartes bruyantes voire très bruyantes. A noter qu'un bruit mécanique affectait le ventilateur de notre premier échantillon de test, ce qui explique les nuisances sonores supérieures au repos pour la R9 290. Notre second échantillon n'était pas affecté.

Pour atteindre une pression sonore similaire à celle de la GeForce GTX 780 (36.5 dBA), il faut réduire la vitesse du ventilateur des Radeon R9 290X/290 à 32%. Les Radeon ne sont cependant pas capables de maintenir cette vitesse ventilateur puisqu'elles arrivent alors dans leurs limites de sécurités qui imposent une augmentation de la vitesse ventilateur au-delà de la limite fixée.

Lors de ces tests de charge lourde en boîtier, notre Radeon R9 290X tournait entre 740 et 840 MHz en mode Quiet et restait +/- à 990 MHz en Uber. Notre premier échantillon de Radeon R9 290 tournait entre 660 et 840 MHz alors que le second restait majoritairement proche de 840 MHz.


Températures
Toujours placées dans le même boîtier, nous avons relevé la température du GPU rapportée par la sonde interne :


Force est de constater qu'AMD n'a pas choisi de sacrifier les nuisances sonores pour favoriser la température GPU qui correspond bien à la limite annoncée de 95 °C. En pratique Powertune s'efforce de ne pas dépasser 94 °C mais laisse facilement le GPU atteindre cette valeur. A noter une température relativement élevée au repos.

Voici ce que tout cela donne à travers l'imagerie thermique :


GeForce GTX 780 de référence
GeForce GTX Titan de référence
Radeon R9 290X de référence
Radeon R9 290 de référence
Radeon HD 7970 GHz Edition de référence
  [ Repos ]  [ Charge ]
  [ Repos ]  [ Charge ]  [ Charge 106%/94°C ]
  [ Repos ]  [ Charge Quiet ]  [ Charge Uber ]
  [ Repos ]  [ Charge ]
  [ Repos ]  [ Charge ]

Si le GPU atteint rapidement les 94 °C, les divers composants du PCB n'en souffrent pas trop. Seul un point chaud est à noter au niveau de ce qui nous semble être l'étage d'alimentation de la mémoire qui atteint près de 100 °C en mode Quiet, mode dans lequel le flux d'air est moindre alors que ces composants se trouvent en sortie d'air chaud. L'étage d'alimentation principal, du GPU, est très bien refroidi malgré la charge énorme qu'il doit encaisser.


Page 12 - PowerTune en pratique

PowerTune en pratique
Pour accompagner les évolutions de PowerTune, AMD a mis à jour le panneau Overdrive du Catalyst Control Center :


Il est possible de spécifier la température maximale, la vitesse maximale du ventilateur, la limite de consommation et les fréquences GPU et mémoire. Étrangement AMD nous oblige à modifier celles-ci à travers des %, ce qui n'est pas très pratique. AMD prévoit d'ailleurs pour la prochaine version des pilotes de revenir vers des MHz pour la mémoire.

Quant à l'overclocking de la fréquence GPU, il restera spécifié en % pour une très bonne raison, il s'agit en réalité d'un multiplicateur appliqué à chaque P-state. Appliquer un overclocking de +5% pour un GPU dont la fréquence maximale est de 1 GHz ne revient pas à ajouter 50 MHz mais à appliquer le multiplicateur x1.05 à tous ses P-states, ce qui est différent et permet de réduire le risque d'être limité par la stabilité d'un P-state particulier. Il y a en effet plus de chance qu'un P-state intermédiaire pose problème en passant de 800 à 850 MHz qu'en passant à 840 MHz.

Notez enfin que sur la Radeon R9 290X et R9 290 il est possible de pousser la limite de consommation du GPU à +50% pour passer de 208W à 312W pour le seul GPU! Mieux vaut alors avoir recours au watercooling, le ventirad de référence n'étant pas conçu pour dissiper autant de chaleur, et disposer d'une alimentation musclée puisque la consommation totale de la carte dépassera alors allègrement les 400W.

Concernant les possibilités de tweaking, terminons par une petite mise en garde : les différents logiciels tiers dédiés à l'overclocking ne sont pas encore adaptés à PowerTune nouvelle formule. Par exemple si vous tentez de modifier la vitesse du ventilateur via PrecisionX ou Afterburner, PowerTune va en perdre le contrôle et ne pourra plus protéger la carte pour l'empêcher d'atteindre la température GPU critique de 100 °C à partir de laquelle elle se coupe brutalement. Si vous faites partie des premiers acquéreurs des Radeon R9 290, soyez donc prudents avec ces logiciels qui peuvent sembler fonctionnels mais ne le sont pas vraiment à l'heure actuelle.

Comme nous l'avons fait pour les GeForce GTX 700, nous avons voulu observer la fréquence pratique dans chaque jeu et chaque résolution pour les Radeon R9 290. Malheureusement l'opération n'est pas aussi simple pour deux raisons.

La première est que PowerTune fait varier la fréquence très rapidement ce qui rend obligatoire un log des fréquences à la plus haute cadence possible et un calcul de la moyenne par la suite sans être certains que cette moyenne en soit réellement une puisqu'AMD ne précise pas de quelle manière est échantillonnées la fréquence reportée dans les différents outils disponibles. Ensuite, la fréquence GPU n'est pas réduite seulement en cas de dépassement de certaines limites, mais également en cas de baisse momentanée de la charge GPU (par exemple lors d'un bref chargement de données par un jeu). La baisse de fréquence est alors une économie d'énergie, sans impact sur les performances.

Dans tous les cas un log et calcul de moyenne par la suite n'est pas réalisable en pratique pour tous les benchs. Nous observons par contre la fréquence en temps réel et notons pour chaque bench ce que nous estimons être la fréquence moyenne approximative. Des données qui nous sont utiles pour analyser le comportement de ces cartes mais qui dans leur état actuel ne sont pas assez fiables que pour être présentées comme nous le faisons pour les GeForce GTX 700.


Page 13 - Protocole de test

Mise à jour du 5/11 :

Le dossier a été mis à jour de manière à y inclure la Radeon R9 290, lancée ce jour. Elle a été testée avec les Catalyst 13.11 beta8, les premiers à la supporter officiellement. Son support était actif dans les pilotes précédents, mais AMD a décidé en dernière minute de revoir la limite du ventilateur de la Radeon R9 290 (qui influence ses performances) à travers les derniers pilotes.

Notez que nous nous efforçons en général de n'utiliser qu'une seule version des pilotes, la plus récente, pour l'ensemble des cartes d'une même marque. Dans le cas présents, nous avons fait une exception étant donné que la proximité des sorties et l'arrivée de révisions mineures successives des pilotes ne permettait pas de retester toutes les Radeon avec les 13.11 beta8.

De manière à ce que les résultats soient strictement comparables, nous nous sommes cependant assurés qu'ils ne changeaient pas les performances et dans le cas contraire, toutes les cartes ont été retestées sur le jeu en question. C'est le cas uniquement pour les Radeon sur Tomb Raider, les Catalyst 13.11 beta8 réduisant légèrement les performances dans ce jeu par rapport à nos mesures précédentes.

En résumé voici les pilotes qui ont été utilisés :

Radeon R9 290 : 13.11b8
Radeon R9 290X/280X sur Tomb Raider et Battlefield 4 : 13.11b8
Radeon R9 290X/280X sur Batman AO : 13.11b6
Radeon R9 290X/280X sur les autres jeux : 13.11b6 en 4K et 13.11b5 en 1080p/1440p
GeForce GTX sur Tomb Raider, Battlefield 4 et Batman AO : 331.65 WHQL
GeForce GTX sur les autres jeux : 331.65 WHQL en 4K et 331.58 WHQL en 1080/1440p


Mise à jour du 31/10 :

C'est au tour de Battlefield 4 de rejoindre notre protocole de test. Il remplacera à l'avenir Battlefield 3. Les derniers pilotes en date étaient toujours les 331.65 WHQL du côté de Nvidia alors que nous avons utilisé les Catalyst 13.11 beta8 pour les Radeon.


Mise à jour du 29/10 :

Nous avons intégré Batman Arkham Origins à notre protocole et ajouté une troisième résolution à travers des résultats complets en 4K, soit en 3840x2160. Nous avons fait en sorte d'opter pour des paramètres graphiques qui font que le jeu est jouable sur Radeon R9 290X, même si le niveau de fps n'est pas suffisant pour une fluidité parfaite, ce qui est difficile à obtenir en conservant un bon niveau de qualité vu la gourmandise de cette résolution.

Tous ces tests supplémentaires ont été réalisés avec les Catalyst 13.11 beta6 du côté des Radeon (ils apportent un net gain de performances dans le dernier Batman) et avec les pilotes GeForce 331.65 WHQL. Si ces derniers n'apportent en principe aucun gain dans les jeux testés, nous avons malgré tout préféré nous baser sur la dernière version des pilotes à notre disposition.


Protocole de test
Pour ce test, nous avons retiré Assassin's Creed 3 et The Witcher 2 de notre protocole mais ajouté Splinter Cell Blacklist, faisant malheureusement temporairement l'impasse sur Batman Arkham Origins et Battlefield 4 qui ne sortiront que dans quelques jours. Tous ces jeux sont testés avec leur dernier patch au 22/10/2013, la plupart étant maintenus à jour via Steam/Origin/Uplay.

Nous avons opté pour un niveau de qualité aussi élevé que possible tant en restant jouable sur la Radeon R9 290X en 1920x1080 ainsi qu'en 2560x1440.

Nous avons décidé de ne plus utiliser le niveau de MSAA (4x et 8x), comme critère principal pour segmenter nos résultats. De nombreux jeux au rendu différé proposent d'autres formes d'antialiasing, la plus courante étant le FXAA développé par Nvidia. Cela n'a donc plus de sens d'organiser un indice autour d'un certain niveau d'antialiasing, ce qui nous permettait par le passé de nous focaliser sur l'efficacité du MSAA.

Nous n'affichons plus les décimales dans les résultats de performances dans les jeux pour rendre les graphiques plus lisibles. Ces décimales sont néanmoins bien notées et prises en compte pour le calcul de l'indice. Si vous êtes observateur vous remarquerez que c'est également le cas pour la taille des barres dans les graphes.

Toutes les Radeon ont été testées avec les pilotes Catalyst 13.11 beta5 (13.250.18.0) et toutes les GeForce ont été testées avec les pilotes beta 331.58 WHQL. Nous avons forcé l'activation du PCI Express 3.0 sur la plateforme X79 pour les GeForce.

Comme pour nos précédents tests, nous faisons en sorte de tester les différentes solutions en prenant en compte leur système de gestion de la consommation/fréquence/température de manière à vous proposer des résultats intéressants et pertinents. Notre approche à ce niveau n'est bien entendu pas rigide et nous l'adaptons suivant le produit testé.

Ainsi, cette fois, nous n'avons pas testé les GeForce GTX de référence avec 2 ventilateurs supplémentaires comme c'était le cas lors de leurs tests respectifs. A la place nous avons par contre intégré les résultats d'une GeForce GTX 780 que nous qualifierons d'Uber. Cette GeForce GTX 780 "Uber" correspond à une GeForce GTX 780 capable de maintenir sa fréquence maximale -1 stop en permanence comme c'est le cas pour les modèles Asus, Gigabyte et MSI qui sont passés récemment entre nos mains (1006 - 13 = 993 MHz pour l'échantillon utilisé). Présenter les performances d'un tel modèle nous paraît être plus intéressant dans le cas présent.

Nous avions l'intention d'observer à quel point une Radeon R9 290X de référence moins bruyante serait impactée sur le plan des performances. Pour cela nous avons essayé de réduire la vitesse maximale de son ventilateur à 32%, ce qui correspond à un niveau sonore identique à celui de la GeForce GTX 780 de référence. Malheureusement, la Radeon R9 290X tombe alors à la fréquence minimale (727 MHz) à partir de laquelle son ventilateur ne respecte plus la limite fixée. Par ailleurs si nous tentons de forcer cette limite, le GPU atteint alors la température à partir de laquelle la carte graphique se coupe.

Notez enfin que compte tenu de l'influence de la température sur les résultats, et du fait que nous mesurons les performances sur une table de benchs en prenant le temps de laisser la température/fréquence des différentes cartes se stabiliser, la température de la pièce a été contrôlée et fixée à 26 °C pour l'ensemble des tests.


Configuration de test
Intel Core i7 3960X (HT off, Turbo 1/2/3/4/6 cores: 4 GHz)
Asus P9X79 WS
8 Go DDR3 2133 Corsair
Windows 7 64 bits
Pilotes GeForce 331.58/65 WHQL
Catalyst 13.11 beta5/6/8





Page 14 - Benchmark : Alan Wake

Alan Wake

Alan Wake est un portage console plutôt bien exécuté et basé sur DirectX 9. Il a la particularité d'imposer l'utilisation du MSAA, minimum 2x, nécessaire pour le rendu correct des herbes.

Nous utilisons les niveaux de qualité maximale, élevée et faible proposés par le jeu, qui intègre respectivement du MSAA 8x, 4x et 2x. Nous effectuons un déplacement bien défini et mesurons les performances avec Fraps. Le jeu est maintenu à jour via Steam.


[ 1920x1080 ]  [ 2560x1440 ]  [ 4K - 3840x2160 ]

Les Radeon ont généralement l'avantage dans ce jeu relativement gourmand en bande passante mémoire, raison pour laquelle la Radeon R9 290 est ici très proche de la Radeon R9 290X Quiet.
L'avance des Radeon sur les GeForce est plus élevée avec MSAA 8x ainsi qu'en 4K, alors qu'elle se réduit en 2560x1440 avec MSAA 4x.


Page 15 - Benchmark : Anno 2070

Anno 2070

Anno 2070 reprend une évolution du moteur d'Anno 1404 qui intègre un support de DirectX 11.

Nous utilisons les modes de qualité maximale, très élevée et élevée du jeu. La qualité maximale complexifie les effets de post processing et augmente le niveau de filtrage anisotrope. Nous effectuons un déplacement sur une carte et mesurons les performances avec Fraps.


[ 1920x1080 ]  [ 2560x1440 ]  [ 4K - 3840x2160 ]

Dans Anno 2070, c'est avant tout la puissance de calcul qui compte et les GPU sont mis à rude épreuve par rapport à leurs limites de consommation ou de température. La Radeon R9 290X parvient malgré tout à conserver l'avantage.

La Radeon R9 290 perd ici pas mal de terrain en 1080p et en 1440p, résolutions dans lesquelles elle peine à se détacher de la Radeon R9 280X. En 4K par contre sa fréquence chute nettement moins et elle colle alors la 290X en mode Quiet.


Page 16 - Benchmark : Batman Arkham Origins

Batman Arkham Origins

Dernier opus de la série, Batman Arkham Origins est toujours basé sur l'Unreal Engine 3 mais pousse un petit peu plus loin les effets graphiques dont certains ont été implémentés sur PC en collaboration avec Nvidia. C'est le cas du TXAA et d'effets GPU PhysX réservés aux GeForce (il n'est plus possible d'activer une version CPU de tous ces effets), mais également de l'occlusion ambiante de type HBAO+, d'un effet de Depth of Field plus évolué (NVDOF), d'ombres adoucies (PCSS) et de la tessellation (pour la cape et la neige) qui sont utilisables sur tous les GPU DirectX 11.

En 1920x1080 et 2560x1440, nous utilisons le mode de qualité maximale du jeu, avec du MSAA 8X et 4x. En 4K par contre, en plu de se contenter du FXAA, nous avons dû désactiver le HBAO+ pour nous contenter d'un effet d'occlusion ambiante moins lourd. Nous relevons les performances avec Fraps, sur un parcours bien défini. Le jeu est maintenu à jour via Steam.


[ 1920x1080 ]  [ 2560x1440 ]  [ 4K - 3840x2160 ]

Dans Batman, et avec les nouveaux pilotes qui apportent un net gain de performances, la Radeon R9 290X souffre moins que les GeForce quand le MSAA 8x est activé. En 2560x1440 avec MSAA 4x nous observons un match nul alors que sans MSAA, en 4K, les GeForce prennent très nettement la tête. Il est probable qu'AMD n'ait pas encore activé ses optimisations pour les résolutions multi-écrans, dont le 4K fait actuellement partie.


Page 17 - Benchmark : Battlefield 3

Battlefield 3

Battlefield 3 repose sur le Frosbite 2, un moteur graphique qui fait toujours partie des plus avancés à ce jour. De type rendu différé, il supporte la tessellation et calcule l'éclairage via un compute shader.

Nous testons le mode Ultra ou High (mais avec textures Ultra) et relevons les performances avec Fraps, sur un parcours bien défini. Le jeu est maintenu à jour via Origin.


[ 1920x1080 ]  [ 2560x1440 ]  [ 4K - 3840x2160 ]

La Radeon R9 290X Quiet dépasse de peu la GeForce GTX Titan alors qu'en mode Uber elle parvient à prendre une petite avance qui atteint près de 20% en 4K.


Page 18 - Benchmark : Battlefield 4

Battlefield 4

Battlefield 4 repose sur le moteur Frostbite 3, une évolution de la version 2 présente dans Battlefield 3. La base du rendu reste très proche (rendu différé, calcul de l'éclairage via compute shaders) et les évolutions visibles sont mineures, DICE ayant principalement optimisé son moteur pour les consoles de nouvelle génération. Parmi les petites nouveautés, citons un support plus avancé de la tessellation et une amélioration du module "destruction" du moteur.

Sur PC, seul le mode DirectX 11 est dorénavant proposé mais DICE a annoncé l'arrivée en décembre d'un mode Mantle. Pour rappel, il s'agit d'une API propriétaire de plus bas niveau dédiée aux Radeon HD 7000 et supérieures, qui a été développée par AMD et DICE.

Nous testons le mode Ultra en 1920x1080 ainsi qu'en 2560x1440 mais avons dû nous contenter du mode High en 2560x1440, avec SSAO au lieu du HBAO plus gourmand mais avec textures et filtrage Ultra pour conserver la netteté. Nous relevons les performances avec Fraps, sur un parcours bien défini et le jeu est maintenu à jour via Origin.


[ 1920x1080 ]  [ 2560x1440 ]  [ 4K - 3840x2160 ]

Le comportement des cartes est identique à celui observé dans Battlefield 3, si ce n'est que le niveau de performances est en baisse suite à la charge graphique plus élevée. A noter cependant que les Radeon se détachent moins des GeForce en 4K que dans l'épisode précédent.

Par ailleurs, la Radeon R9 290 colle ici la Radeon R9 290X Quiet, principalement parce que la première parvient tout juste à maintenir sa fréquence maximale. Il est probable qu'AMD se soit basé en partie sur le comportement de la Radeon R9 290 dans ce jeu récent pour définir les paramètres finaux de la vitesse de son ventilateur, de manière à s'assurer de ce résultat. Rappelons que toutes les Radeon ont bien été testées avec les mêmes pilotes, les Catalyst 13.11b8.


Page 19 - Benchmark : BioShock Infinite

BioShock Infinite

BioShock Infinite est basé sur un moteur dérivé de l'Unreal Engine 3, qui a notamment été modifié au niveau de l'éclairage. Il supporte le matériel DirectX 10 et DirectX 11 avec certaines améliorations graphiques réservées à l'API plus récente : c'est le cas de plusieurs effets mis en place avec la collaboration d'AMD tels que les Contact Hardening Shadows, le HDAO et le Diffusion Depth of Field. Notez que ces 2 derniers effets font appel aux Compute Shaders.

Nous testons les modes Ultra avec DDoF ainsi que Very High et relevons les performances avec Fraps, sur une partie de la scène de bench intégrée au jeu. Le jeu est maintenu à jour via Steam.


[ 1920x1080 ]  [ 2560x1440 ]  [ 4K - 3840x2160 ]

Alors que la Radeon R9 290X fait jeu égal avec la GTX Titan en 1920 et en 2560, elle s'en détache en 4K avec cette fois aussi une avance de près de 20%. La Radeon R9 290 égale ici la Radeon R9 290X Quiet qui ne parvient à s'en détacher légèrement qu'en 4K.

Notez que peu importe la carte, quelques petites saccades se font sentir par moment.


Page 20 - Benchmark : Crysis 3

Crysis 3

Crysis 3 reprend le même moteur que Crysis 2 : le CryEngine 3. Ce dernier profite cependant de quelques petites évolutions telles qu'un support plus avancé de l'antialiasing : FXAA, MSAA et TXAA sont au programme, tout comme un nouveau mode appelé SMAA.

Ce dernier est une évolution du MLAA qui permet, optionnellement, de prendre en compte des données de type sous-pixels soit à travers la combinaison avec du MSAA 2x, soit avec une composante temporelle calculée à partir de l'image précédente. Le SMAA 1x est la simple évolution du MLAA, le SMAA 2tx utilise une composante temporelle et le SMAA 4x y ajoute le MSAA 2x. Notez qu'il ne faut pas confondre le SMAA 2tx proposé en mono-GPU avec le SMAA 2x proposé en multi-GPU, ce dernier utilisant du MSAA 2x sans composante temporelle.

Nous mesurons les performances avec Fraps et le jeu est maintenu à jour via Origin.


[ 1920x1080 ]  [ 2560x1440 ]  [ 4K - 3840x2160 ]

Dans ce jeu très gourmand, les GeForce s'en sortent un petit peu mieux que les Radeon en 1920. La Radeon R9 290X revient cependant à égalité en 2560 et prend l'avantage en 4K. La Radeon R9 290 est très proche de sa grande sœur en mode Quiet, excepté en 2560x1440, où l'équilibre de la charge fait que sa fréquence GPU tombe plus bas.


Page 21 - Benchmark : Far Cry 3

Far Cry 3

Far Cry 3 est relativement lourd, notamment à travers les effets d'occultation ambiante, de filtrage des surfaces alpha et bien entendu à travers la MSAA 4x ou 2x.Pour mesurer les performances, nous activons le HDAO et poussons le niveau graphique au niveau ultra, à l'exception de la résolution 4K pour laquelle nous devons nous contenter du niveau medium (avec textures high).

Notez que le SSAO, moins gourmand, propose un rendu immonde, alors que le HBAO produisait des artefacts par endroit avant le patch 1.5 et, même une fois corrigé, affiche un résultat qui se rapproche du SSAO, inférieur au HDAO. Le HBAO ayant été développé à l'origine par Nvidia alors que le HDAO l'a été par AMD, certains testeurs, incités dans ce sens par Nvidia, préfèrent comparer les GeForce avec HBAO aux Radeon avec HDAO. Nous estimons cependant que cette approche n'est pas correcte, le HBAO étant moins gourmand et offrant un résultat inférieur, tout du moins dans ce jeu.

Nous utilisons Fraps sur un parcours bien défini.


[ 1920x1080 ]  [ 2560x1440 ]  [ 4K - 3840x2160 ]

La Radeon R9 290X prend ici l'avantage, de peu ou significativement suivant la résolution. Quant à la Radeon R9 290, elle égale la GeForce GTX 780 de référence en 1080p et s'en détache dans les résolutions supérieures.

Notez qu'à niveau de fps similaire, dans certains endroits (transitions intérieur – extérieur du village par exemple), le rendu était légèrement moins fluide sur Radeon que sur GeForce, mais cela ne semble plus être le cas avec les pilotes récents. Dans tous les cas, la fluidité dans Far Cry 3 est au mieux assez bonne, mais jamais parfaite, ce qui est lié à son moteur.


Page 22 - Benchmark : GRID 2

GRID 2

Dernier né chez Codemaster, GRID 2 reprend une évolution légère du moteur DirectX 11 maison exploité par DiRT Showdown. Pour rappel, en partenariat avec AMD, les développeurs avaient mis en place un éclairage avancé qui prend en compte de nombreuses sources de lumière directes et indirectes ainsi qu'une approximation du rendu de type illumination globale. Ces techniques sont toujours exploitées, même si le partenaire principal de Codemaster est cette fois Intel qui a aidé à la mise en place d'optimisations spécifiques aux GPU intégrés à Haswell.

Pour mesurer les performances, nous poussons toutes les options graphiques à leur maximum, à l'exception de l'adoucissement de l'effet d'occlusion ambiante qui est désactivé en 4K. Nous utilisons Fraps sur l'environnement de Barcelone, le plus lourd dans le jeu.


[ 1920x1080 ]  [ 2560x1440 ]  [ 4K - 3840x2160 ]

La Radeon R9 290X a ici l'avantage, même en mode Quiet, et la Radeon R9 290 n'est pas très loin derrière.


Page 23 - Benchmark : Hitman Absolution

Hitman Absolution

Hitman Absolution utilise un moteur plutôt lourd et qui manque probablement d'optimisations. La charge CPU est par ailleurs relativement élevée dans certaines scènes dans lesquelles une foule importante peut être animée. Différents effets DirectX 11 ont été intégrés avec la coopération d'AMD.

Pour mesurer les performances, nous poussons les options graphiques au niveau ultra et utilisons fraps dans le jeu.


[ 1920x1080 ]  [ 2560x1440 ]  [ 4K - 3840x2160 ]

La Radeon R9 290X prend ici un net avantage sur les GeForce GTX Titan/780 et la Radeon R9 290 talonne la mode Quiet de sa grande sœur.


Page 24 - Benchmark : Max Payne 3

Max Payne 3

Max Payne 3 présente un rendu globalement réussi, bien qu'inégal par endroit, notamment à cause de textures de "qualité console". Il repose sur un moteur DirectX 11 au rendu différé qui supporte plusieurs effets avancés tels que le HDAO ou la tessellation, qui est plutôt lourde une fois poussée au maximum.

Il supporte le FXAA mais également le MSAA, très lourd compte tenu du type de rendu. Ce dernier reste cependant préférable pour venir à bout de tout l'aliasing particulièrement important dans les scènes intérieures de ce jeu.

Nous avons poussé toutes les options à leur maximum et utilisé Fraps sur un parcours bien défini. Le jeu est maintenu à jour via Steam.


[ 1920x1080 ]  [ 2560x1440 ]  [ 4K - 3840x2160 ]

Plus l'on monte en résolution, plus la Radeon R9 290X est compétitive. Du niveau des GeForce GTX Titan/780 en 1080p, elle prend les devants en 2560 et en 4K.

La Radeon R9 290 talonne la GeForce GTX 780 en 1080p et en 1440p mais en égale la version "Uber" en 4K.


Page 25 - Benchmark : Metro Last Light

Metro Last Light

Tout comme Metro 2033, sa suite Last Light développée par 4A Games est très gourmande. Elle repose sur une petite évolution du moteur DirectX 11 maison, le 4A Engine, ainsi que sur des environnements et éclairages plus riches. Le jeu pousse par ailleurs plus loin l'utilisation de la tessellation, mise en place en collaboration avec Nvidia, autant sur les personnages que sur les objets ou les sols, même si dans bien des cas la différence n'est cependant pas transcendante.

Au niveau de l'antialiasing, le 4A Engine support l'AAA, un algorithme maison similaire au FXAA/MLAA/SMAA, ainsi que le SSAA extrêmement gourmand en mode 2x, 3x et 4x. Un mode 0.5x est également proposé et consiste alors à rendre le jeu dans une résolution inférieur qui est par la suite étendue.

Le support de GPU PhysX est toujours de la partie. A ne pas confondre avec PhysX, qui gère globalement la physique au niveau du CPU, il s'agit d'effets accélérés par le GPU à travers une librairie propriétaire de Nvidia, ce qui implique qu'ils ne peuvent pas être accélérés sur une Radeon. Ils sont alors traités par le CPU, d'une manière non-optimisée, ce qui rend leur utilisation difficile en pratique.

Nous avons testé le jeu via Fraps sur un parcours bien défini. Nous avons dû faire l'impasse sur le SSAA, bien trop gourmand.


[ 1920x1080 ]  [ 2560x1440 ]  [ 4K - 3840x2160 ]

Les GeForce conservent un petit avantage en 1920, mais les Radeon passent devant dans les plus hautes résolutions.


Page 26 - Benchmark : Sleeping Dogs

Sleeping Dogs

Sleeping Dogs nous propose un environnement hongkongais qui peut s'avérer être très gourmand pour nos cartes graphiques dès que les options de son moteur DirectX 11 sont poussées à leur maximum en combinaison avec un antialiasing avancé.

Nous utilisons fraps sur une scène du jeu, ce dernier étant maintenu à jour via Steam et donc en version 1.5 pour ce test. Le pack de texture HD a bien entendu été installé. Le niveau de qualité extrême est utilisé. L'aliasing géométrique est très important dans ce jeu, ce qui rend l'utilisation d'un antialiasing avancé préférable, du SSAA 2x voire du SSAA 4x en combinaison avec le FXAA.


[ 1920x1080 ]  [ 2560x1440 ]  [ 4K - 3840x2160 ]

Peu importe la résolution, l'avance des Radeon est ici considérable et atteint 20% pour la R9 290X en mode Uber.


Page 27 - Benchmark : Splinter Cell Blacklist

Splinter Cell Blacklist
Basé sur le LEAD engine, une version retravaillée en interne de l'Unreal Engine 2.5, Splinter Cell Blacklist profite pour la version PC d'effets graphiques supplémentaires mis en place en collaboration avec Nvidia tels que le HBAO+, la tessellation ou encore le TXAA.

Notez au niveau de l'occlusion ambiante que le jeu propose de nombreuses options dans les plus avancées représentent l'effet le plus lourd du jeu. En 4K nous avons dû nous contenter de sa version la plus simple.

Nous mesurons les performances avec Fraps sur un parcours bien défini et le jeu est maintenu à jour via Uplay.


[ 1920x1080 ]  [ 2560x1440 ]  [ 4K - 3840x2160 ]

Dans ce test, la Radeon R9 290X égale les GeForce GTX Titan/780 en 1920 mais prend l'avantage dans les résolutions supérieures. La Radeon se contente d'égaler la GTX 780 classique, sauf en 4K où elle prend l'avantage.

A noter que les GeForce préfèrent ici le MSAA aux très hautes résolutions.


Page 28 - Benchmark : Tomb Raider

Tomb Raider

Tomb Raider a été l'une des meilleures surprises de 2013. Le rendu graphique est plutôt réussi, AMD ayant collaboré avec les développeurs pour s'assurer d'une version PC de bon niveau. C'est particulièrement le cas pour TressFX, l'option de rendu avancé des cheveux de Lara qui apporte une bonne dose de réalisme.

Nous avons testé Tomb Raider en mode de qualité Ultime+ (Ultime + ombres ultra) en 1920 et en 2560 alors que nous nous sommes contenté du mode Ultra, sans TressFX, en 4K. Nous avons mesuré les performances avec Fraps, sans utiliser le bench intégré qui correspond plus aux cinématiques qu'aux scènes de jeu classiques.


[ 1920x1080 ]  [ 2560x1440 ]  [ 4K - 3840x2160 ]

Dans ce jeu, les Radeon ont l'avantage mais il se réduit cette fois quelque peu en 4K. A noter que par rapport aux chiffres obtenus lors de son lancement, les Radeon R9 290X voient leurs performances réduites de +/- 5% dans ce jeu avec les Catalyst 13.11b8, ce qui peut être lié à un bug ou à une nouvelle optimisation bénéfique dans certaines scènes mais pas dans d'autres.


Page 29 - Récapitulatif des performances

Récapitulatif
Bien que les résultats de chaque jeu aient tous un intérêt, nous avons calculé un indice de performances en nous basant sur l'ensemble de résultats et en attachant une importance particulière à donner le même poids à chacun des jeux. Suite aux mises à jour, nous avons inclus Batman Arkham Origins dans l'indice et Battlefield 4 y remplace Battlefield 3. Nous avons évité d'intégrer ces deux titres au comportement similaire dans l'indice de manière à ne pas leur donner plus de poids qu'aux autres jeux. Pour information, l'ajout de ces deux jeux a eu un impact sur l'indice mineur, inférieur à 1 point.

Nous avons attribué un indice de 100 à la GeForce GTX 780 "Uber" qui correspond pour rappel à une GeForce GTX 780 capable de maintenir sa fréquence maximale comme c'est le cas de beaucoup de modèles proposés par les partenaires de Nvidia :


[ 1920x1080 ]  [ 2560x1440 ]  [ 4K - 3840x2160 ]

En mode Quiet, la Radeon R9 290X égale les GeForce GTX Titan et GTX 780 "Uber" ou les dépasse très légèrement. Il faut passer en mode Uber pour qu'elle prenne réellement l'avantage en moyenne avec un gain de près de 10% en 2560x1440.

La Radeon R9 290 de référence se situe quant à elle entre les performances d'une GeForce GTX 780 de référence et celles d'une GeForce GTX 780 "Uber" capable de maintenir sa fréquence maximale en permanence.

Plus la résolution est élevée, plus les GeForce souffrent, ce qui permet à la R9 290X Uber de prendre une avance de 15% en 4K, avance qui plus est limitée par un problème de performances dans le dernier Batman, sans quoi elle serait proche de 20%. De son côté la Radeon R9 290 égale alors la GeForce GTX Titan ou GTX 780 "Uber".

Par rapport à la Radeon R9 280X, les performances de la R9 290X progressent de 25% en mode Quiet alors que le gain monte à 33% en mode Uber. La Radeon R9 290 se contente d'une avance de 15 à 18% sur la 280X.

Pour la R9 290X, les indices de performances varient en moyenne de +/- 7% d'un mode à l'autre mais avec des variations importantes suivant les résolutions, les jeux et leur dépendance plutôt à la puissance de traitement ou plutôt à la bande passante mémoire. Plus la résolution est élevée, plus la charge se déplace vers le calcul des pixels, ce qui a tendance à maximiser l'utilisation des unités d'exécution et donc la consommation, à l'inverse du 1920x1080 qui a tendance à exploiter un niveau élevé de MSAA gourmand en bande passante. Dans le cas de la R9 290X Quiet, c'est le mode 4K qui la pousse le plus facilement dans ses limites. La Radeon R9 290 par contre ne souffre pas plus en 4K qu'en 2560x1440, profitant d'une vitesse de ventilateur plus élevée et peut-être d'une répartition différence de l'équilibre puissance de calcul / bande passante mémoire.

Du coup, la Radeon R9 290 affiche en moyenne 96% des performances de la Radeon R9 290X Quiet en 1080p et en 4K, contre 93% en 1440p. Par rapport à la version Uber de la Radeon R9 290X, elle se contente de 90% des performances en 1080p et de 87% dans les deux résolutions supérieures. Pour rappel nous avions mesuré un écart de 14% en 1080p entre les Radeon HD 7970 et HD 7950, de 13% entre les Radeon HD 6970 et HD 6950, et de 17% entre les Radeon HD 5870 et HD 5850.


Page 30 - Trop de variabilité ?

Trop de variabilité ?
Selon Nvidia, qui effectue un joli retournement de veste à ce niveau, trop de variation entre échantillons est dorénavant un problème. De "circulez il n'y a rien à voir" lors de l'opposition entre les Radeon HD 7900 et les GeForce GTX 600/700, à "problématique à investiguer" entre les Radeon R9 290 et les GeForce GTX 700, le statut de la variabilité évolue ! Et pour cause, Nvidia estime que la variation est bien plus importante entre une "bonne" et une "mauvaise" Radeon R9 290X qu'entre une "bonne" et une "mauvaise" GeForce GTX 780. Cette sortie insistante de Nvidia explique en partie pourquoi de nombreux médias se sont récemment penchés sur cette question, question que bon nombre de ces confrères avaient pourtant largement ignorée par rapport à GPU Boost qui est la technologie de turbo qui a introduit cette problématique avec les GeForce GTX 600.

Pour appuyer son argumentaire, Nvidia mélange cependant variations entre exemplaires et chute de performances en cas de conditions difficiles. Trop de média font malheureusement la même erreur, d'autant plus quand ils ajoutent à un argumentaire approximatif des retours d'utilisateurs qui ont dans certains cas mal compris le problème.

Rappelons que le fait que la fréquence baisse après quelques minutes est "normal", c'est le principe des technologies de turbo employées par AMD et Nvidia. Le "throttling" n'est pas un problème en soi, tout du moins si les tests sont réalisés consciencieusement pour le prendre en compte. C'est la raison pour laquelle nous prenons le temps de laisser les cartes monter en température et se stabiliser avant toute mesure de performances, ce qui prend entre 1 et 10 minutes suivant la situation.

Les GeForce GTX 700 partent d'une fréquence maximale variable suivant l'exemplaire et si nécessaire la fréquence baisse petit à petit soit si une limitation de consommation est atteinte, soit si une température limite est atteinte. Il en va de même pour les Radeon R9 290, excepté pour la fréquence maximale de départ qui est fixe pour tous les échantillons d'un même modèle.

Le paramètre principal de variabilité vient de la consommation du GPU dans des conditions données qui est différente pour chaque exemplaire, la production de puces n'étant par nature pas homogène. Un échantillon d'une puce qui consomme plus va atteindre plus facilement la limite de consommation, va chauffer plus et atteindre également plus facilement sa limite de température. En pratique sur les designs de référence c'est cette seconde limite qui est l'acteur principal dans la détermination de la fréquence GPU. C'est la raison pour laquelle en plus de devoir laisser chauffer les cartes avant la mesure il convient de s'assurer que la température ambiante soit identique pour toutes les cartes testées ! L'impact de cette dernière est significatif, de quoi bien nous compliquer la vie et allonger significativement le temps de test. De notre côté nous avons opté pour une température de la pièce comprise entre 26.0 et 26.9 °C.

Nvidia articule une partie de son argumentaire sur le fait qu'AMD n'annonce pas de fréquence de base, là où les GeForce en affichent une qui représente en quelque sorte leur niveau de performance garanti. Un niveau qui n'est par contre jamais testé et présenté aux lecteurs mais il est vrai que la fréquence peut potentiellement chuter à des niveaux plus faibles sur Radeon R9 290 que sur GeForce GTX 700.


Le retournement de veste de Nvidia en une image, avec un exemple "bien" choisi

Par exemple, la GeForce GTX 780 affiche une fréquence de base de 863 MHz et une fréquence maximale d'au moins 902 MHz, mais qui va plus loin en pratique - par exemple 1006 MHz sur notre échantillon de test. Sur cette carte, la fréquence peut ainsi baisser de 14% ce qui est souvent le cas comme précisé lors de son test sur cette page, un baisse - comme par hasard - nettement plus importante que l'exemple mis en avant par Nvidia sur le graphique ci-dessus ! Avec une température cible de 80 °C, le ventirad de Nvidia dispose de suffisamment de marge pour empêcher la GeForce GTX 780 de descendre sous 863 MHz, quitte à laisser la température GPU et les nuisances sonores s'envoler.

Les Radeon R9 290 n'ont par contre pas autant de marge, du coup AMD doit accepter de laisser son GPU descendre à un niveau plus bas avant d'essayer d'enrayer sa chute en laissant la température GPU et la vitesse ventilateur augmenter quelque peu au-delà du raisonnable. Ces fréquences sont de 727 MHz et de 662 MHz pour les R9 290X et 290, soit des chutes respectives de 27% et de 30%. Potentiellement, avec un "mauvais" exemplaire de Radeon R9 290, à la consommation relative très élevée, et/ou avec un boîtier mal ventilé, la chute de performances pourra être plus élevée que sur une GeForce GTX 780.

Difficile cependant de vérifier rigoureusement si la variation des performances entre échantillons est plus importante du côté d'AMD ou de Nvidia. La question se pose bien entendu de savoir si les échantillons envoyés par les fabricants à la presse ont été finement triés ou pas. Il leur est en effet possible de chercher, parmi les premiers lots les cartes, les exemplaires qui se comportement le mieux et de nous les faire parvenir à la place d'un échantillon lambda. La solution serait de tester un nombre suffisant d'échantillons achetés au hasard dans le commerce, mais cela est difficile en pratique. Une fois que nous avons cerné le comportement des cartes, nous essayons en général dans nos tests de vous présenter deux mesures de performances représentatives de la plage de performances des cartes que vous retrouverez dans le commerce.

Ceci étant dit, venons-en aux résultats pratiques sur les Radeon R9 290 et R9 290X.

Après avoir constaté que la première Radeon R9 290 que nous avions reçue ne semblait pas être sortie première de sa promotion, AMD nous a indiqué ne pas avoir effectué de tri spécial et a proposé de nous faire parvenir un second exemplaire plus commode (notez que pour toutes les mesures de performances, c'est bien le premier exemplaire qui a été utilisé dans ce dossier). Voici la différence que nous avons notée lorsque les cartes sont placées dans un boîtier fermé et chargées sous 3DMark11 pour nos mesures de bruit/températures, la partie la plus stressante de notre protocole de test :


Radeon R9 290  [ Press sample 1 ]  [ Press sample 2 ]


Notez qu'il faut être prudent avec la fréquence moyenne, l'algorithme du nouveau PowerTune étant relativement complexe, sans être détaillé par AMD qui est toujours en train de le peaufiner. Ainsi, nous avons l'impression que quand la limite de température est atteinte, si le taux d'utilisation GPU baisse (lors d'un changement de scène par exemple), PowerTune réduit sa fréquence pour économiser de l'énergie et le maintenir au frais, ou tout du moins éviter que la chaleur n'augmente encore. Il est donc possible que certains pics vers le bas n'aient pas d'impact sur les performances.

Dans ce test, le premier échantillon voit sa fréquence GPU évoluer entre 660 et 840 MHz avec une moyenne proche de 740 MHz. Le second échantillon évolue dans une fenêtre similaire sauf qu'il reste la plupart du temps proche des 840 MHz pour une moyenne qui cette fois est de +/- 820 MHz. Dans ces conditions (boîtier fermé) et dans ce test qui représente un cas très lourd au niveau de la charge GPU, cette seconde Radeon R9 290 est 10% plus performante que la première. L'impact dans les jeux, largement moins lourds en moyenne, serait plus faible, probablement compris entre 3 et 5% à l'avantage de la seconde carte.

Impossible bien entendu sur base de cette seule comparaison de tirer des généralités concernant les Radeon R9 290. De quoi par contre nous demander où se situe notre Radeon R9 290X de référence. S'agit-il d'un très bon exemple à l'image de la seconde R9 290 ? D'un exemplaire moyen à l'image de la première ? Pour y répondre, il y a quelques jours, nous avons commandé deux Radeon R9 290X chez deux revendeurs différents, une HIS classique et une HIS Battlefield Edition.

Voici ce que cela donne, dans le même test que ci-dessus (en boitier fermé, avec 3DMark11 en charge pendant 1h) :


Radeon R9 290X – press sample
Radeon R9 290X – retail sample 1
Radeon R9 290X – retail sample 2
  [ Quiet ]  [ Uber ]  [ Fan 100% ]
  [ Quiet ]  [ Uber ]
  [ Quiet ]  [ Uber ]


Alors que l'échantillon envoyé par AMD voit sa fréquence osciller entre 740 et 840 MHz en mode Quiet et entre 970 et 990 MHz en mode Uber, les deux cartes issues du commerce se comportent moins bien, et plus ou moins de la même manière. En mode Quiet toutes deux sont limitées à 727 MHz, fréquence pallier à partir de laquelle la vitesse du ventilateur augmente au-delà de la limite fixée. Pour la première carte la vitesse du ventilateur oscille entre 40 et 44% alors qu'elle reste fixe à 42% pour la seconde.

En mode Uber, la fréquence GPU de la première carte du commerce oscille plus ou moins entre 930 et 980 MHz contre 940-970 MHz pour la seconde. Un résultat similaire au final et le ventilateur reste dans ces deux cas à 55%.

Ce que ces graphes ne disent pas cependant, c'est que la vitesse effective du ventilateur, en RPM, n'est pas identique entre les cartes du commerce et les échantillons fournis à la presse qui sont issus d'une présérie. Ainsi, quand le ventilateur se voit demander une vitesse de 40% sur notre échantillon fournis par AMD, il tourne à 2120 RPM alors que sur les 2 cartes du commerce il ne tourne qu'à 1990 RPM. De quoi bien entendu impacter le refroidissement du GPU. Précisons également que cela veut dire que les cartes du commerce sont en l'état moins bruyantes que les cartes envoyées à la presse.

Ce genre de variabilité entre vitesses de ventilateur est courante, il suffit dans le cas présent que pour une raison ou une autre, par exemple un changement de marque d'un composant, la tension envoyée au ventilateur soit légèrement inférieure pour que sa vitesse soit réduite.

PowerTune étant très flexible, AMD est en train d'en modifier l'algorithme de contrôle de manière à ce qu'il vise une valeur limite en termes de RPM et non plus de %. Un nouveau pilote Catalyst 13.11 Beta 9.2 sera disponible sous peu, AMD étant sur le coup plutôt réactif. A partir de ce pilote, PowerTune fixera la valeur cible à 2200 RPM pour amoindrir la différence que nous avons pu constater entre les cartes, tout en augmentant légèrement leurs performances.

Quel impact tout cela pourrait-il avoir dans les jeux, moins gourmands que 3DMark11 ? Pour le savoir, nous avons fait passer la première carte du commerce sur notre protocole complet mais dans une seule résolution. Nous avons opté pour le 2560x1440, qui représente une charge et donc un impact intermédiaire entre le 1920x1080 et le 4K. Pour éviter de devoir refaire trop de tests avec les futurs pilotes d'AMD et pouvoir rectifier plus rapidement notre première impression, nous avons modifié manuellement la vitesse maximale sur les cartes du commerce en la passant de 40 à 42%, ce qui correspond exactement à 2120 RPM. A noter que le mode Uber est lui aussi affecté par la différence de vitesse des ventilateurs, mais avec un impact inférieur à 1% nous n'avons pas jugé utile de refaire les tests à vitesse identique. Voici ce que cela donne :


[ FPS ]  [ % ]

En mode Uber, l'impact sur les performances est négligeable, il n'y a que les jeux les plus lourds qui perdent une poignée de MHz.

En mode Quiet par contre la différence peut-être significative. Si la carte presse perd en moyenne 7% de performances par rapport au mode Uber, notre échantillon issu du commerce perd au départ 15% ! Une fois les résultats rectifiés avec une vitesse de ventilateur identique la perte n'est plus que de 11%, la différence étant réduite de moitié. L'écart moyen entre les deux cartes est alors de 4% avec des pointes à 7 et 8% dans Alan Wake et Sleeping Dogs.

De quoi revoir légèrement à la baisse le positionnement de la Radeon R9 290X Quiet dans notre indice par rapport au niveau de la GeForce GTX 780 de référence. Encore une fois, il est difficile de généraliser même sur base de deux exemplaires, d'autres pourraient être meilleurs, d'autres moins bons. Précision cependant que la GeForce GTX 780 est elle-même un échantillon presse qui peut aussi se comporter différemment de certains échantillons commerciaux.

Avec les nouveaux pilotes Catalyst 13.11 Beta 9.2 la vitesse des ventilateurs est égalisée sur les cartes, et même légèrement supérieure à ce qu'elle était sur notre échantillon presse, ce qui va encore réduire l'écart entre les cartes au détriment d'un peu plus de bruit. En l'état rien n'indique que la variabilité observée est plus importante sur les Radeon R9 290 qu'elle ne l'est sur les GeForce GTX.

Pour répondre à la question en titre, est-ce qu'il y a trop de variabilité ? A notre sens oui, d'un côté ou de l'autre. La production de puce n'est par nature pas homogène, ce qui combiné aux mécanismes introduits sur les dernières génération de GPU chez AMD puis Nvidia laisse la place à une variabilité des performances peu appréciable, d'autant que chez Nvidia la fréquence maximale est variable.

A défaut de mieux il serait utile qu'AMD puisse donner des indications sous une forme ou sous une autre par rapport au niveau de performances garanti et/ou prévoit ses spécifications de façon à ce qu'il soit possible de garantir un certain niveau de performances. Avoir fixé une limite aussi étroite pour le ventilateur par rapport au dégagement calorifique de son GPU participe à amplifier la variation d'un échantillon à l'autre, alors que par le passé il y avait un impact sur la consommation et le bruit de la carte mais pas sur son niveau de performances.


Page 31 - Conclusion

Conclusion
Nul doute qu'avec Hawaii AMD avait pour objectif d'au moins égaler la GeForce GTX Titan, même si sa cible en terme de communication est la GeForce GTX 780, quelque peu plus accessible. Cet objectif est atteint : dans la plupart des jeux, la Radeon R9 290X égale ou surpasse le haut de gamme Nvidia et accentue son avance lorsque la résolution augmente.

Y parvenir a cependant un prix : une consommation maximale qui s'approche des 300W, une température GPU de 95 °C et des nuisances sonores en hausse. Pour le GPU GK110, Nvidia a élargi son architecture au-delà du niveau de performances visé mais avec en tête d'en limiter la consommation de manière à rester à un niveau de nuisances réduit. Mécaniquement cela en limite les performances, un coût que Nvidia a décidé d'accepter, le GK110 étant à fréquence réduite déjà capable d'afficher l'excellent niveau de performances que nous lui connaissons.

AMD, de son côté, a fait le choix également d'élargir son GPU mais de manière plus raisonnable par rapport aux coûts de fabrication. C'est la raison pour laquelle en tirer un même excellent niveau de performances demande de le pousser relativement plus près de ses limites. La consommation maximale très élevée de la Radeon R9 290X n'est pas un problème en soi sur le segment haut de gamme, encore faut-il arriver à en canaliser les nuisances liées.

Et sur ce point le résultat est mitigé même si AMD profite d'un PowerTune largement plus évolué que GPU Boost pour limiter les dégâts. Le premier compromis qui a été fait est d'accepter une température courante de 95 °C pour le GPU. AMD assure que cela n'est pas un problème et aucun élément à l'heure actuelle ne nous permet de remettre en cause cette affirmation. Par contre même en acceptant cette température, les nuisances sonores restent au mieux élevées, au pire inacceptables, suivant le mode sélectionné.

En dehors d'un éventuel format triple slot, il faut dire que la marge de manœuvre est limitée pour encore augmenter l'efficacité des systèmes de refroidissements à base de turbine pourtant nécessaires pour assurer l'évacuation de l'air chaud en dehors du boîtier. Un format qui est demandé par bon nombre d'intégrateurs et utile pour les systèmes mal ventilés.


Rappelons que dorénavant, tout comme pour les GeForce, les performances des Radeon peuvent varier d'un échantillon à l'autre, même si contrairement aux premières, la fréquence maximale des secondes est clairement définie. Alors que les nuisances sonores en situation de jeu lourd seront fixes d'un échantillon à l'autre, la consommation relative et donc les performances seront effectivement variables. Nous ne disposons malheureusement pas encore du recul nécessaire pour déterminer si cette variabilité sera au final plus élevée pour les modèles de référence de l'une ou l'autre marque et si les designs des partenaires d'AMD seront capables de gommer cette variabilité.

Ceci étant dit, même sur base d'un échantillon testé qui n'est de toute évidence pas le meilleur de sa lignée, la Radeon R9 290 représente une bonne surprise sur le plan des performances. Celles-ci sont assez proches de celles de sa grande sœur en mode Quiet et lui permettent de devancer la GeForce GTX 780 de référence. Malheureusement, ici aussi, pour atteindre ce résultat, AMD a dû sacrifier les nuisances sonores qui sont très élevées.

En attendant que ses partenaires proposent des solutions moins bruyantes à base de plusieurs ventilateurs axiaux, ce qui devrait être le cas d'ici un mois, AMD a décidé de jouer sur son traditionnel argument du rapport performances/prix. Avec un tarif de lancement de 500€ pour la Radeon R9 290X, Nvidia était sous pression mais a réagi rapidement. La GeForce GTX 780 s'est ainsi alignée sur le tarif de la Radeon R9 290X, même pour des modèles partenaires très efficaces et ce en offrant actuellement un bundle de 3 jeux (Assassin's Creed IV, Batman Arkham Origins et Splinter Cell Blacklist), là où AMD ne propose pas de bundle pour les versions basiques de ses nouvelles cartes mais permet à ses partenaires de proposer des éditions Battlefield 4, qui incluent ce jeu pour un supplément de 20€.

Si vous êtes pressés, intéressés par le niveau de performances de la Radeon R9 290X et Battlefield 4, les nuisances sonores seront élevées, mais pas dramatiques en mode Quiet, d'un niveau considéré normal il y a 2 ans. Il reste de plus la solution du watercooling, avec des waterblock dédiés qui devraient logiquement arriver dans les prochaines semaines.

Proposées au lancement à 360€, c'est au final la Radeon R9 290 qui tire le mieux son épingle du jeu au niveau du rapport performances/prix. AMD est cependant cruel et la problématique des nuisances sonores est amplifiée par rapport à la R9 290X en mode Quiet. Il faudra un boîtier plutôt bien isolé pour la supporter mais là aussi des modèles partenaires devraient arriver avant la fin de l'année et apaiser quelque peu vos oreilles si votre système n'exige pas que l'air chaud soit expulsé du boîtier.

Notez pour terminer qu'autant AMD que Nvidia mettent en avant l'arrivée de nouveautés qui visent directement les joueurs et qui ont le potentiel d'avantager leurs produits. Le premier avec Mantle, une API graphique optimisée pour l'architecture de ses GPU et le second avec G-SYNC, une technologie d'affichage qui apporte plus de fluidité à même niveau de performances, voir à niveau réduit. Reste qu'à l'état actuel des choses il s'agit de promesses et pour que cela se concrétise, il faudra qu'AMD parvienne à convaincre les développeurs de jeu et que Nvidia intègre sa technologie dans un maximum d'écrans. Deux sujets pour lesquels nous attendons avec impatience d'en savoir plus.

Dans tous les cas, force est de constater qu'un peu de concurrence incite les deux fabricants de GPU à faire bouger les choses pour se démarquer l'un de l'autre, ce qui sera au final bénéfique pour les joueurs PC. En attendant de voir arriver ces nouvelles technologies, avec les Radeon R9 290, AMD propose enfin de nouvelles références apportant un gain de performance significatif par rapport aux Radeon HD 7900 de début 2012, ce qui bouscule au passage un Nvidia resté trop longtemps seul sur le très haut de gamme !


Copyright © 1997-2019 HardWare.fr. Tous droits réservés.