CrossFire et Radeon R9 Fury X, Fiji vs GM200, round 2 !

Publié le 29/06/2015 par
Imprimer

Ayant eu l'opportunité d'avoir deux Radeon R9 Fury X à notre disposition, nous avons bien entendu voulu observer comment elles se comportaient en CrossFire face aux GeForce GTX 980 Ti en SLI.

Mise en place

Bien que les cartes soient très courtes, le recours au refroidissement à base de watercooling AIO complique quelque peu l'installation d'un système CrossFire (CFX) à base de deux Radeon R9 Fury X (ou plus). Chaque carte graphique conserve son circuit dédié ce qui implique de parvenir à placer plusieurs blocs radiateur + ventilateur dans le système. Ce n'est par exemple pas possible d'installer une paire de Radeon R9 Fury X dans le Cooler Master RC-690 II Advanced que nous utilisons pour les mesures de bruit et de température, mais bien entendu d'autres boitiers le permettent.

C'est évidemment plus simple sur un banc de test et mesurer les performances d'un tel système ne pose aucun problème. Nous recommandons par contre de faire en sorte de laisser au moins un slot PCIE libre entre les deux cartes. Comme nous avons pu le voir dans le test de la R9 Fury X, son étage d'alimentation à tendance à pas mal chauffer dans les jeux les plus lourds, et coller deux cartes l'une contre l'autre n'est donc pas une bonne idée.


A noter que comme pour les Radeon R9 290X/290/285 et leurs équivalents en série 300, les Radeon R9 Fury X n'ont pas besoin de pont CrossFire. Les transferts entre cartes se font exclusivement via le bus PCI Express.

Le test

Pour ce test, nous nous sommes concentrés sur la résolution 4K (3840x2160) mais avec deux niveaux de qualité différents. Tout d'abord un niveau de qualité qui varie de faible à élevé suivant la lourdeur des jeux et identique à celui que nous avons utilisé pour les mesures en 4K du test de la R9 Fury X. Ensuite, pour pousser ces systèmes dans leurs limites, nous sommes passés à un niveau de qualité très élevé, identique à celui utilisé dans le test de la Fury X en 1440p, mais en 4K cette fois.

A noter qu'avec ses pilotes récents, AMD a eu la mauvaise idée de s'attaquer à HairWorks en limitant via ses pilotes sur le niveau de tesselation maximal autorisé dans The Witcher III. Une optimisation que nous avons désactivée pour ce test, même si AMD a probablement des arguments à faire valoir face aux choix techniques de CD Projekt et surtout Nvidia sur cet effet graphique. Nous reviendrons sur ce sujet au travers d'une actualité dans les jours à venir.

Toujours au sujet de The Witcher III, nous avons pu vérifier que le Temporal AA était bien la source des problèmes rencontrés par les Radeon en multi-GPU :



Les GeForce souffrent également, même si l'effet se fait moins sentir que pour les Radeon. Nous avons désactivé cette option pour tous les tests qui vont suivre.

Pour rappel, voici les détails de notre système de test :

Intel Core i7 3960X (HT off, Turbo 1/2/3/4/6 cores: 4 GHz)
Asus P9X79 WS
8 Go DDR3 2133 Corsair
Windows 7 64 bits
Pilotes GeForce 353.30 WHQL
Catalyst 15.15beta



Avant de rentrer dans les résultats à proprement parler, il est intéressant d'observer le comportement des solutions testées au niveau de la fréquence GPU qu'elles sont capables de maintenir en pratique :


[ 4K medium ]  [ 4K HQ ]  

 

 

Grâce au recours au refroidissement à eau et à une limite de consommation très élevée, les Radeon R9 Fury X sont capables de maintenir leur fréquence maximale en permanence.

Ce n'est pas le cas des GeForce GTX 980 Ti en SLI. L'ajout d'une seconde carte augmente la température de l'air que la première utilise pour son refroidissement, ce qui implique une montée plus rapide en température et une baisse plus forte de la fréquence GPU. En fait, dans la plupart des jeux, les GTX 980 Ti étaient tombées à leur fréquence de base de 1000 MHz.

A noter que dans le cas du CrossFire, la fréquence de chaque GPU évolue indépendamment de celle de l'autre GPU. Vous pouvez l'observer au niveau des fréquences de la R9 295X2.

C'est différent en SLI, Nvidia force la fréquence des deux GPU à se synchroniser au niveau de celui qui souffre le plus, un comportement assez logique dans le cas d'un rendu AFR avec lequel il n'est pas utile qu'un GPU soit plus rapide que l'autre, alors que la consommation peut ainsi être réduite, tout comme la variabilité entre temps de rendu des images.

Consommation

Il est compliqué de mesurer la consommation des systèmes multi-GPU au niveau des cartes seules et par ailleurs, ces systèmes peuvent ajouter une charge supplémentaire au niveau de la plateforme puisqu'ils impliquent par exemple l'utilisation de plus de lignes PCI Express. Pour ce test, nous avons donc sorti le wattmètre pour mesurer la consommation à la prise de la plateforme dans son ensemble.



Au repos, ces solutions sont similaires. La R9 Fury X seule est un petit peu plus gourmande que la GTX 980 Ti, mais elle se rattrape en CFX, le second GPU étant à l'arrêt complet (mais pas son système de watercooling).

En charge par contre l'écart explose entre la paire de R9 Fury X et la paire de GTX 980 Ti SLI. Cela découle directement des fréquences observées ci-dessous. Les GTX 980 Ti atteignent rapidement leur limite thermique, ce qui fait chuter leur fréquence GPU et donc leur consommation. A l'inverse, les R9 Fury X reste à leur fréquence maximale et donc à un niveau de consommation élevé. Nous pouvons d'ailleurs observer un net écart entre Battlefield 4 et Anno 2070, justement parce que leur fréquence GPU n'est pas limitée dans ce dernier jeu.

Performances

Voici l'ensemble de nos relevés de performances :


[ Indice ] [ Anno 2070 ] [ Batman Arkham Origins ] [ Battlefield 4 ] [ Crysis 3 ] [ Dying Light ] [ Evolve ] [ Far Cry 4 ] [ GRID 2 ] [ Hitman Absolution ] [ Project Cars ] [ Splinter Cell Blacklist ] [ The Witcher 3 ] [ Tomb Raider ]

Avec un niveau de qualité moyen en 4K (de faible à élevé suivant la lourdeur des jeux), la GTX 980 Ti a pour rappel un avantage de 5% sur la R9 Fury X. Mais la situation s'inverse en bi-GPU et les R9 Fury X en CFX prennent en moyenne une avance de 11% sur les GTX 980 Ti en SLI. Cela s'explique en partie par un meilleur scaling du CFX dans certains jeux mais aussi par une fréquence GPU limitée par la température dans le cas des GeForce.


[ Indice ] [ Anno 2070 ] [ Batman Arkham Origins ] [ Battlefield 4 ] [ Crysis 3 ] [ Dying Light ] [ Evolve ] [ Far Cry 4 ] [ GRID 2 ] [ Hitman Absolution ] [ Project Cars ] [ Splinter Cell Blacklist ] [ The Witcher 3 ] [ The Witcher 3 ] [ Tomb Raider ] [ Indice sans Project Cars ]

Si nous poussons le niveau de qualité, les Radeon R9 Fury X souffrent plus que les GeForce GTX 980 Ti, même si elles conservent une avance. Il y a cependant beaucoup de variabilité d'un jeu à l'autre dans ces résultats. De +27% à -17%, c'est en effet le grand écart.

Project Cars fait tout d'abord souffrir les Radeon quand le niveau de qualité maximal est activé, ce qui est probablement lié à un souci au niveau des pilotes et de la gestion des draw calls DX11 entrainant une limitation par le CPU à un framerate plus bas que chez Nvidia.

Les Radeon R9 Fury X souffrent ensuite dans The Witcher 3 quand HairWorks est activé, mais cet effet graphique n'a pas une influence très importante dans nos résultats puisque ce jeu est testé avec et sans.

Dying Light et Evolve sont les deux autres jeux dans lesquels les R9 Fury X sont en retrait et cette fois il semble évident que c'est leur quantité de mémoire, limitée à 4 Go, qui pose problème et pas seulement au niveau des performances.

Fluidité

Pour ce test, nous avons brièvement observé la fluidité dans chaque jeu testé. Premièrement, tout comme nous l'avions déjà constaté à plusieurs reprises, en bi-GPU et en 4K, les Radeon ont globalement un petit avantage sur les GeForce au niveau du ressenti. Nous présumons ici soit que le lien SLI atteint ses limites, soit que les algorithmes de frame pacing de Nvidia ne sont pas totalement fonctionnels en très hautes résolutions.

Cependant, dans aucun jeu nous n'avons rencontré de réel problème de fluidité sur les GeForce GTX 980 Ti en SLI, contrairement aux Radeon R9 Fury X en CFX qui souffrent dans 3 jeux :

- Dying Light max : très grosses saccades, injouable
- Evolve medium : saccades par moment, principalement en début de partie
- Evolve very high : saccades par moment, principalement en début de partie
- The Witcher 3 medium : petites saccades régulières
- The Witcher 3 max sans HairWorks : petites saccades régulières
- The Witcher 3 max avec HairWorks : grosses saccades, très désagréable

A noter que dans tous ces jeux la Radeon R9 295X2 souffre des mêmes problèmes, qui sont accentués par son niveau de performances inférieur.

Du potentiel mais…

En termes de performances, les Radeon R9 Fury X affichent un bon potentiel en multi-GPU, pour celui qui bien entendu n'a pas peur des petits aléas de ce type de solution. Nous pensons par exemple au support correct des pilotes qui peut prendre un peu de temps à arriver pour les nouveaux jeux, à la fluidité qui reste souvent un cran en-dessous de celle du mono-GPU ou encore à l'encombrement, ce qui est d'ailleurs particulièrement le cas avec les watercooling AIO.

Si tout cela ne vous fait pas peur, alors les performances sont bel et bien au rendez-vous : les Radeon R9 Fury X en CFX affichent un excellent scaling et surpassent les GeForce GTX 980 Ti en SLI… tout du moins en général. Quelques jeux posent malheureusement problème.

Par rapport à Nvidia, AMD prend encore vraiment trop de temps à optimiser ses pilotes pour certains titres. Certes c'est souvent le cas dans les jeux qui intègrent des effets Nvidia, sur qui nous pouvons compter pour ne pas avoir oublié de laisser trainer quelques bâtons à destinations des roues de la concurrence. Mais nous sommes cependant convaincus qu'AMD peut faire mieux et plus vite sur ce point.

Ensuite, avec Evolve et surtout Dying Light, nous avons pu observer des situations réalistes et jouables dans lesquelles il nous semble évident que la mémoire de 4 Go par GPU s'avère insuffisante. Pour régler le problème, la seule solution est actuellement de réduire le niveau de détail des textures, et il reste à voir si AMD pourra améliorer le comportement des Fury X avec de futurs pilotes.

Nous pouvons par exemple déjà observer dans Evolve que les saccades s'estompent après un bref temps de jeu, signe d'une réorganisation progressive des données qui restent en mémoire. Ce n'est par contre pas le cas dans Dying Light qui ajoute progressivement de nouvelles textures dans une mémoire déjà saturée et cause ainsi de grosses saccades. AMD nous a indiqué que son approche prioritaire était de travailler avec les développeurs pour s'assurer d'un comportement plus efficace de leurs jeux vis-à-vis de l'utilisation mémoire. Une approche idéale mais qui peut avoir ses limites si tous n'acceptent pas de faire des efforts.

Alors qu'en mono-GPU, nous n'avons pas de réelle réserve vis-à-vis d'une mémoire limitée à 4 Go à court et moyen terme avec une solution offrant un tel niveau de performance, dans le cadre du multi-GPU des problèmes peuvent se poser dès aujourd'hui et nous vous incitons vivement à y penser. Bien qu'il s'agisse d'une parade efficace, réduire la qualité des textures n'est selon nous pas souhaitable lorsque la résolution est poussée vers le haut et AMD a encore à démontrer être capable d'optimiser l'utilisation de la mémoire dans ces cas difficiles.

Vos réactions

Top articles