Radeon RX 460 vs GeForce GTX 1050 / GTX 1050 Ti : le test de cartes Asus, Gigabyte, MSI, Sapphire et Zotac

Publié le 01/02/2017 par
Imprimer

Protocole de test

Pour ce dossier, nous avons repris le protocole utilisé dans les derniers tests, mais en mettant bien entendu à jour l'ensemble des jeux. Toutes les mesures principales ont été faites ou refaites avec les derniers patchs au 23/01/2017, la plupart des jeux étant maintenus à jour via Steam/Origin/Uplay. Nous avons bien entendu installé les pilotes les plus récents également, à savoir les Radeon 17.1.1 et les GeForce 378.49.

Par rapport à nos derniers tests de l'été passé, les performances des Radeon et des GeForce ne progressent que très légèrement avec les derniers jeux et patchs. L'exception la plus notable est l'ajout du mode DirectX 12 au jeu The Division qui apporte un gain de +/- 10% aux Radeon.

Nous avons opté pour la résolution de 1080p, la plus adaptée à ces cartes graphiques, avec un niveau de qualité moyen à élevé suivant la gourmandise de chaque titre. Bien souvent le MSAA passe à la trappe dans les jeux qui le supportent, pour s'adapter au niveau de performances de ces cartes graphiques d'entrée de gamme.

Pour représenter les performances de la Radeon RX 460 de référence, nous avons simplement limité la fréquence GPU de la carte de Gigabyte qui respecte la limite de consommation de référence. Dans le cas des GeForce GTX 1050 et 1050 Ti, nous avons fait de même avec MSI GTX 1050 T OC et avec la Zotac GTX 1050 Ti Mini.

Nous avons donc opté également opté pour des solutions de la génération précédente cadencées aux fréquences de référence mais de type personnalisées, c'est-à-dire qui ne sont pas limitées par la température maximale atteinte sur les designs de référence de type turbine.

Toutes les cartes ont été testées avec une température ambiante contrôlée à 26 °C et, pour chaque jeu, nous avons pris le temps nécessaire pour que la température et la fréquence GPU se stabilise, ce qui demande de la patience avec certaines cartes graphiques dont l'inertie thermique peut être élevée.

Pour rappel, nous avons pu observer avec les derniers pilotes Crimson ReLive un micro gain au niveau de la fréquence lorsque le GPU atteint sa limite de consommation, AMD ayant visiblement revu quelques paramètres de l'algorithme de PowerTune. Nous avons l'impression que ce gain est obtenu par une combinaison de consommation très légèrement supérieure et de tension très légèrement inférieure. Compte tenu des faibles différences, de nombreux tests seraient nécessaires pour confirmer ces impressions.

Les tests ont été effectués sur une plateforme X99 avec un Core i7 5960X. Au niveau de l'affichage, nous avons opté pour l'Asus ROG Swift PG278Q mais limité à 120 Hz, certaines Radeon étant capricieuses en 144 Hz avec certains câbles sur ce moniteur. G-Sync était désactivé pour éviter son petit impact sur les performances des GeForce.

Configuration de test

  • Intel Core i7 5960X (HT off, 4 GHz)
  • Gigabyte X99-SLI
  • 16 Go DDR4 2800 CL14 HyperX
  • Corsair AX1200i
  • Windows 10 64 bits
  • Pilotes GeForce 378.49
  • Pilotes Crimson Edition ReLive 17.1.1
Vos réactions

Top articles