Nvidia GeForce GTX 770 et MSI Lightning en test : GTX 680 1.1

Publié le 30/05/2013 par
Imprimer
Consommation
Nous avons utilisé le protocole de test qui nous permet de mesurer la consommation de la carte graphique seule. Nous avons effectué ces mesures au repos sur le bureau Windows 7 ainsi qu'en veille écran de manière à observer l'intérêt de ZeroCore Power. Pour la charge, nous avons opté pour des mesures dans Anno 2070, en 1080p avec tous les détails poussés à leur maximum, ainsi que dans Battlefield 3, en 1080p dans le mode High.


En charge, quand la GeForce GTX 770 est très bien refroidie, son niveau de consommation est similaire à celui de la GTX 680. Sans refroidissement additionnel sur notre système de test, la température GPU limite sa fréquence et donc la consommation de la carte.

La Lightning se maintient en permanence sous les 80 °C et tourne donc à sa fréquence maximale, avec ou sans refroidissement additionnel. Dans un jeu lourd, sa consommation pourra ainsi augmenter significativement.

Pour rappel, lorsque nous démarrons nos tests de mesures de consommation, par exemple sous Anno 2070, les GTX Titan, 780 et 770 peuvent monter jusqu'à 225W, mais très rapidement, le GPU va atteindre la limite de 80 °C et fréquences et tensions vont progressivement être abaissées. En d'autres termes, la consommation est inférieure après quelques minutes de jeux, une fois la température GPU stabilisée.

Nous avons mis en relation ces mesures de consommation avec les performances, en retenant des fps par 100W pour que les données soient plus lisibles :


[ Anno 2070 1080p Max ]  [ Battlefield 3 1080p High ]

Avec la GTX 770, l'efficacité énergétique progresse par rapport à la GTX 680. Dans un jeu lourd tel qu'Anno 2070, son rendement est en baisse quand la carte est bien refroidie, comme c'est également le cas pour les GTX 780 et Titan.

Notons que chaque jeu représente un cas particulier et que le rendement varie d'un exemplaire de chaque carte à l'autre, parce que leur niveau de consommation réel varie et pour les GeForce parce que leur fréquence maximale et donc leurs performances varient.
Vos réactions

Top articles