HardWare.fr


Nvidia GeForce GTX Titan en test : big Kepler débarque enfin !
Cartes Graphiques
Publié le Jeudi 21 Février 2013 par Damien Triolet

URL: /articles/887-1/nvidia-geforce-gtx-titan-big-kepler-debarque-enfin.html


Page 1 - Introduction

Déjà commercialisé dans le monde professionnel à travers les Tesla K20, le GK110, ou big Kepler et ses 7.1 milliards de transistors, débarque enfin dans une carte graphique grand public, ou plutôt devrions nous dire "petit public" compte tenu de sa tarification ultra haut de gamme. Avec la GeForce GTX Titan, Nvidia compte bien s'assurer la première place, sans faire exploser la consommation et, mieux, en réduisant les nuisances sonores. C'est ce que nous allons vérifier à travers notre test complet !


1000€, deuxième
Si la sortie de la GeForce GTX 690 au tarif délirant de 1000€ avait pu choquer certains, elle représente cependant un succès commercial relatif. Nvidia est en effet parvenu à viser juste et à trouver un public pour cette carte graphique de luxe.

C'est exactement la même stratégie qui est visée avec le GK110 en version GeForce : proposer un produit exclusif pour les joueurs les plus exigeants. Le tarif sera ainsi le même, 1000€ (en réalité 800€ HT), bien que les performances visées soient inférieures à celle de la GTX 690 qui fait appel au bi-GPU. Nvidia estime qu'un gros GPU a plus de valeur puisqu'il permet d'éviter les aléas du multi-GPU, ce avec quoi nous sommes d'accord, ce qui ne veut pas dire que dans un cas comme dans l'autre nous n'ayons pas de réserves sur le niveau tarifaire.

Si certains avaient pu spéculer sur une nomenclature de type GeForce GTX 780 ou GeForce GTX 685, c'est finalement quelque chose de totalement différent qui a été retenu par Nvidia. Un nom spécial pour un produit spécial : GeForce GTX Titan. Nous pouvons supposer que cette GTX Titan restera le fer de lance par rapport à la future gamme GeForce 700, ce qui explique en partie pourquoi elle est positionnée en dehors des gammes actuelles et à venir.


Le GK110, un GPU qui néglige le jeu au profit du compute ? Non !

Le GK110, plus de puissance brute avant tout.

S'il y a bien un commentaire concernant le GK110 qui a beaucoup circulé, finissant presque par être vu comme un fait avéré, autant dans de nombreux médias spécialisés que dans différents forums, c'est qu'avec ce GPU, Nvidia aurait négligé l'aspect performances en jeu au profit du GPU computing et de CUDA. Après tout, ce n'est pas pour rien que la priorité a été de sortir ce GPU en tant que Tesla ?

S'il est vrai que Nvidia avait besoin en priorité de ce GPU dans le monde du calcul massivement parallèle, les choix qui ont été faits lors de son développement se placent purement dans la lignée traditionnelle des gros GPU de la société, tels que les GT200 et autres GF100. Largement avant tout autre considération, l'objectif avec le GK110 était de proposer un GPU plus "large", avec plus d'unités d'exécutions de tous types, ce qui profite directement au rendu en temps réel et donc aux jeux vidéo. Autrement dit, le GK110 a toute sa place dans la famille GeForce, quoi qu'en disent ses détracteurs et la compétition, à condition bien entendu d'arriver à maîtriser la bête sur le plan de la consommation et des nuisances.


Un test… compliqué
Certains produits sont plus complexes à tester correctement que d'autres. 75 fps au déballage de la carte, 63 fps 3 minutes plus tard, il s'est rapidement avéré que la GeForce GTX Titan allait nous compliquer la vie et demander une attention particulière dans l'organisation des tests. Vous allez comprendre pourquoi…


Page 2 - Le GK110

Le GK110
Le GK110 est basé sur la même architecture Kepler que les GPU GK104/GK106/GK107 qui forment la gamme GeForce 600.

Il conserve ainsi l'organisation des unités en SMX qui englobent chacun 192 unités de calcul, 16 unités de texturing et un cache L1 de 64 Ko. Le SMX représente une évolution du SM de la génération Fermi, optimisée pour un rendement supérieur, notamment sur le plan énergétique. Nous avions décrit cette évolution en détail dans le test de la GeForce GTX 680. Chaque SMX est capable de débiter jusqu'à 192 instructions FMA par cycle (384 flops), 4 pixels par cycle ainsi qu'un triangle tous les 2 cycles. Petite différence, le GK110 intègre un rasterizer, chargé de découper les triangles en pixels, par groupe de 3 SMX alors que les autres GPU Kepler le font par groupe de 2 SMX.

L'interface mémoire est également du même type avec des blocs contenant un contrôleur mémoire de 64 bits, optimisé pour la GDDR5 haute fréquence, un cache L2 de 256 Ko et 8 ROP chargés d'écrire les pixels après leur rendu.


Alors que le GK104 intègre 8 SMX, 4 rasterizers et 4 contrôleurs mémoire, le GK110 passe respectivement à 15, 5 et 6. Il dispose ainsi au total de 2880 unités de calcul, de 240 unités de texturing, d'un cache L2 de 1.5 Mo, d'un bus mémoire de 384-bit et de 48 ROP. Ses débits passent de 32 pixels et 4 triangles par cycle pour le GK104 à 40 pixels et 7.5 triangles par cycle.

Vous remarquerez que le débit de pixels est limité par le nombre de rasterizer (chacun peut générer 8 pixels par cycle) bien que les ROP soient capables d'en écrire 48 par cycle. Ces ROP supplémentaires peuvent cependant être utiles dans le cas du traitement de l'antialiasing de type multisample qui ajoute une charge importante à leur niveau.


Comme le GK104, le GK110 est fabriqué en 28 nanomètres chez TSMC. Le nombre plus élevé de blocs d'exécution exige 7.1 milliards de transistors contre 3.5 milliards pour le GK104 soit une complexité doublée. De quoi faire exploser les coûts de fabrication puisque cela correspond à une surface de 569 mm² contre "seulement" 294 mm² pour le GK104.


L'architecture évolue légèrement
Par rapport aux autres GPU Kepler, il y a malgré tout quelques petites différences, mais toutes concernent uniquement le GPU Computing. C'est probablement pour cela que le GK110 est vu comme biaisé vers ce domaine, mais il faut garder en tête qu'à l'échelle de l'architecture du GPU, ces modifications sont relativement mineures.

La plus importante concerne l'ajout de 64 unités de calcul double précision dans chaque SMX, en jaune dans la représentation de celui-ci :


La seconde nouveauté concerne le processeur de commande qui évolue pour gagner en flexibilité : permettre la gestion de plusieurs queues d'exécution pour mieux alimenter le GPU, jusqu'à 32, et être capable de lancer des tâches de lui-même pour libérer le CPU et éviter les aller-retour de données entre le GPU et la mémoire centrale. Deux technologies qui dans le langage Nvidia se nomment respectivement HyperQ et Dynamic Parallelism.

Nous retrouvons ensuite une protection ECC pour l'ensemble des mémoires internes et quelques nouvelles instructions pour accéder directement au cache dédié au texturing (12 Ko par SMX), pour déplacer des données d'un thread à l'autre ou encore pour compléter le support des opérations atomiques.


Page 3 - Spécifications, la GeForce GTX Titan

Spécifications

La GeForce GTX Titan, malgré son tarif de 1000€, doit se contenter d'un GK110 castré, même si légèrement. Pour faciliter sa production, Nvidia désactive ainsi l'un des 15 SMX de la puce qui se contente donc de 2688 unités de calcul au lieu de 2880. Le bus mémoire est par contre complet et les unités de calcul double précision, contrairement aux précédents gros GPU de Nvidia, restent accessibles. Il en va de même pour la technologie Dynamic Parallelism, très importante puisqu'elle autorise un nouveau modèle de programmation. Les autres nouveautés liées au GPU Computing, ECC, HyperQ, sont par contre désactivées et restent donc pour le moment réservées aux Tesla K20.

Par rapport à la GTX 680, la GTX Titan affiche une bande passante mémoire supérieure de 50%, et égale sur ce point la Radeon HD 7970 GHz Edition. Au niveau de la puissance de calcul, suivant la capacité au niveau du turbo qui est variable d'un échantillon à l'autre, nous obtenons entre 30 à 75% de mieux par rapport à la GTX 680. C'est le fillrate qui progresse le moins, les 5 rasterizers et sa fréquence plus faible limitant ici le GK110.

Notez que les unités de calcul en double précision doivent être spécifiquement activées sans quoi le débit est limité à 1/24ème comme sur les autres GTX 600. Une fois la double précision rapide activée, la fréquence maximale du GPU tombe à 850 MHz et la tension maximale est appliquée, soit 1.1625V.

Nvidia a équipé sa carte de pas moins de 6 Go de GDDR5, une quantité de mémoire qui ne sera pas réellement utile mis à part peut-être pour quelques cas extrêmes et en tri ou quad SLI. Enfin, le GK110 reste limité au niveau de fonctionnalité 11_0 de DirectX, les Radeon sont toujours les seules à supporter le niveau 11_1.


La GeForce GTX Titan
Nvidia nous a fourni une GeForce GTX Titan :




Tout comme pour la GTX 690, Nvidia a voulu proposer un produit exclusif et a pour cela mis les bouchées doubles sur la finition du ventirad qui laisse de côté le mal aimé plastique au profit de matières plus nobles. De quoi pouvoir proposer un design très travaillé et assurer la robustesse sans faire exploser le poids de la carte graphique. Petit détail, le logo GeForce GTX est illuminé par des leds et cet éclairage peut être contrôlé pour en personnaliser le fonctionnement. La finition est réellement remarquable, tant visuellement qu'au toucher. Esthétiquement c'est un sans-faute.

Petite différence par rapport à la GeForce GTX 690, Nvidia a abandonné la coque en magnésium, qui s'est avérée être trop complexe à fabriquer. A la place, nous retrouvons de l'aluminium qui a été peint de manière à proposer un résultat similaire. Même si cela est difficile à représenter en photo, petit avantage au final au magnésium dont la surface joue avec la lumière pour procurer un aspect "industriel" plus réussi. La finition de la GTX Titan reste cependant excellente.

Le ventirad vise également une efficacité élevée avec une large chambre à vapeur en cuivre nickelé, sur laquelle prend place un énorme radiateur. Pour utiliser tout l'espace disponible, Nvidia a place un second petit radiateur derrière le ventilateur radial. Une plaque en aluminium recouvre l'ensemble du PCB et isole les condensateurs pour éviter qu'ils entravent le flux d'air.


La carte fait 26,5 centimètres et propose une connectique classique avec 2 DVI Dual Link, une HDMI et une DisplayPort. Tout comme le GK104, le GK110 peut piloter jusqu'à 4 écrans simultanément.

Pour alimenter le GK110, des connecteurs d'alimentations 8+6 broches sont nécessaires, ce qui est en phase avec le TDP de 250W de la carte. Nvidia a prévu 6 phases numériques sur son PCB, en plus des deux qui sont dédiées à la mémoire GDDR5 Samsung FC03 certifiée à 1.5 GHz.


Page 4 - GPU Boost et overclocking

GPU Boost 2.0 ?
Tout comme les GeForce GTX 600, la GeForce GTX Titan profite d'un turbo dénommé GPU Boost pour pouvoir monter en fréquence sous certaines conditions. Officiellement, pour les GeForce GTX 600, il s'agit d'une seule condition, la limite de consommation. Par exemple, le turbo d'une GeForce GTX 680 ne pourra pas s'activer au-delà de 170W. Pour la GeForce GTX Titan, entre également en jeu une limite de température et son turbo doit faire en sorte de ne dépasser ni 235W, ni 80 °C. C'est la raison pour laquelle Nvidia communique sur un GPU Boost "2.0", en insistant sur le fait que cette nouvelle version permet de monter relativement plus haut en fréquence dans plus de cas.

Reste que selon nos observations, ce n'est pas correct : en réalité il ne semble y avoir aucune évolution technique et Nvidia semble simplement essayer de générer artificiellement un effet de nouveauté en mettant en avant un "2.0", qui plus est en présentant un bénéfice douteux.

Le turbo des GeForce GTX 600 doit lui aussi respecter une limite de température, 95 °C pour une GeForce GTX 680, toujours d'après nos observations puisque Nvidia refuse de communiquer à ce niveau. Plus qu'un nouveau GPU Boost, la GeForce GTX Titan exploite la même technologie que les GeForce GTX 600 mais avec une philosophie différente : la limite de température est nettement plus agressive de manière à s'assurer que les nuisances sonores restent réduites. En pratique, avec le ventirad de référence, ce sera donc elle qui régulera la fréquence du GPU, et non son niveau de consommation.

Cette calibration différente des limites à respecter pour GPU Boost permet-elle de monter plus haut et plus souvent en fréquence ? Nous ne sommes pas d'accord avec cet argument. Dans la plupart des situations, comme la logique le veut, une forte contrainte de plus à respecter ne peut pas donner plus de liberté à GPU Boost, bien au contraire.

Parmi les arguments avancés par Nvidia pour justifier son affirmation, l'un d'entre eux est cependant valide : la possibilité de valider une tension plus élevée. Le fabricant rappelle ainsi que tension et température élevées ne font pas bon ménage lorsqu'il s'agit de s'assurer de la longévité d'une puce électronique. En limitant la température à 80 °C, Nvidia peut valider en toute sécurité une tension plus élevée : 1.1625V pour la GeForce GTX Titan contre 1.1500V pour les GeForce GTX 600. Soit un palier de plus qui correspond à un gain de 13 MHz pour le turbo.

Le problème est qu'avec le système de refroidissement de référence, pourtant très efficace, il est presqu'impossible d'atteindre ce palier, si ce n'est pour quelques dizaines de secondes, soit juste le temps de lancer un bench…


GPU Boost , quelle fréquence ?
Rappelons que GPU Boost n'est pas déterministe. D'une part parce qu'il repose sur des mesures de consommation et de température réelles et non sur une estimation basée sur de nombreux capteurs internes comme le font les CPU et les Radeon pour assurer un comportement identique sur tous les échantillons produits. Par ailleurs, Nvidia ne valide pas tous ces échantillons à la même fréquence turbo maximale.

AMD, et Nvidia auparavant, valide ses GPU à une fréquence fixe mais avec une tension qui peut être différente, pour s'adapter à la variabilité de la production : certains GPU peuvent avoir besoin d'une tension élevée pour être stables alors que d'autres ont besoin d'une tension plus faible pour respecter le TDP.

Depuis la génération Kepler, Nvidia a opté pour une approche différente. La tension, ou plutôt la courbe des tensions, est fixe et chaque GPU est validé pour les fréquences maximales qu'il est capable de tenir le long de cette courbe. Les tensions évoluent par pas de 0.0125V et les fréquences par 13 MHz.

La fréquence GPU Boost annoncée par Nvidia n'est fondée sur aucun élément technique, il s'agit d'un point de communication plus ou moins abstrait. La fréquence turbo maximale n'est pas liée à cette valeur. Comme pour les GeForce GTX 600, Nvidia refuse d'indiquer quelle est la plage sur laquelle les fréquences sont validées. Quelle est la fréquence turbo maximale à laquelle peut être validée une GeForce GTX Titan ? Quelle est la fréquence que son turbo doit au moins pouvoir atteindre pour que le GPU soit validé en tant que GTX Titan ?

Nvidia s'est contenté de nous dire que cette fréquence turbo devait au moins être supérieure à la fréquence GPU Boost officielle de la GTX Titan mais sans vouloir donner de chiffre. Nous devons donc présumer qu'il s'agit de la fréquence GPU Boost annoncée + 13 MHz soit 889 MHz. Notre échantillon est pour sa part capable de monter bien plus haut, jusqu'à 1006 MHz ! Entre deux GTX Titan, il peut donc y avoir un écart de performances significatif.


GPU Boost en graphique et overclocking
Nous avons mis en graphique différents exemples de courbes de couples fréquence/tension. Suivant la température et le niveau de consommation, chaque GPU évoluera sur sa propre courbe. Tout d'abord, en vert foncé, la courbe réelle de notre échantillon (notez qu'il ne dispose pas de palier à 1.1250V mais en dispose de 2 à 1.150V). En vert clair, ce que nous présumons correspondre à la moins douée des GTX Titan et un exemple moyen entre les 2.


Avec la GTX Titan, Nvidia autorise l'overvolting. Il est ainsi possible de prolonger la courbe des GTX Titan de quelques bins supplémentaires via des tensions de 1.1750V, 1.1875V et 1.2V, soit de quoi gagner 26 MHz dans le cas de notre échantillon. Nous avons représenté son influence en rouge. Notez que ces tensions plus élevées pourront avoir un impact sur la durée de vie du GPU, d'autant plus si vous augmentez également la limite de température, et que les fabricants seront libres de ne pas autoriser cet overvolting.

Overclocker un GPU passe traditionnellement par une augmentation de ses fréquences. La mémoire de notre échantillon a ainsi pu passer de 1.5 à 1.8 GHz. Quant au GPU, nous avons pu le pousser de 104 MHz. Attention, il ne s'agit pas d'une simple augmentation de la fréquence mais d'un biais, ou offset, appliqué à sa courbe des couples fréquences/tensions, ce qui est illustré en bordeaux.

Avec les GeForce GTX 600 et Titan, l'overclocking a pris une autre dimension et augmenter la fréquence maximale à travers un offset peut ne pas avoir d'importance si la consommation ou la température limite le turbo. Par contre, sur une GTX Titan, augmenter la limite de température permettra en pratique au GPU de fonctionner à une fréquence plus élevée.


Precision X d'EVGA en version 4.0 est prêt pour la GTX Titan. Il expose la limite de température de GPU Boost, mais à travers ses pilote Nvidia bloque l'accès à ce paramètre pour les GeForce GTX 600.

L'offset pourra également jouer un rôle, mais bien souvent pour une raison autre que l'augmentation de la fréquence maximale : appliquer un offset positif revient à réduire la tension relative et donc la consommation relative. Ainsi, alors que notre échantillon, dont la fréquence maximale est de 1006 MHz, était limité à 901 MHz dans Anno, avec un offset de 104 MHz, il était capable de tenir 954 MHz. Cet offset revient en effet à réduire la tension de 0.1V ! Il ne faut donc pas penser uniquement en termes de fréquence maximale.

Autre remarque, lors d'un overclocking via l'offset de la fréquence GPU, il est possible que le GPU tienne la fréquence maximale, mais pas une fréquence plus faible : toujours sur base de notre graphe exemple, ce n'est pas parce que notre GPU est capable de tenir 1136 MHz à 1.2V qu'il est également capable de tenir 941 MHz à 1.0V !


Et en mode DP ?
Lorsque la double précision rapide est activée, GPU Boost est désactivé et le GPU de la GTX Titan fonctionne d'une manière plus rigide. Voici ce que nous avons pu observer :

850 MHz @ 1.1625V si t° GPU < 80°C
837 MHz @ 1.1500V si 80°C ≤ t° GPU < 85°C
811 MHz @ 1.1375V si 85°C ≤ t° GPU < 95°C
405 MHz @ 1.1375V si t° GPU ≥ 95°C


Page 5 - Bruit et températures

Nuisances sonores
Nous plaçons les cartes dans un boîtier Cooler Master RC-690 II Advanced et mesurons le bruit d'une part au repos et d'autre part en charge. Un SSD est utilisé et tous les ventilateurs du boîtier ainsi que celui du CPU sont coupés pour la mesure. Le sonomètre est placé à 60cm du boîtier fermé et le niveau de bruit ambiant se situe à moins de 20 dBA, ce qui est la limite de sensibilité pour laquelle il est certifié et calibré.


Comme annoncé par Nvidia, la GeForce GTX Titan est nettement plus discrète en charge que les cartes graphiques haut de gamme classiques, son système de refroidissement ainsi que son turbo ayant été calibrés dans cette optique.

Lorsque nous poussons les limites GPU Boost, le niveau sonore reste raisonnable et ne dépasse pas celui de la GeForce GTX 680.

Températures
Toujours placées dans le même boîtier, nous avons relevé la température du GPU rapportée par la sonde interne :


La GeForce GTX Titan dépasse légèrement sa limite de température dans notre test de charge (3DMark 11 Test 1), relativement lourd bien qu'il ne soit pas extrême. Son ventirad n'arrive pas à maintenir les 80 °C et la fréquence se stabilise au bout de 2-3 minutes à 837 MHz, soit la fréquence de base à partir de laquelle GPU Boost accepte de laisser monter la température.

Si nous augmentons les limites visées par GPU Boost à 106% pour la consommation et 94 °C pour la température, les maximums autorisés, c'est cette fois la consommation qui sera le facteur limitant. La température se stabilise à 86°C et la fréquence GPU à 954 MHz, soit 14% de mieux pour 4 °C de plus.

Voici ce que tout cela donne à travers l'imagerie thermique :


Radeon HD 7970 GHz Edition de référence
GeForce GTX Titan
GeForce GTX 680 de référence
  [ Repos ]  [ Charge ]
  [ Repos ]  [ Charge ]  [ Charge 106%/94°C ]
  [ Repos ]  [ Charge ]

La GeForce GTX Titan est très bien refroidie, d'une part parce que son ventirad est performant, d'autre part parce que sa limite de température de 80°C ne permet pas de tirer le maximum de la carte. Sans overclocking mais en augmentant les limites de consommation et de températures, la charge augmente sensiblement, notamment au niveau de l'étage d'alimentation, qui tient cependant bon.


Page 6 - Consommation, efficacité énergétique

Consommation
Nous avons utilisé le protocole de test qui nous permet de mesurer la consommation de la carte graphique seule. Nous avons effectué ces mesures au repos sur le bureau Windows 7 ainsi qu'en veille écran de manière à observer l'intérêt de ZeroCore Power. Pour la charge, nous avons opté pour des mesures dans Anno 2070, en 1080p avec tous les détails poussés à leur maximum, ainsi que dans Battlefield 3, en 1080p dans le mode High.

Notez que pour ce test, nous avons refait les mesures de consommation sur l'ensemble des cartes, avec les pilotes et jeux à jour.


Au repos, la GeForce GTX Titan affiche une consommation légèrement inférieure à celle de la GeForce GTX 680, mais nous pouvons supposer que cela est uniquement dû à la variation naturelle à ce niveau d'un échantillon à l'autre.

En charge la situation se complique. Lorsque nous démarrons nos tests de mesures de consommation, par exemple sous Anno 2070, la GTX Titan peut monter jusqu'à 225W, mais très rapidement, le GK110 va atteindre la limite de 80 °C et fréquences et tensions vont progressivement être abaissées. En d'autres termes, la consommation est nettement inférieure après quelques minutes de jeux, une fois la température GPU stabilisée : 180W.

Nous avons ensuite effectués les mêmes tests, mais en ajoutant 2 ventilateurs de 120mm de part et d'autre de la GeForce GTX Titan. Cette fois, le GPU se stabilisé à un couple fréquence/tension plus élevé et la consommation monte à 200W. Cela peut sembler contre-intuitif au premier abord, mais mieux la GTX Titan est refroidie, plus son niveau de consommation sera élevé.

En d'autres termes, le ventirad de la GTX Titan, tel qu'il est calibré par Nvidia, est capable de dissiper 180W dans des conditions standards et 200W lorsqu'il est assisté par un refroidissement performant autour de la carte. A 85 ou 90 °C il serait capable d'encaisser une charge plus élevée. Il en va de même pour un système de watercooling.

Nous avons mis en relation ces mesures de consommation avec les performances, en retenant des fps par 100W pour que les données soient plus lisibles :


[ Anno 2070 1080p Max ]  [ Battlefield 3 1080p High ]

A travers la GeForce GTX Titan, le GK110 s'avère être le GPU haut de gamme le plus efficace sur le plan énergétique, avec un net avantage dans Anno 2070 où la limite de température force le fonctionnement du GPU à une fréquence relativement faible. Rappelons que les turbos utilisés par Nvidia et AMD, s'ils permettent d'essayer de maximiser l'utilisation de l'enveloppe thermique disponible, le font au détriment de l'efficacité énergétique. Moins un turbo est capable de s'activer, meilleure elle sera.

Notons que chaque jeu représente un cas particulier et que le rendement varie d'un exemplaire de chaque carte à l'autre, parce que leur niveau de consommation réel varie et pour les GeForce parce que leur fréquence maximale et donc leurs performances varient.


Page 7 - Performances théoriques : pixels

Notez que pour toutes les performances théoriques, les GeForce GTX tournaient à leur fréquence GPU maximale respective, à savoir 1110 MHz pour la GTX 680, 1097 MHz pour la GTX 660 et 1006 MHz pour la GTX Titan.

Performances texturing
Nous avons mesuré les performances lors de l'accès à des textures de différents formats en filtrage bilinéaire : en 32 bits classique (8x INT8), en 64 bits "HDR" (4x FP16), en 128 bits (4x FP32), en profondeur de 32 bits (D32F) et en FP10, un format HDR introduit par DirectX 10 qui permet de stocker des textures HDR en 32 bits avec quelques compromis.


Les GeForce GTX sont capables de filtrer les textures FP16 à pleine vitesse contrairement aux Radeon qui compensaient jusqu'ici par une puissance de filtrage tellement supérieure, que même si elles devaient filtrer les textures FP16 à demi-vitesse, elles affichaient des débits proches des GeForce. Ce n'est plus le cas avec les GeForce GTX 600 qui prennent une avance considérable sur ce point. La GeForce GTX Titan ne fait qu'enfoncer le clou et devance la Radeon HD 7970 GHz de près de 50% sur ce point.

Notez cependant que dans ce test, les GeForce GTX 600 ont du mal à atteindre leur débit maximal alors que leur fréquence GPU est pourtant maximale.

Les Radeon HD 7700 et 7800 ont également du mal à atteindre leur maximum théorique, cette fois parce que PowerTune les en empêche en réduisant la fréquence GPU, estimant que le niveau de consommation est trop élevé lorsque leurs unités de texturing sont saturées. Ce n'est pas le cas pour les Radeon HD 7900.


Fillrate
Nous avons mesuré le fillrate sans et puis avec blending, et ce avec différents formats de données :


[ Standard ]  [ Avec blending ]

Le fillrate peut être vu comme le point faible du GK110. Ainsi, il n'augmente que très peu par rapport au GK104, un peu plus de 10% en théorie et un petit peu moins en pratique. Pourtant, les 14 SMX de la GeForce GTX Titan sont capables de transférer 56 pixels par cycle vers les ROP et ceux-ci sont capables d'en écrire 48 en mémoire par cycle, contre 32 et 32 pour une GeForce GTX 680. La limitation se situe en fait au niveau des rasterizers : le GK110 en dispose de 5 contre 4 pour le GK104. Chacun de ceux-ci étant capable de générer 8 pixels, le GK110 est en réalité limité à 40 pixels par cycle contre 32 pour le GK104. La différence de fréquence réduit encore cet écart.

Au niveau du fillrate, les GeForce GTX Kepler sont enfin capables de transférer les formats FP10/11 et RGB9E5 à pleine vitesse vers les ROP, bien que le blending de ces formats se fasse toujours à demi vitesse. Si les GeForce et les Radeon sont capables de traiter le FP32 simple canal à pleine vitesse sans blending, seules ces dernières conservent ce débit avec blending. Elles sont par ailleurs nettement plus rapides en FP32 quadruple canal (HDR 128 bits). Les GeForce semblent cependant faire un meilleur usage de leur bande passante mémoire disponible dans le cas du FP16 avec blending.

Bien que les Radeon 7800 disposent du même nombre de ROP que les Radeon HD 7900, leur bande passante mémoire inférieure ne leur permet pas de maximiser leur utilisation avec blending ainsi qu'en FP16 et FP32 sans blending.


Page 8 - Performances théoriques : géométrie

Notez que pour toutes les performances théoriques, les GeForce GTX tournaient à leur fréquence GPU maximale respective, à savoir 1110 MHz pour la GTX 680, 1097 MHz pour la GTX 660 et 1006 MHz pour la GTX Titan.

Débit de triangles
Etant donné les différences architecturales des GPUs récents au niveau du traitement de la géométrie, nous nous sommes évidemment penchés de plus près sur le sujet. Tout d'abord nous avons observé les débits de triangles dans deux cas de figure : quand tous les triangles sont affichés et quand ils sont tous rejetés (parce qu'ils tournent le dos à la caméra) :


Les GeForce GTX 600 ne font pas mieux que les Radeon HD 7900/7800 lorsque les triangles doivent être rendus, peut-être parce qu'elles sont engorgées à un endroit ou à un autre, ou encore parce que leurs performances ont été réduites artificiellement pour différencier les Quadro des GeForce. La GeForce GTX Titan est par contre légèrement devant la Radeon HD 7970 GHz Edition.

Quand les triangles peuvent être éjectés du rendu, les GeForce GTX Titan, 680 et 660 profitent pleinement de leur capacité de prise en charge de 7, 4 ou 2.5 triangles par cycle pour prendre le large.

Ensuite nous avons effectué un test similaire mais en utilisant la tessellation :


Avec les GeForce GTX Kepler, Nvidia réaffirme sa supériorité lorsqu'il s'agit de traiter un nombre important de petits triangles générés par un niveau de tessellation élevé, les Radeon HD 7900 ne se démarquant pas des Radeon HD 7800 qui disposent du même nombre d'unités fixes dédiées à cette tâche.

L'architecture des Radeon fait qu'elles peuvent être engorgées par la quantité de données générées, ce qui réduit drastiquement leur débit dans ce cas. Le doublement de la taille du buffer dédié à l'unité de tessellation dans le GPU des Radeon HD 6800 leur a permis d'être significativement plus performantes que les Radeon HD 5000. AMD a continué dans cette voie avec les Radeon HD 7000.


Page 9 - Protocole de test

Protocole de test
Pour ce test, nous avons légèrement revu notre protocole, en y ajoutant Assassin's Creed 3, Far Cry 3 et Hitman Absolution. Tous ces jeux sont testés avec leur dernier patch, la plupart étant maintenus à jour via Steam/Origin.

Nous avons décidé de ne plus utiliser le niveau de MSAA (4x et 8x), comme critère principal pour segmenter nos résultats. De nombreux jeux au rendu différé proposent d'autres formes d'antialiasing, la plus courante étant le FXAA développé par Nvidia. Cela n'a donc plus de sens d'organiser un indice autour d'un certain niveau d'antialiasing, ce qui nous permettait par le passé de nous focaliser sur l'efficacité du MSAA. En 2560x1600, nous avons dès lors exécuté les tests avec 2 niveaux de qualité différents : extrême et très élevée, ce qui inclus d'office un minimum d'antialiasing (soit du MSAA 4x, soit du FXAA/MLAA/AAA). Nous avons également mesuré les performances en 1920x1080 avec le niveau de qualité extrême.

Nous n'affichons plus les décimales dans les résultats de performances dans les jeux pour rendre les graphiques plus lisibles. Ces décimales sont néanmoins bien notées et prises en compte pour le calcul de l'indice. Si vous êtes observateurs vous remarquerez que c'est également le cas pour la taille des barres dans les graphes.

Toutes les Radeon ont été testées avec les pilotes Catalyst 13.2 beta5 et toutes les GeForce ont été testées avec les pilotes beta 314.09 en forçant l'activation du PCI Express 3.0 sur la plateforme X79.

Nous avons fait en sorte de tester les GeForce GTX 600 à leurs spécifications minimales garanties au niveau de GPU Boost. Nous avons pour cela joué avec les paramètres d'overclocking pour réduire la fréquence de base, en ajustant légèrement la limite de consommation de manière à ce que la fréquence en pratique corresponde bien à celle d'une carte dont la fréquence turbo maximale serait la fréquence GPU Boost officielle. Insistons bien sur le fait que cela ne revient pas à désactiver GPU Boost !

Dans le cas de la GeForce GTX Titan, nous l'avons testée dans 2 conditions différentes. Dans un premier temps sur une table de bench classique en limitant sa fréquence maximale à 889 MHz, ce qui correspond à une GeForce GTX Titan dont la fréquence turbo maximale serait faible et dont le refroidissement serait d'un niveau correct mais sans attention particulière (GTX Titan). Dans un second temps, nous avons laissé notre échantillon de GeForce GTX Titan profiter de sa fréquence turbo très élevée de 1006 MHz et lui avons en plus ajouté 2 ventilateurs de 120mm. De quoi représenter cette fois les performances d'un bon échantillon de GTX Titan placé dans un environnement très bien refroidi (GTX Titan 1006 MHz sample*).

Nous avons bien entendu effectué l'ensemble des mesures de performances pour la GTX Titan après quelques minutes de jeu, soit quand sa température et son niveau de fréquences s'était stabilisé. Sans cela, les performances sont surévaluées et non représentatives des performances réelles en jeu. La température ambiante était comprise entre 25 et 26 °C.

Configuration de test
Intel Core i7 3960X (HT désactivé, Turbo 1/2/3/4/6 cores: 4 GHz)
Asus P9X79 WS
8 Go DDR3 2133 Corsair
Windows 7 64 bits
Pilotes GeForce beta 314.09
Catalyst 13.2 beta5




Page 10 - GPU Boost dans les tests

GPU Boost en pratique
Comme indiqué dans l'introduction, avec Anno 2070 en tant qu'exemple extrême, la GeForce GTX Titan est capable d'atteindre sa fréquence turbo maximale tant que son GPU n'atteint pas 80 °C. Et il atteint cette température dans tous les jeux que nous avons testés, sur un banc de bench, sans et avec un refroidissement additionnel autour de la carte. Si nous mesurions les performances d'une manière traditionnelle, nous obtiendrions des résultats plus éléves et non-représentatifs des conditions de jeux dans l'ensemble de nos tests.

Nous avons donc dû prendre le temps d'observer en détail le comportement de la GTX Titan dans chaque jeu et pour chaque résolution pour nous assurer de faire des mesures de performances en conditions représentatives.

Voici 2 exemples avec Anno 2070 et Battlefield 3 avec un test rapide, un test à température stabilisée après 5 minutes et le même test que ce dernier mais avec 2 ventilateurs de 120mm positionnés autour de la carte :

Anno 2070 : 75 fps -> 63 fps -> 68 fps
Battlefield 3 : 115 fps -> 107 fps -> 114 fps

La chute de performances une fois la température de croisière atteinte peut être considérable. Un refroidissement performant peut compenser en partie cette baisse, mais n'y a-t-il pas une contradiction dans le fait de devoir rajouter du bruit pour compenser le fait qu'une carte graphique s'efforce de rester discrète à tout prix ?

Cela pose de plus le problème de la fiabilité des comparaisons de performances que vous pourrez lire de-ci de-là, puisque cela peut-être le grand écart en fonction des conditions de tests (ventilation de la carte mais aussi attente ou non de la montée en température du GPU pour les mesures) : entre les cas extrêmes le gain est de 19% sous Anno 2070 et 7,5% sous Battlefield 3!

Voici les fréquences que nous avons obtenues en pratique pour les 2 scénarios retenus : carte limitée à 889 MHz sans refroidissement additionnel / carte capable de monter jusqu'à 1006 MHz avec refroidissement additionnel. Seul 3DMark est capable de maintenir les fréquences maximales grâce aux temps de chargement entre les scènes qui permettent au GPU de ne jamais avoir le temps d'atteindre 80 °C.

3DMark Fire Strike : 889 / 1006 MHz
Unigne Heaven 4.0 : 876 / 954 MHz
Unigne Valley 1.0 : 876 / 954 MHz
Alan Wake 1920 Max : 876 / 993 MHz
Alan Wake 2560 Very High : 837 / 928 MHz
Alan Wake 2560 Max : 876 / 954 MHz
Anno 2070 : 837 / 902 MHz
Assassin's Creed 3 1920 MSAA4x : 876 / 967 MHz
Assassin's Creed 3 2560 FXAA HQ : 850 / 941 MHz
Assassin's Creed 3 2560 MSAA4x : 850 / 928 MHz
Batman Arkham City AA8x : 876 / 993 MHz
Batman Arkham City 2560 AA4x : 876 / 954 MHz
Battlefield 3 1920 MSAA 4x : 876 / 993 MHz
Battlefield 3 2560: 850 / 928 MHz
Battlefield 3 2560 MSAA 4x : 876 / 954 MHz
Civilization V 1920 AA8x : 850 / 928 MHz
Civilization V 2560 AA4x : 837 / 902 MHz
Civilization V 2560 AA8x : 863 / 954 MHz
Crysis 2 1920 Ultra : 876 / 993 MHz
Crysis 2 2560 Extreme : 876 / 954 MHz
Crysis 2 2560 Ultra : 863 / 967 MHz
DiRT Showdown 1920 Ultra : 876 / 954 MHz
DiRT Showdown 2560 Ultra AL OFF : 837 / 928 MHz
DiRT Showdown 2560 Ultra : 863 / 941 MHz
Far Cry 3 1920 AA4x : 876 / 954 MHz
Far Cry 3 2560 : 850 / 928 MHz
Hitman Absolution : 876 / 993 MHz
Max Payne 3 AA 4x : 876 / 954 MHz
Max Payne 3 2560 NoAA : 850 / 941 MHz
Sleeping Dogs : 837 / 902 MHz
The Witcher 2 Enhanced Edition : 876 / 954 MHz
Total War Shogun 2 1920 MSAA4x : 837 / 928 MHz
Total War Shogun 2 2560 MLAA : 837 / 928 MHz
Total War Shogun 2 2560 MSAA 4x : 837 / 901 MHz


Page 11 - GTX Titan vs GTX 660 Ti 3 Go SLI

GTX Titan vs GTX 660 Ti 3 Go SLI
Compte tenu de leur configuration identique au niveau des unités de calcul et de la bande passante mémoire, il est intéressant de comparer les GeForce GTX 660 Ti 3 Go en SLI à la GeForce GTX Titan. Cette dernière dispose d'un avantage en terme d'efficacité puisqu'elle ne fait pas appel au multi-GPU, mais les GTX 660 Ti 3 Go disposent d'un fillrate 20% plus élevé.

Nous comparons ici des GTX 660 Ti 3 Go avec un GPU Boost limité à 980 MHz, soit une fréquence qui en pratique est en général de 967 MHz avec une GeForce GTX Titan dont la fréquence maximale est de 1006 MHz, mais dont la fréquence en pratique tourne plutôt autour de 954 MHz. Nous sommes donc dans des conditions très proches.


[ % ]  [ fps ]

Suivant les jeux, l'une ou l'autre solution est la plus rapide, sans qu'il ne se dégage clairement une solution plus efficace. La GeForce GTX Titan perd surtout dans les jeux les plus lourds, qui vont faire chauffer le GPU et limiter sa fréquence. Elle prend par contre une avance très importante dans DiRT Showdown.


Page 12 - Benchmark : 3DMark et Unigine

3DMark Fire Strike
Nous lançons le test Fire Strike avec les 2 presets proposés par Futuremark :


La GeForce GTX Titan s'en tire plutôt bien, profitant des tempes de chargement relativement long entre les scènes de tests pour laisser son GPU se refroidir et au final il n'atteint jamais les 80 °C. c'est le seul exemple du type que nous avons pu rencontrer lors de ce test.

Notez qu'étrangement, le score Physics des GPU Nvidia est 30% supérieur à celui obtenu avec les GPU AMD, alors qu'il n'est censé ne faire intervenir que le CPU. Ce phénomène ne se produisait pas avec les pilotes que nous avons utilisés lors du lancement de ce nouveau 3DMark.


Unigine Valley 1.0 & Heaven 4.0
Les tests sont effectués avec tous les paramètres au maximum en 1920*1080 et MSAA 8x.



Page 13 - Benchmark : Alan Wake

Alan Wake

Alan Wake est un portage console plutôt bien exécuté et basé sur DirectX 9. Il a la particularité d'imposer l'utilisation du MSAA, nécessaire pour le rendu correct des herbes.

Nous utilisons le niveau de qualité High proposés par le jeu auxquels nous ajoutons un niveau de qualité maximal qui fait passer le niveau de MSAA à 8x et le niveau de filtrage anisotrope à 16x. Nous effectuons un déplacement bien défini et mesurons les performances avec fraps. Le jeu est maintenu à jour via Steam.


Très gourmand en bande passante mémoire, Alan Wake permet à la GeForce GTX Titan d'afficher un gain de 50 à 60% par rapport à la GeForce GTX 680. L'avance reste cependant légère face à la Radeon HD 7970 GHz Edition en 2560x1600 avec MSAA 8x.

Notez que le rendu souffre de micro-saccades avec le SLI.


Page 14 - Benchmark : Anno 2070

Anno 2070

Anno 2070 reprend une évolution du moteur d'Anno 1404 qui intègre un support de DirectX 11.

Nous utilisons d'une part le mode de qualité très élevé proposé par le jeu et d'autre part un mode de qualité maximale qui complexifie les effets de post processing et augmente le niveau de filtrage anisotrope. Nous effectuons un déplacement sur une carte et mesurons les performances avec fraps.


Dans Anno 2070, c'est avant tout la puissance de calcul qui compte. Malgré une fréquence turbo limitée à cause de la charge qui fait rapidement monter le GPU en température, la GTX Titan profite d'une avance de 40% sur la GTX 680.


Page 15 - Benchmark : Assassin's Creed 3

Assassin's Creed 3

Le dernier opus de la série des Assassin's Creed repose en version PC sur un moteur DirectX 11 qui supporte notamment la tessellation.

Nous poussons toutes les options à leur maximum, si ce n'est pour l'antialiasing que nous testons en mode FXAA HQ et en mode MSAA 4x. Nous mesurons les performances avec Fraps sur le niveau Boston.


Dans ce jeu, la GeForce GTX Titan dépasse la GTX 690, le SLI n'y étant pas particulièrement efficace, et le CrossFire X encore moins ! La GeForce GTX 680 égalant ici la Radeon HD 7970 GHz Edition, la GTX Titan n'a aucun mal à prendre une avance considérable sur cette dernière.


Page 16 - Benchmark : Batman Arkham City

Batman Arkham City

Batman Arkham City est mis au point avec une version récente de l'Unreal Engine 3 qui supporte DirectX 11. Bien que ce mode ait souffert d'un gros bug dans la version d'origine du jeu, un patch 1.1 a corrigé cela. Nous utilisons le benchmark intégré.

Les performances sont mesurées en mode Extreme (qui inclus les effets DirectX 11 supplémentaires) avec MSAA 4x et MSAA 8x. Le jeu est maintenu à jour via Steam.


Batman Arkham City avec MSAA fait partie des quelques jeux principalement limités par la bande passante mémoire. Il est donc relativement logique de retrouver une GTX Titan 40 à 50% devant la GTX 680.

Notez qu'il semble évident qu'AMD a abandonné l'idée de proposer un profil CrossFire X pour ce jeu…Il serait au moins utile qu'AMD désactive CrossFire X dans ce jeu, pour éviter les saccades que ce mauvais support génère. Notez que des saccades se font également sentir avec la GTX 690 en 2560x1600 AA8x.


Page 17 - Benchmark : Battlefield 3

Battlefield 3

Battlefield 3 repose sur le Frosbite 2, probablement le moteur graphique le plus avancé à ce jour. De type rendu différé, il supporte la tessellation et calcule l'éclairage via un compute shader.

Nous testons le mode Ultra avec et sans MSAA 4x et relevons les performances avec Fraps, sur un parcours bien défini. Le jeu est maintenu à jour via Origin.


C'est avec antialiasing, probablement grâce à sa bande passante mémoire supérieure que la GeForce GTX Titan prend le plus d'avance par rapport à la GTX 680.


Page 18 - Benchmark : Civilization V

Civilization V

Plutôt réussi visuellement, Civilization V exploite DirectX 11 d'une part pour améliorer la qualité et optimiser les performances du rendu des terrains grâce à la tessellation et d'autre part implémente une compression spéciale des textures grâce aux compute shader, compression qui permet de garder en mémoire les scènes de tous les leaders. Cette seconde utilisation de DirectX 11 ne nous concerne cependant pas ici puisque nous utilisons le benchmark intégré sur une carte de jeu. Nous zoomons légèrement de manière à réduire la limitation CPU qui est très forte dans ce jeu.

Tous les détails sont poussés à leur maximum et nous mesurons les performances avec ombres et réflexions. Le jeu est maintenu à jour via Steam.


En 1920x1080 AA8x et en 2560 AA4x, la GeForce GTX Titan prend une avance de 50% par rapport à la Radeon HD 7970 GHz, profitant peut-être de sa puissance géométrique plus élevée. La Radeon HD 7970 GHz Edition revient cependant quelque peu en 2560x1600 AA 8x, quand ce point n'est plus un facteur limitant.


Page 19 - Benchmark : Crysis 2

Crysis 2

Crysis 2 reprend une évolution du moteur de Crysis Warhead optimisée pour être relativement moins gourmande mais y ajoute, via un patch, un support de DirectX 11 dont le coût peut être assez important. C'est par exemple le cas de la tessellation, que nous évitons d'activer compte tenu du fait qu'elle a malheureusement été implémentée en collaboration avec Nvidia d'une manière abusive, dans le but de créer un écart artificiel entre GeForce et Radeon. Nous avions dévoilé cette entourloupe ici.

Nous mesurons les performances avec Fraps sur la version 1.9 du jeu.


CrossFire X affiche un rendement plus élevé que le SLI dans Crysis 2. En mono-GPU la GeForce GTX Titan n'a aucun mal à prendre la tête avec 20 à 25% de mieux que la Radeon, ce qui est dans la moyenne.


Page 20 - Benchmark : DiRT Showdown

DiRT Showdown

Dernier né chez Codemaster, DiRT Showdown reprend une évolution légère du moteur DirectX 11 maison. En partenariat avec AMD, les développeurs ont mis en place un éclairage avancé qui prend en compte de nombreuses sources de lumière directes et indirectes ainsi qu'une approximation de rendu de type illumination globale. Ces options supplémentaires ont été activées avec le premier patch du jeu qui a donc été déployé sur notre système, le jeu étant maintenu à jour via Steam.

Pour mesurer les performances, nous poussons toutes les options graphiques à leur maximum , à l'exception de l'éclairage avancé qui est désactivé pour certains tests. Nous utilisons Fraps sur l'outil de test intégré.


Lorsque toutes les options sont poussées à leur maximum, la GeForce GTX Titan devance la GeForce GTX 680 d'un peu plus de 50%. En 2560x1600, la Radeon HD 7970 GHz Edition parvient cependant à conserver une courte tête d'avance.


Page 21 - Benchmark : Far Cry 3

Far Cry 3

Far Cry 3 est relativement lourd, notamment à travers les effets d'occultation ambiante, de filtrage des surfaces alpha et bien entendu à travers du MSAA 4x.

Pour mesurer les performances, nous poussons les options graphiques au niveau ultra, activons l'HDAO (le SSAO est immonde et le HBAO bugué par endroit) et utilisons Fraps sur un parcours bien défini.


La GTX Titan devance ici la GTX 680 de 40 à 45% et la Radeon HD 7970 GHz Edition de 20 à 25%, nous sommes donc dans la moyenne.

D'énormes saccades rendent le jeu très inconfortable en CrossFire X dans les 3 résolutions testées ainsi qu'en 2560x1600 AA4x avec la GeForce GTX 690.


Page 22 - Benchmark : Hitman Absolution

Hitman Absolution

Hitman Absolution utilise un moteur plutôt lourd et qui manque probablement d'optimisations. Le charge CPU est par ailleurs relativement élevée dans certaines scènes dans laquelle une foule importante est animée.

Pour mesurer les performances, nous poussons les options graphiques au niveau maximum et utilisons l'outil de test intégré au jeu.


Les GeForce atteignent la limite CPU plus rapidement que les Radeon qui profitent qui plus est d'un coup moindre lorsque l'antialiasing 4x est activé.


Page 23 - Benchmark : Max Payne 3

Max Payne 3

Max Payne 3 présente un rendu globalement réussi, bien qu'inégal par endroit, notamment à cause de textures de "qualité console". Il repose sur un moteur DirectX 11 au rendu différé qui supporte plusieurs effets avancés tels que le HDAO ou la tessellation, qui est plutôt lourde une fois poussée au maximum.

Il supporte le FXAA mais également le MSAA, très lourd compte tenu du type de rendu. Ce dernier reste nécessaire pour venir à bout de l'aliasing, le FXAA n'étant pas suffisant.

Nous avons poussé toutes les options à leur maximum et utilisé Fraps sur un parcours bien défini. Le jeu est maintenu à jour via Steam.


Autant chez AMD que chez Nvidia, activer le MSAA 4x revient à diviser les performances par un peu plus de 2. La GTX Titan affiche une avance classique de 40 à 45% sur la GTX 680.


Page 24 - Benchmark : Sleeping Dogs

Sleeping Dogs

Sleeping Dogs nous propose un environnement hongkongais qui peut s'avérer être très gourmand pour nos cartes graphiques dès que les options de son moteur DirectX 11 sont poussées à leur maximum.

Nous utilisons le benchmark intégré au jeu, ce dernier étant maintenu à jour via Steam et donc en version 1.5 pour ce test. Le pack de texture HD a bien entendu été installé. Les niveaux de qualité élevé et extrême sont utilisés, et se démarquent notamment par le niveau de SSAA (supersampling antialiasing) exploité conjointement avec le FXAA : respectivement 2x et 4x. L'aliasing géométrique est très important dans ce jeu, ce qui rend l'utilisation d'un antialiasing avancé particulièrement nécessaire.


CrossFire X est particulièrement efficace dans e jeu avec un scaling presque parfait. Si la GeForce GTX Titan devant la GeForce GTX 680 de 50%, son avance sur la Radeon HD 7970 GHz Edition est cette fois inférieure à 10%.


Page 25 - Benchmark : The Witcher 2 Enhanced Edition

The Witcher 2 Enhanced Edition

The Witcher 2 est un jeu dont le moteur graphique a été peaufiné progressivement, pour en arriver à la récente Enhanced Edition. Bien que basé sur DirectX 9, il est relativement gourmand une fois toutes ses options graphiques poussées au maximum, l'une d'elles étant particulièrement gourmande : l'UberSampling. Il s'agit en réalité d'un antialiasing de type supersampling 4x avec quelques optimisations.

Nous avons testé le jeu en qualité élevée et ultra, cette dernière activant l'Ubersampling. Les performances sont mesurées avec Fraps.


Les Radeon HD 7000 sont plutôt efficaces en mode de qualité Ultra, surtout en 2560x1600. La fluidité du rendu est cependant moins bien assurée que sur les GeForce, dans les 3 résolutions. Le jeu n'est pas jouable confortablement sur une Radeon HD 7970 GHz Edition, même en 2560x1600 High. Du côté des GeForce, en dehors du 2560x1600 Ultra, il n'y a pas de problème de fluidité à signaler sur notre scène de test.


Page 26 - Benchmark : Total War Shogun 2

Total War Shogun 2

Total War Shogun 2 a reçu un patch DirectX 11, développé en collaboration avec AMD. Il apporte entre autre un support de la tessellation et un effet de profondeur de champ de meilleure qualité.

Nous l'avons testé en mode DirectX 11, avec une qualité maximale, du MSAA 4x et du MLAA. Le jeu est maintenu à jour via Steam.


Une fois n'est pas coutume, c'est Nvidia qui domine quand le MSAA 4x est activé. Déjà devancé par la GeForce GTX 680 avec MSAA 4x, la Radeon HD 7970 GHz Edition est ici larguée par la GeForce GTX Titan.


Page 27 - Récapitulatif des performances

Récapitulatif
Bien que les résultats de chaque jeu aient tous un intérêt, nous avons calculé un indice de performances en nous basant sur l'ensemble de résultats et en attachant une importance particulière à donner le même poids à chacun des jeux. Nous avons attribué un indice de 100 à la Radeon HD 7970 GHz Edition :


  [ 1920x1080 Ultra ]
  [ 2560x1600 Very High ]
  [ 2560x1600 Ultra ]

Quand la GeForce GTX Titan est très bien refroidie (ligne "1006 MHz Sample"), bien plus que la normale, elle affiche une avance de 40% à près de 50% par rapport à la GeForce GTX 680, les gains les plus élevés se situant en résolutions extrêmes. Si la GeForce GTX Titan y souffre moins que la GeForce GTX 680, elle y perd malgré tout encore un peu plus de terrain que la Radeon HD 7970 GHz.

Par rapport à celle-ci, l'avance se limite ainsi à 18% en moyenne en 2560x1600 avec une qualité extrême alors que quand les conditions sont moins dures, elle grappille 5% de plus pour atteindre 23% de mieux.

Il faut cependant garder en tête que ces résultats représentent en quelque sorte le meilleur de ce qu'il est possible d'obtenir de la part d'une GTX Titan et que cela demande un effort particulier sur le plan du refroidissement du système. Avec un refroidissement, toujours bon mais plus classique et une carte moins coopérative au niveau de la fréquence turbo maximale, les performances chutent dans notre exemple (ligne GeForce GTX Titan) de 6%.

Grossièrement, si vous disposez d'un boitier bien refroidi, le résultat se situera probablement entre les 2 exemples testés. Sans refroidissement efficace, les performances seront par contre au niveau de l'exemple le moins performant, alors qu'un watercooling devrait permettre à la GeForce GTX Titan de rester presqu'en permanence à sa fréquence maximale.

La GeForce GTX 690 reste 20% plus performante que la GeForce GTX Titan.


Page 28 - Conclusion

Conclusion
L'arrivée d'une nouvelle carte graphique haut de gamme déchaine généralement les passions et la GeForce GTX Titan ne fera pas exception à la règle. Il faut bien avouer que conclure sur une carte graphique telle que celle-ci est pour le moins difficile… à moins que ce ne soit très simple : en dehors du cas spécifique des développeurs CUDA qui recherchent de la puissance de calcul en double précision à "bas prix", soyons clairs, il n'y a pas d'argument raisonnable pour vous conseiller une carte graphique à 1000€, aussi réussie soit-elle.

A l'inverse, les arguments raisonnables pour ne pas craquer pour une GeForce GTX Titan sont légion : il n'y a pas besoin d'autant de puissance pour la plupart des usages, les 6 Go de mémoire gonflent inutilement la facture, un GPU castré à 1000€ ?, la Radeon HD 7970 GHz Edition offre un rapport performances/prix nettement supérieur,… la liste est longue.


Mais au fond peu importe, si vous êtes intéressés par une telle carte graphique vous n'aurez probablement que faire d'arguments raisonnables. La GeForce GTX Titan a été pensée comme un produit d'exception qui vise les passionnés (fortunés). Elle est la plus rapide des cartes mono-GPU, extrêmement bien finie, très discrète, même en charge, propose une large gamme de possibilités d'overclocking et de tweaking…. Nvidia a bien compris comment s'attaquer à la niche de l'ultra haut de gamme et il est évident que la GTX Titan va trouver son public lorsqu'elle sera disponible dans une semaine, d'autant plus qu'elle ne devrait pas être détrônée avant la fin de l'année.

Après l'aspect produit, sur le plan technique, quelques observations sont intéressantes. Tout d'abord, Nvidia est parvenu à maîtriser la bête : contrairement aux craintes que certains pouvaient avoir, la consommation du GK110 ne s'envole pas. En pratique elle est même très proche de celle de la GeForce GTX 680 pour des performances nettement supérieures.

Nous sommes par contre perplexes par rapport au choix qui a été fait par Nvidia au niveau de l'ensemble TDP/température limite/ventirad. De toute évidence de base il ne permet pas de profiter de toute la puissance du GK110 qui voit sa fréquence maximale abaissée, même si encore une fois les performances sont très bonnes. Cela induit de plus une très grande variabilité des performances selon les conditions de tests, avec les dérives que cela peut engendrer.

Pour profiter pleinement de la GTX Titan, il faudra soit jouer avec la limite de température, soit améliorer le refroidissement de la carte, en direct via un watercooling ou en indirect via la ventilation du boitier. En bref pour bien profiter d'une GTX Titan il faudra mettre les doigts dans le cambouis, mais attention à l'impact de vos modifications sur la garantie !


Copyright © 1997-2024 HardWare.fr. Tous droits réservés.