Nvidia G-SYNC en test : les jeux fluides dès 40 fps ?

Tags : G-SYNC; GeForce; Nvidia;
Publié le 30/12/2013 par
Imprimer
Conclusion
Améliorer le confort de jeu sur PC passe généralement par une augmentation significative des performances, ce qui se traduit du côté du joueur par l'achat d'une nouvelle carte graphique. Du côté d'AMD et de Nvidia, cela implique le développement d'un nouveau GPU, dans certains cas l'utilisation d'un nouveau procédé de fabrication ou d'une nouvelle architecture. Un travail titanesque : des centaines de millions de $ sont investis et des centaines d'ingénieurs sont aux fourneaux pendant quelques années pour y parvenir. Sans abandonner cette voie, rassurez-vous, Nvidia nous démontre toutefois avec G-SYNC que d'autres approches permettent également de faire progresser la plateforme PC, dans ce cas "simplement" en affichant les images générées par le GPU d'une manière plus intelligente.

G-SYNC, ou la fréquence de rafraîchissement variable, est un mode d'affichage dont nous ne pouvons que nous demander pourquoi il n'a pas été mis en place plus tôt. Il part en effet d'un postulat évident : si le confort de jeu est impacté par le fait que le GPU doive essayer de se plier en deux pour se synchroniser par rapport à l'écran, pourquoi ne pas faire en sorte que ce soit l'écran qui se synchronise par rapport au GPU ? Cela semble évident et c'est exactement ce que fait G-SYNC. Et ça marche.


A un niveau de performances dont se contentent bon nombre de joueurs, 35 à 60 fps, G-SYNC fait des merveilles, la fluidité devient très bonne, voire excellente, alors que les coupures disgracieuses dans les images s'évanouissent. Dans certains cas, c'est le jour et la nuit entre les modes V-SYNC ON ou OFF traditionnels et G-SYNC. Vous l'aurez compris, notre impression positive initiale se trouve confirmée à l'issue de ce test.

Observer toutes les possibilités et pas seulement la comparaison la plus avantageuse pour G-SYNC était important. Nous avons par exemple pu constater que passer d'un écran 60 Hz à 144 Hz en V-SYNC ON améliore significativement le ressenti, même à ce niveau de performances de 35-60 fps. Un taux de rafraîchissement plus élevé participe à déminer le terrain pour le GPU qui se retrouve moins en décalage par rapport à l'écran. Ainsi, dans certains jeux, passer de V-SYNC ON 144 Hz à G-SYNC n'entraîne plus qu'un gain réduit. Certes l'amélioration est toujours bel et bien là, mais les défauts à corriger sont à la base moins importants.

Pour la première implémentation de G-SYNC, Nvidia est parti sur la modification d'un des meilleurs écrans destinés aux joueurs du moment : l'Asus VG248QE, 1080p 144 Hz. Un choix qui peut par contre être discutable d'autant plus qu'il s'agit d'un écran dont le tarif d'origine a du mal à encaisser le surcoût de G-SYNC, très élevé dans son implémentation actuelle à base de FPGA. De 300€ l'Asus VG248QE G-SYNC Edition passe à 525€. Certes, bien que distribué dans le commerce, il s'agit plus d'un prototype que d'un modèle de série aux coûts de fabrication optimisés.

Nvidia estime ainsi que les coûts vont baisser lorsque les premiers moniteurs G-SYNC sortiront des usines. Une affirmation que nous devons cependant tempérer par le fait que l'implémentation actuelle de G-SYNC repose sur un module équipé d'un composant relativement cher. A moins d'un changement radical, ce qui ne devrait pas arriver directement, le support de G-SYNC ne pourra pas être indolore pour le portefeuille. Nous comptons plus sur un supplément de 150€ que de 50€.

La question légitime à se poser face au surcoût actuel et au surcoût supposé des premiers écrans de série est la suivante : faut-il investir dans un écran G-SYNC ou dans une carte graphique plus performante ? Notre ressenti nous indique que cela peut revenir au même en terme de confort. Une carte graphique plus performante capable de maintenir 60 fps en V-SYNC ON, ce qui n'est pas bien compliqué à trouver pour alimenter un écran 1080p, fera aussi bien qu'une plus petite carte graphique avec un écran G-SYNC. D'un côté la carte graphique plus performante aura une durée de vie plus longue, avec un niveau de confort en baisse progressive, d'un autre côté l'écran G-SYNC pourra permettre de maintenir ce confort de jeux sur plusieurs générations à travers des mises à jour moins onéreuses de la carte graphique, à condition bien sûr d'accepter d'être limité à l'offre Nvidia.

Pour répondre à cette question, il faudra attendre l'arrivée des écrans de série. Dans l'immédiat, l'Asus VG248QE G-SYNC Edition est réservé à quelques passionnés qui veulent profiter de la primeur de ce mode d'affichage optimal. Quoi qu'il en soit, par la suite, G-SYNC intéressera au moins les puristes à la recherche du top du top en termes de fluidité et de réactivité, prêts à accepter un surcoût important pour cela, même pour un écran limité au 1080p.


De notre côté, là où nous attendons G-SYNC, c'est dans de futurs écrans haute résolution, en 2560x1440 ou en 4K. De telles résolutions mettent la pression en termes de performances aux GPU actuels, même aux plus véloces d'entre eux. Par ailleurs, la plupart de ces écrans sont limités à une fréquence de rafraîchissement maximale de 60 Hz, avec laquelle les problèmes liés à la synchronisation verticale ressortent le plus. Plus qu'un raffinement, G-SYNC est de toute évidence une nécessité pour ces écrans. Il en va de même d'ailleurs pour les systèmes multi-écran, ou surround, qui augmentent significativement la charge graphique et peuvent être difficiles à alimenter avec une fluidité parfaite même sur base d'écrans 1080p.

Reste à voir si pour Nvidia G-SYNC est voué à rester un produit de niche, haut de gamme, ou à se généraliser pour profiter à un maximum de joueurs. Sans vouloir rentrer dans le détail, Nvidia nous a indiqué que toutes les portes étaient actuellement ouvertes pour le futur du support de G-SYNC. Nvidia pourrait ainsi concevoir son propre contrôleur, ou scaler, pour réduire les coûts de fabrication à une fraction de ceux du FPGA, mais cela peut prendre du temps et n'être envisageable que pour des volumes énormes. D'autres options existent, telles que proposer G-SYNC en licence à d'autres concepteurs de contrôleurs, son support n'étant pas extrêmement complexe à intégrer. Le coût du module G-SYNC actuel n'est pas son seul soucis, sa taille et sa consommation le rendent incompatible avec le monde mobile qui pourrait profiter lui aussi de G-SYNC. Pour cela, plus d'intégration est nécessaire, ce que ne peut ignorer Nvidia.

Pour conclure, nous ne pouvons que souhaiter que la fréquence de rafraîchissement variable soit à terme standardisée et généralisée. Après avoir passé quelques semaines avec un écran G-SYNC, il est difficile de ne pas se demander pourquoi un tel mode n'a jamais été intégré dans un standard tel que le DisplayPort. Quant à la concurrence, d'une manière ou d'une autre, AMD devra réagir pour éviter que le confort de jeu sur Radeon ne soit limité à la seconde classe. En fin stratège, Nvidia aime placer AMD dans la position de celui qui court derrière le train en marche, ce qui lui permet d'orienter les débats et de choisir les champs de bataille. Espérons pour AMD que ses équipes chargées du développement graphique auront anticipé la possibilité très probable que le combat autour de la fluidité ne s'arrête pas à la régularité de la cadence d'affichage dans le cadre du multi-GPU... Si ce n'est pas le cas, piqué au vif par l'initiative de l'API graphique Mantle, Nvidia ne fera certainement pas cadeau de la fréquence de rafraîchissement variable à AMD…

Mise à jour du 07/01/2014 : Nvidia n'aura finalement pas à faire cadeau de G-SYNC puisque AMD a profité du CES pour annoncer qu'un standard VESA permettant de faire la même chose était finalisé ! Cette implémentation se ferait sans carte additionnelle coûteuse contrairement à ce que fait Nvidia, d'où le surnom de "FreeSync" (cf. actualité). Nous devrions en savoir plus dans les prochaines semaines, voilà en tout cas une très bonne nouvelle qui devrait aider au développement de la FRV.
Vos réactions

Top articles