ATI Radeon X1800 XT & XL

Publié le 05/10/2005 par et
Imprimer
Performances en HDR
Le rendu HDR tel qu’utilisé dans Far Cry ou dans Splinter Cell (avec les cartes Nvidia uniquement) et qui devrait se généraliser, fait appel à un rendu en 64 bits, 4 composantes FP16 pour être précis. La scène est rendue dans un buffer (RT, Render Target) 64 bits, tout comme d’autres parties du rendu et il faut ensuite récupérer ces parties (qui sont alors vues comme des textures) pour "assembler" le tout. Pour que tout ceci fonctionne d’une manière simple, le GPU doit supporter le filtrage et le blending FP16. C’est le cas des GeForce Serie 6 et 7 et des Radeon X1000, mais pas des Radeon X800. Accéder à des textures FP16 peut être coûteux mais il est important de préciser que le filtrage, lui, ne l’est pas, ou presque. Il nécessite des transistors pour être implémenté dans le GPU, mais ne réduit pas les performances quand il est utilisé. Le blending FP16 consomme, lui, beaucoup de bande passante mémoire, 2x plus qu’en rendu normal.

Pas de filtrage FP16 chez ATI. Contrairement à Nvidia, ATI fait l´impasse sur ce filtrage. Les développeurs devront donc intégrer l´algorithme de filtrage dans un pixel shader, ce qui aura un coût sur les performances, bien que réduit par rapport au coût global du HDR. ATI s´explique par le fait qu´en FP16, les développeurs, en général, ne veulent pas de box filter (filtrage bilinéaire par exemple) mais un filtrage différent, mieux adapté (l´Unreal Engine 3 utilise un filtrage spécifique sur toutes les cartes par exemple) mais que si il y avait une demande ils peuvent très bien reporter dans les caps un support du filtrage FP16 et ajouter automatiquement le filtrage dans le shader de manière à ce que ce soit transparent pour les développeurs. Mais pour le moment, il n´y a pas eu de réelle demande à ce niveau.

Le HDR implique l´utilisation du tone mapping qui consiste à transformer l´image HDR en une image affichable en 32 bits. L´algorithme de tone mapping définit comment doivent être interprétées les données HDR et donc définit le rendu final. Celui-ci est effectué dans une passe supplémentaire après le rendu de la scène. Avec les Radeon X1000, la technologie Avivo est capable de faire automatiquement du tone mapping mais malheureusement il n´est pas possible d´accéder à l´API Avivo à travers DirectX. ATI contournera ce problème via un format de texture FourCC qui sera exposé dans DirectX et une fois utilisé, le driver d´ATI appliquera automatiquement le tone mapping via l´unité d´Avivo. Nvidia avait également envisagé une unité dédiée au tone mapping dans le 6800, mais celle-ci ne fonctionnait pas bien et a été désactivée pour disparaître complètement dans le 7800.

Nous avons mesuré les performances avec une texture et une surface de rendu en 32 bits et en 64 bits (FP16) ou sans blending :


En 32 bits, Nvidia est plus efficace et atteint plus facilement des performances maximum. Les Radeon affichent cependant des performances étrangement faibles.

En 64 bits, la 6800 Ultra est nettement en retrait, principalement à cause de ses faibles performances lors d´un accès aux textures 64 bits, ce qui a été amélioré sur les 7800 qui affiche des performances très proches de celles des Radeon X850 XT PE et X1800 XL. Le Radeon X1800 XT est lui nettement plus performant, il remerciera sa mémoire cadencée à 750 MHz qui est le facteur principal qui détermine ses performances dans ce test.

Et dans les jeux ? Il nous est difficile de dire comment se comportera la X1800 XT en pratique étant donné que dans nos tests jeux, aucun n´a fonctionné en HDR FP16. Far Cry, dans sa version actuelle, ne semble vouloir activer le HDR que s´il détecte une carte Nvidia et Splinter Cell utilise un HDR plus simple, similaire à celui utilisé avec les X850. Dans la démo de Serious Sam 2, l´activation du HDR entraine des bugs graphiques. Les détails d´implémentation ne sont pas identiques chez ATI et chez Nvidia, il faudra donc que chaque jeu prévoie le HDR pour ATI et pour Nvidia même si les différences sont mineures.


Accès aux textures
Comment se comportent les différentes cartes avec des textures de format et de tailles différentes ? (simple accès aux textures, sans filtrage)


Avec des textures 32 bits classiques, les 2 GeForce affichent des performances très proches et la Radeon X850 XT PE est en retrait et ne supporte pas les textures de 4096x4096. La X1800 XT affiche des performances supérieures et est notamment 50% plus performantes que les autres cartes avec des textures de 2x2, ce qui n´est pas vraiment utilisé mais démontre que l´architecture a gagné en efficacité. Avec des textures de 4096x4096, elle est 70% plus performante que les cartes Nvidia. Sa mémoire cadencée à 750 MHz est une fois encore d´une aide précieuse.


Avec les textures 64 bits (FP16), la 6800 Ultra souffre d´un problème de performances qui a été corrigé avec la 7800 GTX qui affiche donc des performances nettement supérieures. Mais ce n´est pas suffisant pour affronter la X1800 XT qui grâce à son architecture mémoire, ses caches optimisés et sa bande passante plus élevée est nettement devant dès que la taille des textures augmente. Elle est ainsi 3x plus performante avec des textures de 2048x2048 et la Radeon X850 XT PE est 2x plus performante. La 6800 Ultra est complètement larguée et est 8x moins performante que la nouvelle carte d´ATI qui, qui plus est, est la seule à supporter les textures de 4096x4096 en FP16.


Avec les textures 128 bits (FP32), la situation est similaire. Bien que l´écart ente les cartes soit plus réduit avec les textures de petite taille, il s´accentue avec la grande taille. La X1800 XT est ainsi presque 5x plus performante que la 7800 GTX et 20x plus performante que la 6800 Ultra. Le sous-système mémoire d´ATI semble donc nettement plus efficace.
Vos réactions

Top articles