Actualités informatiques du 28-05-2003

Flux XML des news Flux XML avec la liste des 20 dernières actualités.

La P4P800 et le PAT

Publié le 28/05/2003 à 20:09 par
Imprimer

ASUSTeK vient officiellement d'annoncer  que les excellentes performances de sa carte mère i865PE P4P800 s'expliquaient par le support de la technologie PAT, initialement réservée à l'i875P (cf. test de l'i865PE). L'activation de cette fonction se fait dans la section Bios > Advanced > Chipset, avec l'option Memory Acceleration Mode sur Enabled. Reste à savoir si les autres constructeurs suivront dans les semaines qui viennent avec des bios permettant également d'activer le PAT sur leurs i865PE. C'est Intel qui doit être content ...

L'avis de Carmack

Publié le 28/05/2003 à 18:45 par
Imprimer

q3.gif (13634 octets)J. Carmack, développeur des moteurs 3D chez ID Software et donc de Doom 3 a posté sur Slashdot  son avis en ce qui concerne le remplacement de shaders dans les applications DirectX 9 par les constructeurs de cartes graphiques :

Rewriting shaders behind an application's back in a way that changes the output under non-controlled circumstances is absolutely, positively wrong and indefensible.

Rewriting a shader so that it does exactly the same thing, but in a more efficient way, is generally acceptable compiler optimization, but there is a range of defensibility from completely generic instruction scheduling that helps almost everyone, to exact shader comparisons that only help one specific application. Full shader comparisons are morally grungy, but not deeply evil.


Pour résumer, Carmack indique qu'il est indéfendable de changer les shaders dans le dos d'une application à partir du moment ou cela change le rendu. Par contre, si le shader optimisé offre un rendu identique c'est acceptable à partir du moment où il s'agit d'optimisations générales profitant à toutes les applications et non d'optimisations qui n'aident que dans une application spécifique. Etant donné que pour le moment NVIDIA a implémenté des optimisations changeant la qualité du rendu et que ATI comme NVIDIA ont implémentés des optimisations spécifiques à 3DMark03, nous vous laissons conclure par vous-même ...

The significant issue that clouds current ATI / Nvidia comparisons is fragment shader precision. Nvidia can work at 12 bit integer, 16 bit float, and 32 bit float. ATI works only at 24 bit float. There isn't actually a mode where they can be exactly compared. DX9 and ARB_fragment_program assume 32 bit float operation, and ATI just converts everything to 24 bit. For just about any given set of operations, the Nvidia card operating at 16 bit float will be faster than the ATI, while the Nvidia operating at 32 bit float will be slower. When DOOM runs the NV30 specific fragment shader, it is faster than the ATI, while if they both run the ARB2 shader, the ATI is faster.

Concernant la bataille rangée entre ATI et NVIDIA sur les shaders en floating point, Carmack indique tout simplement que NVIDIA en FP16 est plus rapide que ATI en FP24, lui-même étant plus rapide que NVIDIA en FP32. Malheureusement J.C. ne précise pas de quelle carte il parle chez ATI comme chez NVIDIA, ce qui a son importance puisque en floating point selon NVIDIA il y'a un rapport de 1 pour 4 à fréquence égale entre une 5900 et une 5600, contre un pour deux chez ATI entre une 9800 et une 9600.

When the output goes to a normal 32 bit framebuffer, as all current tests do, it is possible for Nvidia to analyze data flow from textures, constants, and attributes, and change many 32 bit operations to 16 or even 12 bit operations with absolutely no loss of quality or functionality. This is completely acceptable, and will benefit all applications, but will almost certainly induce hard to find bugs in the shader compiler. You can really go overboard with this -- if you wanted every last possible precision savings, you would need to examine texture dimensions and track vertex buffer data ranges for each shader binding. That would be a really poor architectural decision, but benchmark pressure pushes vendors to such lengths if they avoid outright cheating. If really aggressive compiler optimizations are implemented, I hope they include a hint or pragma for "debug mode" that skips all the optimizations.

Carmack conclus en parlant de la possibilité qu'a NVIDIA, du fait de son architecture combinant plusieurs unités FX12/FP16/FP32 contre seulement des unités FP24 chez ATI, d'analyser les flux d'informations et de convertir les opérations FP32 en FP16 voir même en FX12, sans perte visuelle de qualité ou de fonctionnalités. Toutefois J.C. souhaiterais qu'en cas d'optimisations agressives il soit possible de les désactiver. Nous sommes globalement d'accords à partir du moment où c'est désactivable et à partir du moment où la qualité ne s'en ressent pas, ce qui n'est malheureusement pas actuellement le cas chez NVIDIA avec les drivers 44.03 sur les puces CineFX 1.0 (5200, 5600 et 5800). D'un autre côté, si un développeur décide d'utiliser à tel endroit telle précision, c'est peut-être parce qu'elle est nécessaire, non ?

Test : GeForce FX 5600 Ultra

Publié le 28/05/2003 à 15:00 par
Imprimer

Conscient des bonnes performances de son concurrent ATI, NVIDIA revient à la charge avec une nouvelle version de son GeForce FX 5600 Ultra dotées de fréquences boostées. Cela suffira-t-il ?

> Test : NVIDIA GeForce FX 5600 Ultra

Dossier : NVIDIA GeForce FX 5600 Ultra

Publié le 28/05/2003 à 14:55 par
Imprimer

Conscient des bonnes performances de son concurrent ATI, NVIDIA revient à la charge avec une nouvelle version de son GeForce FX 5600 Ultra dotées de fréquences boostées. Cela suffira-t-il ?

[+] Lire la suite

Le Computex en Septembre

Publié le 28/05/2003 à 11:28 par
Imprimer

Comme vous le savez déjà, le Computex, plus grand salon asiatique dédié à l'informatique, avait été reporté à une date non communiqué en raison du Syndrome respiratoire aigu sévère (SRAS). Initialement prévu pour début Juin, ce salon se déroulera finalement du 22 au 26 Septembre prochain.

Top articles