NVIDIA GeForce2 GTS

Publié le 26/04/2000 par
Imprimer

nv15_logo.gif (6396 octets)Depuis l´arrivée du TNT 1er du nom, NVIDIA s´est clairement imposé comme un acteur majeur du marché des chips graphiques orientés power user. Mais depuis cette date, NVIDIA n´a pas cessé de faire évoluer ses produits, au rythme infernal d´un nouveau produit tout les 6 mois. Ainsi, la rentrée 1998 a vu la sortie du TNT, suivit par le TNT 2 au printemps 1999, puis par le GeForce 256 à la rentrée 1999. Suivant toujours un cycle de 6 mois, NVIDIA nous propose aujourd´hui une évolution du GeForce, le GeForce 2 GTS (Giga Texel Shader).

Une gravure en 0.18 Microns

nv15_chipduo.jpg (13535 octets)Comme l´indique son nom, le GeForce 2 n´est pas une révolution en soit mais plutôt une évolution de notre bon vieux GeForce. Première chose, alors que le GeForce est gravé en 0.22 Microns, le GeForce 2 est gravé en 0.18 Microns. Les avantages sont multiples : En effet, tout en conservant un chip d´une taille raisonnable, NVIDIA à put ainsi intégrer plus de fonctions dans le GeForce 2, tout en le cadençant à une vitesse plus élevée et ce sans pour autant qu´il ne chauffe ni ne consomme trop. Ainsi, le GeForce 2 est cadencé à pas moins de 200 Mhz, contre 120 Mhz pour le GeForce 1er du nom.

Un T&L boosté

Tout d´abord, il convient de rappeler ce qu´est le Transformation & Lighting, ou tout du moins son implémentation en hardware dans un chip graphique.

Dans le processus de création d´une scène 3D, il y´a une phase appelée la Transformation géométrique. Lors de cette phase, on applique des matrices de transformation au différents objets de la scène 3D afin de créer un mouvement. Cela va de l´agrandissement / réduction d´un objet (Scalling) à son déplacement (Translation) en passant par sa rotation (Rotation). Dans les PC traditionnels, cette phase était jusqu´alors prise en charge par notre bon vieux processeur central. Mais avec le GeForce, et donc le GeForce 2, c´est différent. En effet c´est ce dernier qui prend en charge cette étape, à condition que l´application soit programmée pour (via DirectX 7 ou OpenGL). Résultat direct ? Le CPU se retrouve allégé de 20 à 30%, ce qui permet aux développeurs d´augmenter l´IA, le nombre de polygones … ou tout simplement de ne pas y toucher et d´avoir un framerate plus élevé. Et le lighting dans tout cas ? Et bien en sus de la Transformation, les GeForce 1 & 2 supportent également la gestion des éclairages dynamiques en hardware, afin la encore d´économiser du temps processeur.

nv15_carte.jpg (16234 octets)Tout comme un processeur central, le T&L du GeForce 2 profite directement de l´augmentation de la fréquence. Ainsi, NVIDIA annonce une puissance brute de 25 Millions de triangles secondes, alors que le GeForce 1 se "contentait" de 15 Millions de triangles secondes. Bien sur rien ne vaut un petit benchmark pour vérifier les dires de NVIDIA, voici donc un test effectué sous le test Treemark en 640*480 16 bits (PIIIE 600, Carte Mère BX, 256 Mo de RAM, GeForce DDR / GeForce 2 DDR 32 Mo, Drivers 5.16) :

 

treemark_tl.gif (7504 octets)

Comme vous pouvez le constater, l´augmentation des performances est plus que significative, puisque le gain de performances varie entre 37% (1 lumière) et 76% (8 lumières). Toutefois, étant donné qu´aucun jeu n´utilise vraiment le T&L du GeForce à son maximum, ce gain de performances paraît superflu pour le moment, sauf pour les applications OpenGL Pro.

Vos réactions

Top articles