Actualités informatiques du 21-11-2002

Flux XML des news Flux XML avec la liste des 20 dernières actualités.

Xeon FSB533 chez Intel

Publié le 21/11/2002 à 11:13 par
Imprimer

Intel a annoncé lundi dernier ses nouveaux Xeon DP (bi-processeus) utilisant un FSB de 133 MHz Quad Pumped ("FSB533"). Ces processeurs sont disponibles en version 2.8, 2.6, 2.4 et 2 GHz aux prix respectifs de 455, 337, 234 et 198$. Intel a également lancé deux nouveaux chipsets gérant ces processeurs, l'E7505  qui est destinés aux stations de travail et l'E7501  qui occupe pour sa part le marché des serveurs.

Celeron 2.1 & 2.2 GHz

Publié le 21/11/2002 à 10:53 par
Imprimer

Intel vient de lancer deux nouveaux Celeron cadencés respectivement à 2.1 et 2.2 GHz. Comme leur prédécesseur à 2 GHz, ils sont basés sur le core Northwood 0.13µ à ceci près qu'ils ne disposent que de 128 Ko de cache L2. Le 2.1 GHz est annoncé à 89$, contre 103$ pour le 2.2 GHz. A titre de comparaison, AMD vends son Athlon XP 2100+ 93$.

Drivers nForce 2.00

Publié le 21/11/2002 à 10:28 par
Imprimer

NVIDIA vient de mettre en ligne la version 2.0 de ses drivers nForce. Au menu des nouveautés, le support des nForce 1 & 2, corrections de bugs, améliorations de performances (lesquelles ?), intégration de drivers ASIO & OpenAL et update du panneau de contrôle audio. Les versions Windows 98SE/Me , Windows 2000  et Windows XP  sont disponibles.

GeForce FX en France

Publié le 21/11/2002 à 09:45 par
Imprimer

C'est hier qu'a eu lieu la présentation officielle du GeForce FX en France. Autant vous le dire tout de suite, pas grand-chose de nouveau par rapport à la preview publiée lundi, sinon quelques précisions au niveau du moteur vidéo qui prendra (enfin) en charge la décompression MPEG-2 de manière 100% matérielle, comme c'est déjà le cas sur le GeForce4 MX. En dehors de cela, NVIDIA a apporté quelques précisions sur la fréquence du GPU puisqu'il semble désormais certain qu'elle atteindra l'objectif fixé à 500 MHz. Côté mémoire, comme nous vous l'avions auparavant indiqué il s'agira de mémoire DDR-II à 500 MHz, qui offre un débit par pin de 1000 Mbits /s (de base, et pour éviter les confusions, un data rate ne s'exprime pas en Hertz, monsieur NVIDIA). En terme de performances réelles, les chiffres communiqués sont les mêmes que ceux du Comdex que nous avions commentés ici. Le GeForce FX semble donc être 2 à 3x plus rapide qu'un GeForce4 Ti 4600, et 30 à 40% au dessus d'un Radeon 9700 Pro.

Bonne nouvelle, NVIDIA a annoncé que la déclinaison du NV30 vers le milieu (voir l'entrée) de gamme devrait se faire beaucoup plus rapidement qu'auparavant puisqu'elle aura lieu courant 2003. Il s'agira d'une déclinaison véritable, et l'épisode GeForce4 MX ne devrait donc pas se reproduire.


Nous avons pu observé d'un peu plus près le refroidissement de la carte de référence, qui est en quelque sorte une évolution de l'O.T.E.S. d'ABIT. Il fonctionne en circuit fermé par rapport au PC, c'est-à-dire que l'air extérieur est inspiré par le ventilateur via la coque en plastique faisant office de conduit d'air. Cet air refroidit ensuite les divers heatpipe et éléments en cuivre pour enfin être expulsé. On notera toutefois que l'entrée et la sortie d'air sont assez proches, ce qui pourrait crée des turbulences. Côté sonore, en utilisation 3D semble assez bruyant.

Toutefois, il faut préciser que NVIDIA a intégré au sein du GeForce FX une technologie appelée FX Flow. Dérivée des portables, cette technologie permet au GeForce FX d'abaisser sa consommation et donc ses besoins en refroidissement lorsque l'on utilise par particulièrement sa puissance. Du coup, sous Windows en 2D se système pourrait rendre le GeForce FX silencieux (nous n'avons pas pu vérifier la chose en pratique pour le moment). Il est à noter qu'en terme d'encombrement, comme vous pouvez le voir sur notre photo, le refroidissement de référence de NVIDIA empêche l'utilisation du premier voir du second slot PCI !


Comme chaque année, NVIDIA nous en a mis plein les yeux en terme de démos, avec notamment Dawn et Ogre, deux personnages diamétralement opposés de part leur design (une fée et ... un ogre) mais similaires de part leur niveau de détail et surtout leur qualité d'animation. Les démos sont bluffantes, et on pourrait d'ailleurs dire que le niveau de détails est proche d'un rendu cinématographique ... mais la véritable question est, quand est ce que nous verrons cela dans nos jeux ? Difficile à dire, d'autant qu'il faudrait voir le comportement d'un GeForce FX avec toute une scène utilisant une telle qualité - et non pas un seul personnage dans un environnement pas ou peu détaillé (rien pour l'ogre, une simple texture pour la fée).


Certes, NVIDIA fait beaucoup de travail au niveau des développeurs pour accélérer les choses, notamment au travers du Cg, mais il faut bien dire que nous attendons encore dans les jeux d'aujourd'hui des modèles aussi détaillés que la porsche boxter où le camion de pompier à 100 000 polygones pièce qui nous étaient présentés avec le GeForce256 ... il y'a 3 ans ! Or, ce n'est clairement pas un GeForce256 qui sera capable de faire tourner les jeux qui utiliseront un tel niveau de détail ... est ce qu'il en sera de même pour le GeForce FX lorsque les jeux utiliseront un niveau de détail similaire à Dawn ou Ogre ? Qui vivra verra ... mais une chose est sûre, de tout les GPU qui seront disponible au premier trimestre 2003, ce sera le plus adapté pour ce genre de rendu.

FSB400 chez AMD !

Publié le 21/11/2002 à 00:00 par
Imprimer

Alors que la dernière roadmap d'Intel annonce un passage à un FSB800 (200 MHz QDR) lors du second trimestre 2002 via les chipsets Canterwood et Springdale PE/G, AnandTech  nous apprends que de son côté le Barton d'AMD devrait disposer d'un FSB400 (200 MHz DDR) ! Associé à un cache L2 de 512 Ko, ce FSB 400 devrait permettre au Barton d'apporter un gain de performances non négligeable par rapport à un Athlon XP actuel. A priori, le nForce2 de NVIDIA supporte d'ores et déjà un tel bus, et chez VIA ce devrait être le cas du KT400A, chipset qui supportera également la DDR sur deux canaux comme son homologue NVIDIA.

Top articles