Comparatif : 17 cartes graphiques d'entrée et milieu de gamme Cartes Graphiques Publié le Jeudi 14 Juillet 2005 par Damien Triolet URL: /articles/579-1/comparatif-17-cartes-graphiques-entree-milieu-gamme.html Page 1 - Introduction, TurboCache & HyperMemory ![]() Bien entendu on n’a rien sans rien et ces cartes sont moins performantes, mais dans quelle mesure ? Permettent-elles de jouer ? Apportent-elles un plus significatif par rapport aux solutions intégrées d’Intel qui dominent le marché ? Réduire les coûts ![]() Utiliser la mémoire centrale comme mémoire vidéo c’est nouveau ? Les GPU intégrés le font et l’AGP Texturing le permet aussi. Rien de neuf alors ? Oui et non. La différence est que le PCI Express permet à ce principe d’être plus efficace grâce à une bande passante supérieure voire sans commune mesure lorsqu’il s’agit d’envoi de données du GPU vers le mémoire centrale, ce qui permet d’utiliser la mémoire centrale comme zone de rendu et pas uniquement comme espace de lecture de textures. Qui plus est, le GPU peut accéder aux 2 zones mémoires en parallèle. Tout ceci découle principalement du PCI Express et de drivers remaniés pour gérer efficacement les 2 espaces mémoire bien que Nvidia parle de modifications en profondeur de son GPU pour pouvoir donner vie à la technologie TurboCache. Bien entendu il y a probablement eu quelques modifications… mais mineures. TurboCache c’est PCI Express + driver optimisé à 99%. ![]() ATI suit ![]() Etant donné que la technologie est liée aux drivers et au PCI Express, pourquoi ne pas s’en servir pour améliorer les performances au lieu de réduire les coûts ? C’est la question que s’est visiblement posé ATI puisque l’HyperMemory sera activé sur toutes les cartes graphiques équipées de 128 Mo via de prochains drivers ! Les gains seront variables d’après la carte graphique et les jeux mais même s’ils sont réduits, c’est toujours bon à prendre. Pourquoi ne pas l’activer pour les cartes 256 Mo alors ? Parce que cela aurait probablement l’effet inverse et pourrait réduire les performances pour la simple et bonne raison qu’avec une carte haut de gamme le couple espace mémoire et bande passante mémoire ne serait plus homogène. Il est donc préférable de se contenter de 256 Mo que d’essayer d’adresser 512 Mo avec l’HyperMemory bien que dans certains cas cela pourrait probablement aider un petit peu. Page 2 - Intégré, Evolution Graphic Extreme ![]() Avec plus de 50% des parts de marché, le fabricant de processeurs est le leader incontesté. Et tout ça grâce aux chipsets intégrés qui sont pourtant loin de faire l’unanimité tant leurs performances sont réduites. Le nom des cores graphiques de la génération précédente prêtait d’ailleurs à sourire : Graphic Extreme. Mis à part leur lenteur, leur retard technologique et leur nombre de jeux non supportés, ils n’avaient pas grand-chose d’extrême… Bien entendu tout ceci concerne la 3D et tout le monde n’en a pas besoin. Pourquoi utiliser un GPU complexe dans une machine uniquement destinée à de la bureautique ? Les cores graphiques intégrés remplissent très bien ce rôle. ![]() Mais Intel ne s’attaque pas uniquement au marché des cartes "2D" et vise clairement plus que ça : la machine polyvalente voire même celle du joueur, sinon pourquoi augmenter le coût du chipset en y ajoutant les millions de transistors requis pour le support de la 3D ? Les cores intégrés d’Intel d’aujourd’hui, qui portent le nom de GMA (pour Graphic Media Accelerator), sont dotés d’un support complet de DirectX 9 et donc des Shaders 2.0. Bien entendu, ce support sera utile en bureautique lorsque Longhorn sera disponible puisque la nouvelle interface fera appel à la 3D et aura besoin des shaders 2.0. Mais en attendant, il ne faut pas se faire d’illusions, lorsqu’Intel vend son chipset il indique clairement qu’on peut jouer avec. Est-ce réellement le cas ? Nous allons vérifier ce qu’il en est avec la dernière génération de chipsets intégrés Intel : les GMA 900 et 950. Evolution de l’entrée de gamme ?Nous avons mis en graphique des courbes d’évolution du fillrate et de la bande passante mémoire sur le haut de gamme et sur le bas de gamme. Nous l’avons fait sur base des puces Nvidia commercialisées depuis 1999, soit du TNT2 au GeForce 7800 GTX, mais les résultats auraient été similaires avec les données des cartes ATI : La différence entre les 2 extrémités d’une gamme de GPU s’accentue toujours plus. Notez que ces graphiques ne se basent que sur les données brutes sans prendre en compte des optimisations d’architecture (et d’éventuelles réduction de la qualité du filtrage via les drivers) qui peuvent augmenter significativement les performances. Mais il est utile de préciser que les GPU haut de gamme ont à chaque génération plus d’améliorations que leurs homologues d’entrée de gamme. La bande passante n’évolue que très peu au fil des années. Bien qu’elle augmente avec les GeForce 6200 TurboCache, moins de mémoire est disponible à pleine vitesse. A l’opposé, la bande passante a explosé courant 2003 sur les produits haut de gamme. Le fillrate suit un chemin similaire. Alors que la différence ente les extrêmes est restée pendant longtemps un facteur de 1.5 à 3, avec la parallèlisation massive des derniers GPU haut de gamme elle est passée à un facteur de 6 à 7 ! Pour schématiser, si les GPU haut de gamme avaient évolués à la même vitesse que les GPU d’entrée de gamme, le haut de gamme actuel serait tout au plus un 6600 GT, et dans le cas inverse l’entrée de gamme serait actuellement ce même GPU ! Que signifie cette tendance ? Que réduire les coûts sur l’entrée de gamme est très difficile et ralenti l’évolution. Pour affronter les solutions intégrées d’Intel, et pour essayer de placer un GPU dans chaque PC, ATI et Nvidia mettent sur le marché des produits qui relativement au haut de gamme ont un niveau toujours plus bas. Mais en définitive, en faisant cela, les 2 fabricants de GPU ont probablement aidé les solutions intégrées à gagner autant de terrain puisqu’à force d’aller toujours plus vers le bas de gamme, l’écart entre carte graphique d’entrée de gamme et solution intégrée se réduit. D’un côté le premier prix pour un fabricant d’ordinateurs doit se trouver aux environs de 25$ alors que de l’autre côté il n’est que de 5$ pour passer d´un chipset classique à un chipset intégré, ce qui fait une sacrée différence pour des produits qui sur le papier peuvent tous les deux faire tourner des jeux. N’aurait-il pas été plus efficace pour ATI et Nvidia de ne pas sortir de solution 3D si bon marché et si peu performantes ? De ne pas essayer de placer une carte à 25$ dans chaque PC mais de faire entrer dans les esprits que pour jouer il faut une carte 3D à 100$ et que les PC de joueurs et polyvalents doivent en être équipés ? Les développeurs auraient alors pu tirer par le haut la qualité graphique des jeux et ne pas avoir à se soucier des 50% de PC équipés d’une solution à chipset intégré et d’une masse également importante de PC équipés d’une carte graphique très peu performante. Soyons clair, les solutions d’entrée de gamme d’ATI et Nvidia sont meilleures (comme vous allez le voir dans les pages suivantes) que les chipsets intégrés d’Intel, mais la différence est-elle suffisante ? De son côté Intel travaille dur pour améliorer ses solutions graphiques tant au niveau des drivers que de leur architecture future. Si Intel arrivait à avoir un produit capable de concurrencer ceux d’ATI et Nvidia directement sur les performances et sur la qualité / fiabilité, ces 2 derniers auraient probablement quelques soucis à se faire… Ne serait-il pas temps qu’ATI et Nvidia mettent au point une architecture pleinement adaptée à l’entrée de gamme ? Actuellement, par "facilité" et pour ne pas faire exploser le coût de développement tant hardware que software, une même architecture est déclinée sur toute la gamme, et le coût de cette architecture peut plomber l’entrée de gamme. Moins d’options qui ne servent à rien et plus de performances ? C’est l’éternel débat ! Page 3 - Les GPU, les cartes, AGP Spécifications5 GPUs et 1 core intégré se partagent aujourd’hui l’entrée de game sur le PCI Express : les RV370, RV380 et RV410 chez ATI, les NV44 et NV43 chez Nvidia et les GMA 9x0 chez Intel. ![]() Milieu de gamme actuel du fabricant canadien, il supporte, comme les X800, les Shader 2.0b et intègre 6 pipelines de vertex shader et 8 pixel pipelines complètes (shader + ROP). Fabriqué en 110 nm il représente 120 millions de transistors sur une surface de 150 mm². ![]() Ancien milieu de gamme il s’agit simplement d’une version PCI Express du RV350/360 (Radeon 9600 Pro/XT) qui supporte donc les Shader 2.0 et intègre 2 pipelines de vertex shader et 4 pixel pipelines complètes. Il est fabriqué en 130 nm low-k et ses 75 millions de transistors occupent 98mm². ![]() Strictement identique au RV380 il fait appel à la gravure 110 nm ce qui le rend moins cher à produire puisqu’il n’occupe que 83mm². En contrepartie il monte moins facilement en fréquence. ![]() Ce GPU est utilisé par Nvidia sur une large plage de produits, de l’entrée de gamme au milieu de gamme. Il supporte les Shader 3.0 et le HDR et intègre 3 pipelines de vertex shader, 8 pipelines de pixel shader et 4 ROPs. Le nombre de ROPs plus réduit n’est en général pas limitatif puisque en pratique la bande passante mémoire empêche tous les ROPs (qui pour rappel s’occupent principalement d’écrire les données en mémoire) de faire leur travail en même temps. Il est fabriqué en 110 nm et ses 146 millions de transistors occupent 160 mm². On notera que seuls les 6600 & 6600 GT disposent d’un NV43 « full options ». En effet, le 6600 LE n’est doté que de 4 pixel shader pipelines fonctionnels. Il en va de même sur le GeForce 6200, mais dans ce dernier cas la compression de données (Z et couleurs) ainsi que le HDR ne sont en sus pas supportés. ![]() Dernier GPU d’entrée de gamme de Nvidia, le NV44 supporte les Shader 3.0 mais pas le HDR. Il s’est également vu retirer les systèmes de compression de données (Z et couleur) qui améliorent sensiblement les performances des autres GPU une fois le FSAA activé. Il dispose de 3 pipelines de vertex shader, de 4 pipelines de pixel shader et de 2 ROPs. Notez que ses 4 pipelines de pixel shader ne forment pas un bloc de 4 mais 2 blocs de deux. Nvidia a donc la possibilité d’en désactiver 2 sur certains produits. Il occupe une surface de 105mm². ![]() Ce core intégré d’Intel supporte DirectX9 et donc les Shader 2.0. Il intègre 4 pixel shader pipelines et 4 ROPs, mais pas de vertex shader pipeline. Autrement dit, tout ce qui est calcul géométrique (que ce soit T&L ou vertex shader) doit être traité par le CPU. Il ne supporte pas le FSAA. Difficile de savoir combien de transistors ce core requiert exactement, probablement une trentaine de millions. Notez pour le petit détail que le GMA 9x0 dispose de 2 unités MADs par pipeline… comme le G70 ou GeForce 7800. La comparaison s’arrête bien entendu là ! Les pipelines du GMA 9x0 sont relativement courts et ne permettent pas de directement masquer efficacement la latence de l’accès aux textures. Ces accès sont donc décalés pour masquer leur latence, ce qui est très efficace excepté lors d’accès complexes aux textures (qui deviennent de plus en plus courants) puisqu’à ce moment les performances s’effondrent. Le GMA 900, intégré dans l’i915G, est cadencé à 333 MHz, contre 400 MHz pour le GMA 950 de l’i945G. Les cores intégrés Intel ne disposent pas de bande passante mémoire locale et se partagent donc la totalité de la bande passante de la mémoire centrale avec le reste du système. Les cartes ![]() Nous avons sélectionné un large panel de cartes d’entrée de gamme et nous y avons ajouté le milieu de gamme actuel d’ATI et de Nvidia afin de donner un point de comparaison. ![]() ![]() * les cartes TurboCache et HyperMemory peuvent accéder en parallèle à leur mémoire locale et à la mémoire centrale. Leur bande passante effective peut donc être légèrement supérieure à ce chiffre, le maximum théorique (jamais atteint en pratique) étant l’ajout de la bande passante totale du PCI Express. Spécifications officielles non-respectéesLorsqu’un nouveau modèle de carte graphique est mis sur le marché par ATI et Nvidia il dispose de spécifications assez strictes quand à la fréquence du GPU, de la mémoire et de la taille du bus mémoire. Malheureusement, tous les fabricants ne les respectent pas à la lettre et il est très courant de voir des produits aux performances bridées (oui, c’est possible de brider même l’entrée de gamme). Par exemple nous sommes tombés sur une GeForce 6200 de Point of View équipée de mémoire 64 bits à 166 MHz au lieu d’une mémoire 128 bits à 200 MHz et le tout vendu à un prix plus élevé que les cartes qui respectent les spécifications ! Inutile de dire que les performances de ce genre de cartes sont nettement inférieures à ce qu’elles devraient être. Les cartes TurboCache et HyperMemory sont également touchée par ce problème. Certaines cartes TC 32 Mo utilisent une seule et unique puce de 32 Mo au lieu de 2 puces de 16 Mo. Etant donné qu’une puce offre une largeur de bus de 16 bits, la bande passante est divisée par 2 ! Les X300 SE HM sont censées utiliser de la mémoire cadencée à 300 MHz au lieu des 200 MHz des X300 SE classiques. Certains fabricants, lors du passage à l’HyperMemory ont visiblement décidé de ne pas modifier la mémoire qui reste donc à 200 MHz sur certaines X300 SE HM. Dans les 2 cas les performances chutent significativement. Bien entendu ces différences ne sont jamais indiquées clairement sur la boîte ou sur la fiche produit… Et l’AGP ? ![]() Chez NVIDIA, les 6600 GT et 6600 sont déclinées sur cette interface via le HSI. Attention, on trouve également un GeForce 6200 basé sur un NV44 gérant nativement l’AGP, le NV44A, mais cette puce est équipée d’un bus mémoire 64 bits et ses performances sont donc forcément très en retrait. Chez ATI, on portera notre attention sur le 9600 Pro, qui est l’équivalent AGP du X600 Pro qui a encore de beaux restes, mais surtout sur le 9800 Pro qui fait de la résistance. A un niveau de prix comparable au 6600, il en effet plus performant ! Bien entendu contrairement à ce dernier il ne gère ni le Shader Model 3.0, ni le HDR, ni la décompression WMV9. Page 4 - Chipset, 2D, Vidéo, Le test Le chipsetDans les technologies TurboCache et HyperMemory, le chipset joue un rôle important. C’est par lui que passe la carte graphique pour accéder à la partie de mémoire utilisée dans la mémoire centrale. Pour être précis, la carte graphique doit passer par 2 bus pour atteindre la mémoire : le bus PCI Express et puis le bus mémoire du système. Pour que les technologies HyperMemory et TurboCache soient efficaces il faut donc qu’il y ait assez de bande passante sur les 2 bus. Nous avons testé UT2004 et Far Cry sur 3 chipsets différents : l’i915G, l’i945G et le nForce 4 Ultra : ![]() Le nForce 4 Ultra est légèrement plus efficace, mais la différence est plus que réduite et n’est pas réellement significative. Nous avons bien entendu utilisé le Dual Channel sur les 3 plateformes puisque celui-ci est très utile lorsque la carte graphique utilise une partie de la mémoire. Cela implique d’utiliser 2 barrettes au lieu d’une seule de capacité double et il faudra veiller à ce que ce soit le cas sur les machines équipées d’une carte TurboCache ou HyperMemory. 2DPeut-il encore y avoir des différences en 2D entre différentes cartes à l’heure actuelle ? Oui. Les performances peuvent varier. Dans la majorité des cas cette différence est insignifiante, mais nous avons pu noter une différence visible entre les cartes graphiques et les cores intégrés Intel. Ces derniers ont du mal à rendre certains effets de l’interface de Windows. Par exemple le fondu sous les menus n’est pas fluide. Bien entendu ce n’est qu’un petit détail, mais il vaudra mieux désactiver complètement les fondus pour éviter cette désagréable impression de manque de fluidité en 2D. ![]() Au lieu d’envoyer une image en 800 x 600 à l’écran TFT qui se charge de la redimensionner en 1280 x 1024, le GPU réalise cette opération avant l’envoi. L’écran TFT reçoit donc une image dans sa résolution native et n’a pas besoin de la redimensionner. Quel intérêt ? Ca ne revient pas au même ? Oui et non. La majorité des écrans TFT (surtout sur l’entrée de gamme) utilisent un algorithme d’interpolation de qualité médiocre alors que les cartes Nvidia en utilisent un de très haute qualité. Bien entendu rien ne vaut la résolution native, mais dans le cas où ce n’est pas possible cette option est plus que bienvenue ! Cerise sur le gâteau, l’incidence sur les performances est négligeable. Nous ne pouvons malheureusement pas vous montrer la différence de qualité puisqu’il n’est pas possible de prendre un screenshot de l’image une fois qu’elle a été interpolée et que les résultats sur photos ne sont pas très parlants. VidéoSi la décompression MPEG-2 n’est plus un problème pour les GPU, ce n’est pas forcément le cas quand il s’agit des derniers codecs HD tels que le WMV. Quelles sont les performances des différentes cartes et cores intégrés en lecture de contenu WMV ? Nous l’avons vérifié sur une machine équipée d’un P4 3.8 GHz avec l’Hyper Threading désactivé afin d’avoir un taux d’utilisation CPU plus représentatif, le taux reporté sur CPU HyperThreading n’étant pas toujours fiable du fait de la présence du second core logique. ![]() ![]() En 1080p, l’histoire se corse. Les GeForce 6600 et 6200 disposent de l’accélération et s’en sortent très bien. Notez que bien que Nvidia indique dans ses spécifications que les cartes TurboCache 32 et 64 Mo ne supportent que l’accélération 720p, elle est en pratique fonctionnelle sur le 1080p également. La GeForce PCX 5750 lit le contenu sans encombre bien qu’elle ne dispose pas d’accélération et que le taux CPU soit très élevé. Elevé il l’est également sur TurboCache 16 Mo. Par contre avec cette carte, plusieurs frames sont ignorées pendant le rendu ce qui cause parfois des petites saccades. Chez ATI, seules les X700 disposent de l’accélération hardware. Par contre aucune carte ne rend correctement la vidéo. Un problème indéterminé fait que la vidéo est affichée en 17 à 20 FPS au lieu de 24 FPS soit au ralenti. Problème qui se retrouve également sur une plateforme nForce 4 avec un Athlon 64 4000+ mais par contre sur X800 ce problème n’existe pas. Nous avons contacté ATI qui nous a informé avoir pu reproduire le problème mais uniquement dans certaines conditions encore indéterminées (un problème lié à la régionalisation soit des drivers soit du patch de Microsoft qui active l’accélération hardware ? un manque de puissance des cartes graphiques d’entrée et de milieu de gamme ?). Espérons que ceci sera résolu rapidement via de nouveaux drivers mais en attendant ça ne fonctionne pas. Le testPour ce test nous avons utilisé un protocole différent. Afin de pouvoir répondre à la question "Peut-on jouer avec ces cartes ?", nous avons... joué avec ! En plus des benchs classiques, nous avons joué avec toutes les cartes dans 19 jeux afin de déterminer quelle était la qualité maximale que l’on pouvait atteindre avec ces cartes, d’une part pour jouer confortablement, c’est-à-dire avec une bonne fluidité et d’autre part pour jouer d’une manière acceptable, c’est-à-dire que la fluidité peut ne pas être parfaite mais sans toutefois entacher le gameplay. Pour chaque jeu nous avons sélectionné une scène que nous avons estimée représentative. Les jeux que nous avons choisis couvrent une large gamme de types différents et datent de 2003 à 2005. Tous les jeux n’ont pas les mêmes besoins que Doom 3 ou que Far Cry et certains utilisent des moteurs bien moins évolués. Il nous a semblé important de ne pas juger des cartes d’entrée de gamme uniquement sur leur capacité à faire tourner le dernier FPS du moment. Afin de coller à la réalité de l’entrée de gamme en matière de mémoire, nous avons utilisé 512 Mo seulement sur les machines de test. Notez que dans ces conditions les temps de chargement sont affreusement longs et les swap disque agaçants sur les jeux récents et cela s’empire avec les cartes TurboCache / HyperMemory et les chipsets intégrés. Pour jouer 1 Go est plus que vivement recommandé ! Configuration de test :- Leadtek / Foxconn nForce 4 Ultra - AMD Athlon 64 4000+ - 2x256 Mo de mémoire PC-3200 - ForceWare 71.89 - Catalyst 5.5 - ASUS P5GDC-V (i915G) - Intel D945GTP (i945G) - Intel Pentium 4 670 (3.8 GHz, 2 Mo) - 2x256 Mo de mémoire PC2-4200 Page 5 - Benchs UT2004, Far Cry Unreal Tournament 2004 ![]() Sous UT2004, globalement c’est Nvidia qui domine mais la différence par rapport à ATI n’est pas énorme. La 6200 TC 32 Mo offre des performances équivalentes à la 6200 128 bits ce qui prouve que la technologie est efficace. La TC 64 Mo en est également très proche, tout comme la X300 SE HM 32 Mo est proche de la X300 128 bits. La TC 16 Mo est par contre un peu plus en retrait mais reste devant les solutions intégrées Intel. La Radeon X550 affiche des performances similaires à la X600 Pro, UT n’étant pas limité par la bande passante mémoire. La 6600 LE de Nvidia s’en sort bien et se positionne entre les X700. Far Cry ![]() Dans Far Cry Nvidia et ATI restent très proches, avec un léger avantage à Nvidia. Mais cette fois les cartes TurboCache et HyperMemory sont loin d’atteindre les performances de leur équivalent 128 bits, Far Cry étant plus gourmand en mémoire que UT. Les 2 cores Intel sont loin derrière. Page 6 - Benchs Doom3, Sims2 Doom 3 ![]() NVIDIA domine ici très nettement ! Les 3 cartes TurboCache sont devant toutes les cartes à base de RV370, y compris la X550. La 6600 LE dépasse facilement la X700 SE qui dispose pourtant d’un fillrate 2x plus important. Les cores intégrés d’Intel sont largués. Vous noterez un rapport de 1 à 7 entre les performances du GPU Nvidia le plus performant et le moins performant de ce comparatif. Lorsque l’on sait qu’un 7800 GTX est encore 3x plus performant que le 6600 GT, cela nous donne une différence de 1 à 20 dans la gamme actuelle de Nvidia. Sims 2 ![]() Dans un style légèrement différent de Doom3, Sims 2 donne l’avantage à ATI, excepté pour les cartes les plus performantes. Les cores graphiques Intel s’en sortent plutôt bien. Ils remercieront la scène de bench qui n’est pas trop chargée au niveau de la géométrie ce qui leur permet de dépasser les cartes TurboCache et HyperMemory en 1280. Page 7 - Benchs Colin 05, IL2 FB Colin McRae 2005 ![]() ATI semble apprécier les jeux de voitures. Les Radeon dominent dans ce test. Les cartes TurboCache et HyperMemory s’en sortent bien mais seule la TC 32 Mo atteint les performances de son équivalent 128 bits. Les cores Intel sont une nouvelle fois bons derniers. IL-2 Forgotten Battles ![]() IL2 est très dépendant de la bande passante mémoire, les cartes TurboCache, HyperMemory et 64 bits ainsi que les cores Intel sont donc logiquement en retrait. Globalement Nvidia s’en sort mieux qu’ATI dans ce test ce qui est logique vu que les cartes Nvidia ont généralement leur mémoire cadencée plus haut que celle de leur équivalent ATI. Page 8 - Benchs anti aliasing 4x UT 2004 ![]() Sur la majorité des cartes, c’est match égal entre ATI et Nvidia. Mais étant donné que les 6200 ne disposent pas des technologies de compression de données qui permettent de ne pas faire exploser les besoins en bande passante mémoire une fois l’AA activé, les performances s’écroulent sur ces cartes. En face le RV370 dispose notamment de la compression du Z-Buffer ce qui lui donne un net avantage. Ainsi les X300/X550 dominent facilement les 6200. Le 6200 "tout court" utilise un core NV43 qui intègre les compressions de données, mais pour uniformiser la gamme 6200, ce support est désactivé, ce qui crée une grosse différence par rapport au 6600 LE qui utilise le même core mais sans compression désactivée. Les cores Intel ne supportent pas le FSAA. Colin McRae 2005 ![]() La situation est identique dans Colin McRae à la différence près qu’elle est plus accentuée. Sims 2 ![]() Situation identique, excepté pour le 6600 GT qui s’en sort bien. Notez qu’un bug affectait sérieusement le rendu avec les cartes TurboCache 32 et 64 Mo et entraînait des scores incohérents. Au final il semble évident que les GeForce 6200, TurboCache ou pas ne sont pas faites pour l’antialiasing. Les X300 d’ATI s’en sortent bien mieux. Bien entendu reste à savoir si l’antialiasing est réellement utilisable et intéressant sur ce genre de cartes. En général on privilégiera la résolution plutôt qu’activer de l’antialiasing sur des cartes d’entrée de gamme. Page 9 - Pratique : UT2004, Far Cry, D3, Riddick UT 2004 ![]() Confortable : 1280 x 1024 : 6600 GT, 6600, X700 Pro 1024 x 768 : 6600 LE, 6200, 6200 TC 32 Mo, PCX 5750, X700 SE, X600 Pro, X550 800 x 600 : 6200 TC 64 Mo, 6200 TC 16 Mo, X300, X300 SE, X300 SE HM, i945G 640 x 480 : i915G Acceptable : 1600 x 1200 : 6600 GT, X700 Pro 1280 x 1024 : 6600, 6600 LE, PCX 5750, X700 SE, X600 Pro, X550 1024 x 768 : 6200, 6200 TC 64 Mo, 6200 TC 32 Mo, 6200 TC 16 Mo, X300, X300 SE HM 800 x 600 : X300 SE, i945G, i915G Far Cry Confortable : 1280 x 1024 Medium : 6600 GT, X700 Pro 1024 x 768 Medium : 6600, 6600 LE, X700 SE, X600 Pro, X550 800 x 600 Medium : 6200 TC 64 Mo, 6200 TC 32 Mo, PCX 5750, X300, X300 SE HM 1024 x 768 Low : X300 SE 800 x 600 Low : 6200 TC 16 Mo Impossible : i945G, i915G Acceptable : 1280 x 1024 High : 6600 GT, X700 Pro 1024 x 768 High : 6600, 6600 LE, X700 SE, X600 Pro, X550 1024 x 768 Medium : 6200, PCX 5750, X300, X300 SE HM 800 x 600 Medium : 6200 TC 64 Mo, 6200 TC 32 Mo, X300 SE 1024 x 768 Low : 6200 TC 16 Mo 800 x 600 Low : i945G, i915G Les chipsets intégrés d´Intel ne sont pas assez performants pour pouvoir jouer confortablement dans Far Cry, l´absence d´unités de calculs géométriques doit y être pour beaucoup. Notez que malgré tout le bruit qui a circulé sur le support des Shader 3.0 et 2.0b dans Far Cry, celui-ci ne concerne que le mode de qualité Very High. En mode High et Medium, Far Cry n´utilise que des Shader 1.1 et en mode Low les shaders ne sont pas utilisés puisque cela correspond à un rendu de type DirectX 7. Inutile de dire que le rendu n´est pas très attrayant dans ces conditions… Doom 3 Confortable : 1280 x 1024 Medium : 6600 GT 1024 x 768 Medium : 6600, X700 Pro 800 x 600 Medium : 6600 LE, X700 SE 640 x 480 Medium : 6200, 6200 TC 64 Mo, 6200 TC 32 Mo, PCX 5750, X600 Pro, X550, X300 640 x 480 Low : 6200 TC 16 Mo, X300 SE HM Impossible : X300 SE, i945G, i915G Acceptable : 1600 x 1200 High : 6600 GT 1280 x 1024 Medium : 6600 1024 x 768 High : X700 Pro 1024 x 768 Medium : 6600 LE, X700 SE 800 x 600 High : PCX 5750 800 x 600 Medium : 6200, 6200 TC 64 Mo, 6200 TC 32 Mo, X600 Pro, X550 800 x 600 Low : 6200 TC 16 Mo, X300, X300 SE HM 640 x 480 Low : X300 SE, i945G, i915G Les cores intégrés Intel et la Radeon X300 SE (64 bits) ne permettent pas de jouer confortablement à Doom 3. Chroniques de Riddick ![]() Confortable : 1024 x 768 Aniso 8x : 6600 GT 800 x 600 : 6600, X700 Pro 640 x 480 : 6600 LE, 6200, 6200 TC 64 Mo, 6200 TC 32 Mo, X700 SE 640 x 480 Low : PCX 5750 Impossible : 6200 TC 16 Mo, X600 Pro, X550, X300, X300 SE, X300 SE HM, i945G, i915G Acceptable : 1280 x 1024 Aniso 8x : 6600 GT 1024 x 768 : 6600, X700 Pro 800 x 600 : 6600 LE, 6200, 6200 TC 64 Mo, 6200 TC 32 Mo, X700 SE, X600 Pro, X550 800 x 600 Low : PCX 5750 640 x 480 : 6200 TC 16 Mo, X300, X300 SE HM Impossible : X300 SE, i945G, i915G Les Chroniques de Riddick est un des jeux les plus gourmands et ça se voit. 8 cartes ne permettent pas d´y jouer avec une fluidité confortable même en 640 x 480. Pire, 3 cartes ne permettent pas d´y jouer du tout ! Pour la X300 SE il s´agit d´un problème de performances mais en plus de celui-ci les i915G et i945G en ont un autre : le rendu est affiché à l´envers. A moins d´être acrobate, difficile de jouer dans ces conditions. Page 10 - Pratique : XIII, Splinter 3, Swat 4, Max Payne 2 XIII ![]() Confortable : 1600 x 1200 : 6600 GT, 6600, PCX 5750, X700 Pro, X700 SE 1280 x 1024 : 6600 LE, 6200, 6200 TC 64 Mo, 6200 TC 32 Mo, X600 Pro, X550, X300, X300 SE HM 1024 x 768 : 6200 TC 16 Mo, X300 SE, i945G, i915G Acceptable : 1600 x 1200 : 6600 GT, 6600, 6600 LE, 6200, 6200 TC 64 Mo, 6200 TC 32 Mo, PCX 5750, X700 Pro, X700 SE, X600 Pro, X550, X300, X300 SE HM 1280 x 1024 : 6200 TC 16 Mo, X300 SE, i945G, i915G Un moteur et des graphismes simples et efficaces. Les hautes résolutions sont donc possibles sur l´entrée de gamme avec certains anciens jeux. Splinter Cell Chaos Theory Confortable : 1024 x 768 Medium + Parallax Mapping : 6600 GT 1024 x 768 Medium : X700 Pro 800 x 600 Medium + Parallax Mapping : 6600, 6600 LE 800 x 600 Medium : X700 SE 640 x 480 Medium + Parallax Mapping : 6200, 6200 TC 64 Mo, 6200 TC 32 Mo 640 x 480 Medium : PCX 5750, X600 Pro, X550, X300 640 x 480 Low + Parallax Mapping : 6200 TC 16 Mo 640 x 480 Low : X300 SE, X300 SE HM Impossible : i945G, i915G Acceptable : 1024 x 768 High + Parallax Mapping + Soft Shadows : 6600 GT 1024 x 768 High : X700 Pro 1024 x 768 Medium + Parallax Mapping : 6600 1024 x 768 : X700 SE 800 x 600 Medium + Parallax Mapping : 6600 LE 800 x 600 Medium : X600 Pro 800 x 600 Low : X550, X300 640 x 480 High + Parallax Mapping : 6200, 6200 TC 32 Mo 640 x 480 High : PCX 5750 640 x 480 Medium + Parallax Mapping : 6200 TC 64 Mo, 6200 TC 16 Mo 640 x 480 Medium : X300 SE, X300 SE HM 640 x 480 Low : i945G, i915G Le support des Shader 3.0 permet aux cartes graphiques à base de GPU Nvidia d´avoir accès à des options de qualité supplémentaires comme le Parallax mapping (bump mapping amélioré) et les Soft Shadows (ombres adoucies). Encore une fois, les cores graphiques d´Intel ne sont pas capables d´offrir une fluidité parfaite. SWAT 4 ![]() Confortable : 1024 x 768 High : 6600 GT, X700 Pro 1024 x 768 Medium : 6600, X700 SE, X600 Pro 800 x 600 Medium : 6600 LE, 6200, 6200 TC 32 Mo, X550, X300, X300 SE HM 800 x 600 Low : 6200 TC 64 Mo, 6200 TC 16 Mo, PCX 5750, X300 SE, i945G, i915G Acceptable : 1280 x 1024 High : 6600 GT 1280 x 1024 Medium : 6600, X700 Pro 1024 x 768 High : 6600 LE, X700 SE, X600 Pro, X550 1024 x 768 Medium : 6200, 6200 TC 32 Mo, 6200 TC 64 Mo, X300, X300 SE HM, i945G 800 x 600 Medium : 6200 TC 16 Mo, PCX 5750 1024 x 768 Low : X300 SE, i915G Max Payne 2 ![]() Confortable : 1280 x 1024 AA 4x : 6600 GT, X700 Pro, X700 SE 1280 x 1024 : 6600, 6600 LE, X600 Pro, X550, X300 1024 x 768 : 6200, 6200 TC 64 Mo, 6200 TC 32 Mo, 6200 TC 16 Mo, PCX 5750, X300 SE, X300 SE HM 800 x 600 Bug : i945G, i915G Acceptable : 1600 x 1200 AA 4x : X700 Pro 1600 x 1200 AA 2x : 6600 GT, X700 SE 1280 x 1024 AA 2x : 6600, 6600 LE, X600 Pro 1280 x 1024 : 6200, 6200 TC 64 Mo, 6200 TC 32 Mo, PCX 5750, X550, X300, X300 SE HM 1024 x 768 : 6200 TC 16 Mo, X300 SE 1024 x 768 Bug : i945G, i915G Max Payne 2 n´est plus tout récent mais ce qu´il affiche est très loin d´être démodé. Les hautes résolutions sont accessibles à beaucoup de cartes. Notez que le bug sur les i915G et i945G concerne certains effets (comme les reflets dans les miroirs) qui ne sont pas rendus. Page 11 - Pratique : Freedom Fighters/Force, Lego SW, IL2 FB Freedom Fighters ![]() Confortable : 1600 x 1200 : 6600 GT, X700 Pro 1280 x 1024 : 6600, 6600 LE, PCX 5750, X700 SE, X600 Pro, X550 1024 x 768 : 6200, 6200 TC 64 Mo, 6200 TC 32 Mo, 6200 TC 16 Mo, X300, X300 SE HM 800 x 600 : X300 SE, i945G, i915G Acceptable : 1600 x 1200 : 6600 GT, 6600, PCX 5750, X700 Pro 1280 x 1024 : 6600 LE, 6200, 6200 TC 64 Mo, 6200 TC 32 Mo, X700 SE, X600 Pro, X550, X300, X300 SE HM 1024 x 768 : 6200 TC 16 Mo, X300 SE, i945G, i915G Freedom Force ![]() Confortable : 1280 x 1024 High : 6600 GT 1280 x 1024 Medium : 6600, X700 Pro 1024 x 768 High : X700 SE, X600 Pro 1024 x 768 Medium : 6600 LE, 6200, 6200 TC 64 Mo, 6200 TC 32 Mo, PCX 5750, X550, X300, X300 SE HM, i945G 1024 x 768 Low : 6200 TC 16 Mo, X300 SE, i915G Acceptable : 1280 x 1024 High : 6600 GT, 6600, 6600 LE, PCX 5750, X700 Pro, X700 SE, X600 Pro, X550 1280 x 1024 Medium : 6200, 6200 TC 64 Mo, X300, X300 SE HM 1280 x 1024 Low : 6200 TC 32 Mo, X300 SE, i945G, i915G 1024 x 768 Medium : 6200 TC 16 Mo LEGO Star Wars ![]() Confortable : 1280 x 1024 : 6600 GT, 6600, 6600 LE, 6200 TC 32 Mo, X700 Pro, X700 SE, X600 Pro, X550 1024 x 768 : 6200, 6200 TC 64 Mo, 6200 TC 16 Mo, PCX 5750, X300, X300 SE HM 800 x 600 : X300 SE Impossible : i945G, i915G Acceptable : 1280 x 1024 : 6600 GT, 6600, 6600 LE, 6200, 6200 TC 64 Mo, 6200 TC 32 Mo, 6200 TC 16 Mo, PCX 5750, X700 Pro, X700 SE, X600 Pro, X550, X300, X300 SE, X300 SE HM 1024 x 768 : X300 SE Impossible : i945G, i915G LEGO Star Wars ne supporte pas le 1600 x 1200 ce qui est très étonnant pour un jeu récent. Le jeu refuse de se lancer sur i915G et i945G en prétextant l’absence du support des fonctions qui lui sont nécessaires. Le jeu étant de classe DirectX 9, soit totalement supporté par les cores d’Intel il s’agit plus que probablement d’un bug du côté du jeu. IL-2 Forgotten Battles Confortable : 1280 x 1024 : 6600 GT, X700 Pro 1024 x 768 : 6600, 6600 LE, PCX 5750, X700 SE, X600 Pro 800 x 600 : 6200, 6200 TC 64 Mo, 6200 TC 32 Mo, X550, X300, X300 SE HM 640 x 480 : 6200 TC 16 Mo, X300 SE Impossible : i945G, i915G Acceptable : 1600 x 1200 : 6600 GT, X700 Pro 1280 x 1024 : 6600, 6600 LE, X600 Pro 1024 x 768 : 6200, 6200 TC 32 Mo, PCX 5750, X700 SE, X550, X300 800 x 600 : 6200 TC 64 Mo, 6200 TC 16 Mo, X300 SE, X300 SE HM Impossible : i945G, i915G Tout comme dans Riddick, l’image est inversée sur i915G et sur i945G. Page 12 - Pratique : Colin 05, GTR, NFSU2, FIFA 05 Colin McRae 2005 Confortable : 1024 x 768 AA 2x : 6600 GT, X700 Pro 800 x 600 2x : 6600 800 x 600 : 6600 LE, X700 SE, X600 Pro, X550 640 x 480 : 6200, X300, X300 SE HM Impossible : 6200 TC 64 Mo, 6200 TC 32 Mo, 6200 TC 16 Mo, PCX 5750, X300 SE, i945G, i915G Acceptable : 1280 x 1024 AA 2x : 6600 GT, X700 Pro 1280 x 1024 : X700 SE 1024 x 768 AA 2x : 6600 1024 x 768 : 6600 LE, X600 Pro, X550 800 x 600 : 6200, 6200 TC 64 Mo, 6200 TC 32 Mo, PCX 5750, X300, X300 SE HM, i945G, i915G 640 x 480 : 6200 TC 16 Mo, X300 SE 7 cartes ne permettent pas de faire tourner Colin McRae avec une bonne fluidité. Les cartes Nvidia du bas de la gamme affichent un nombre de fps qui ne représente pas la fluidité réelle puisque les à-coups sont nombreux et empêchent de profiter pleinement du jeu. GTR ![]() Confortable : 1280 x 1024 : 6600 GT, X700 Pro 1024 x 768 : X700 SE 800 x 600 : 6600, 6600 LE, 6200, 6200 TC 32 Mo, PCX 5750, X600 Pro, X550, X300, X300 SE HM, i945G 640 x 480 : 6200 TC 64 Mo, 6200 TC 16 Mo, X300 SE, i915G Acceptable : 1280 x 1024 AA 2x : 6600 GT, X700 Pro 1280 x 1024 : X700 SE 1024 x 768 AA 2x : 6600, 6600 LE, X600 Pro 1024 x 768 : 6200, 6200 TC 64 Mo, 6200 TC 32 Mo, PCX 5750, X550, X300, X300 SE HM, i945G, i915G 800 x 600 : 6200 TC 16 Mo, X300 SE Need for Speed Underground 2 Confortable : 1024 x 768 Medium : 6600 GT, X700 Pro 800 x 600 Medium : X700 SE 1024 x 768 Low : 6600, 6600 LE, PCX 5750, X600 Pro, X550, X300, X300 SE, X300 SE HM 800 x 600 Low : 6200, 6200 TC 64 Mo, 6200 TC 32 Mo, 6200 TC 16 Mo, i945G, i915G Acceptable : 1280 x 1024 Medium : 6600 GT, X700 Pro 1024 x 768 Medium : 6600, 6600 LE, X700 SE, X600 Pro, X550 800 x 600 Medium : 6200, 6200 TC 64 Mo, 6200 TC 32 Mo, 6200 TC 16 Mo, PCX 5750, X300, X300 SE, X300 SE HM, i945G, i915G Pour jouer dans des conditions confortables il faut passer en mode basse qualité sur la majorité des cartes. Dans ces conditions on a l´impression de se retrouver 3 ans en arrière tant les graphismes sont simplifiés. FIFA 2005 ![]() Confortable : 1024 x 768 : 6600 GT, 6600, 6600 LE, 6200, 6200 TC 64 Mo, 6200 TC 32 Mo, 6200 TC 16 Mo, PCX 5750, X700 Pro, X700 SE, X600 Pro, X550, X300, X300 SE, X300 SE HM 800 x 600 : i945G, i915G Acceptable : 1024 x 768 : 6600 GT, 6600, 6600 LE, 6200, 6200 TC 64 Mo, 6200 TC 32 Mo, 6200 TC 16 Mo, PCX 5750, X700 Pro, X700 SE, X600 Pro, X550, X300, X300 SE, X300 SE HM, i945G, i915G FIFA 2005 utilise un moteur assez spécial, probablement critiquable sur de nombreux points. Le mode 1280 x 1024 ne fonctionne pas à cause d´un bug et le mode 1600 x 1200 est injouable peu importe la puissance de la carte et peu importe qu´elle affiche 10 ou 300 FPS. Les mouvements semblent s´effectuer à une cadence fixe (par exemple 25 fois par seconde) ce qui ne se voit pas trop en basse résolution mais donne une impression de manque de fluidité très gênant en haute résolution. Il faut donc se contenter du 1024 x 768. Page 13 - Pratique : Sims2, Empire Earth 2, WoW Sims 2 ![]() Confortable : 1280 x 1024 Medium : 6600 GT 1280 x 1024 Low : X700 Pro 1024 x 768 Medium : X700 SE 1024 x 768 Low : 6600, 6600 LE, X600 Pro, X550 800 x 600 Low : 6200, 6200 TC 64 Mo, 6200 TC 32 Mo, X300, X300 SE HM Impossible : 6200 TC 16 Mo, PCX 5750, X300 SE, i945G, i915G Acceptable : 1280 x 1024 High : 6600 GT 1280 x 1024 Medium : 6600, X700 Pro, X700 SE, X600 Pro, X550 1024 x 768 Medium : 6600 LE, 6200 800 x 600 Medium : 6200 TC 64 Mo, 6200 TC 32 Mo, X300, X300 SE HM 800 x 600 Low : 6200 TC 16 Mo, PCX 5750, X300 SE Impossible : i945G, i915G Si nous avons utilisé une scène simple (parce que plus facilement reproductible) pour les benchs, nous avons ici testé la jouabilité dans une scène plus complexe. Les cores intégrés d´Intel ne permettent pas de jouer au jeu d´une manière satisfaisante et les bugs graphiques sont nombreux. Empire Earth 2 ![]() Confortable : 1024 x 768 Medium : X700 Pro, X700 SE, X600 Pro, X550, X300, X300 SE HM 1280 x 1024 Low : 6600 GT 800 x 600 Medium : X300 SE 1024 x 768 Low : 6600, 6600 LE, 6200, PCX 5750, i945G 800 x 600 Low : 6200 TC 64 Mo, 6200 TC 32 Mo, i915G Impossible : 6200 TC 16 Mo Acceptable : 1600 x 1200 Medium : 6600 GT 1280 x 1024 Medium : X700 Pro, X700 SE, X600 Pro, X550, X300, X300 SE HM 1024 x 768 Medium : PCX 5750, X300 SE, i945G, i915G 1280 x 1024 Low : 6600, 6600 LE 1024 x 768 Low : 6200, 6200 TC 64 Mo 800 x 600 Low : 6200 TC 32 Mo, 6200 TC 16 Mo Tout comme dans Colin McRae les à-coups sont nombreux sur les cartes Nvidia dès qu´on passe en mode de qualité Medium. World of Warcraft ![]() Confortable : 1600 x 1200 : 6600 GT 1280 x 1024 : X700 Pro 1024 x 768 AA 2x : 6600, 6600 LE 1024 x 768 : 6200, 6200 TC 32 Mo, X700 SE, X600 Pro, X550 800 x 600 : 6200 TC 64 Mo, 6200 TC 16 Mo, PCX 5750, X300, X300 SE, X300 SE HM, i945G, i915G Acceptable : 1600 x 1200 AA 4x : 6600 GT 1600 x 1200 AA 2x : X700 Pro 1280 x 1024 AA 2x : 6600 1280 x 1024 : 6600 LE, 6200, 6200 TC 32 Mo, X700 SE, X600 Pro, X550 1024 x 768 : 6200 TC 64 Mo, X300, X300 SE, X300 SE HM, i945G, i915G 800 x 600 : 6200 TC 16 Mo, PCX 5750 Ce qu´affiche le moteur de WoW n´est pas très complexe et toutes les cartes s´en sortent bien, même s´il faut rester en 800 x 600 pour garder une fluidité optimale sur certaines. Page 14 - Récapitulatif Récapitulatif des benchmarksNous avons calculé une moyenne des résultats de tous les benchmarks effectués en donnant le même poids à chaque jeu : ![]() En moyenne les performances varient du simple au quintuple en 1280 x 1024 mais seulement du simple au triple en 800 x 600 étant donné que dans ce mode les cartes les plus performantes sont limitées par le CPU. Sur le milieu de gamme, c’est-à-dire 6600 GT, 6600, 6600 LE contre X700 Pro, X700 SE et X600 Pro, c’est Nvidia qui en sort vainqueur. La différence n’est pas énorme mais elle est bien là avec un avantage de 0 à 15% en faveur de Nvidia. Notez cependant qu´on peut voir également le X600 Pro comme l´adversaire direct du PCX 5750, ce qui était le cas il y a un an en AGP pour leurs équivalents 9600 Pro et FX 5700. A ce moment, Nvidia faisait le forcing au niveau des optimisations des drivers pour permettre aux GeForce FX d´afficher des performances acceptables. Aujourd´hui ce n´est plus le cas et ça se paye cash : le PCX 5750 est largué par le X600 Pro. Sur l’entrée de gamme ça se complique puisque les produits ne sont pas vraiment en face l’un de l’autre à l’exception des cartes TurboCache 32 Mo et HyperMemory 32 Mo qui offrent des résultats similaires avec un très léger avantage à Nvidia. Vous noterez que ces 2 cartes sont proches de leur équivalent 128 Mo 128 bits, ce qui démontre l’intérêt des technologies TurboCache et HyperMemory. La carte TurboCache 16 Mo est un cran derrière, 16 Mo étant vraiment insuffisants. La carte TurboCache 64 Mo est en rien derrière la version 32 Mo, ce qui indique que la bande passante est plus importante que la quantité de mémoire. Les 6200 et X300 offrent un niveau de performances similaire avec cette fois un très léger avantage en faveur d’ATI. La Radeon X550 se place un cran au-dessus avec des performances très proches de celles de la X600 Pro. Les chipsets i915G et i945G d’Intel sont un cran en-dessous des performances des cartes d’entrée de gamme d’ATI et Nvidia à l’exception de la 6200 TurboCache 16 Mo puisqu’elle est dépassée par l’i945G. Elle n’apporte donc globalement rien de plus au niveau des performances 3D. Récapitulatif des tests pratiquesPour calculer une moyenne de la qualité graphique maximale que nous avons pu atteindre dans les 19 jeux tout en conservant une fluidité confortable, nous avons donné 1 point par niveau de qualité. Par exemple si entre la meilleure carte et la moins bonne il y a 5 résolutions, les cartes ont eu entre 1 et 5 points d’après ce qu’elles permettent (et 0 si elles ne permettent pas de jouer confortablement). Nous avons ensuite pondéré ces résultats de manière à ce que chaque jeux ait le même poids et nous en avant fait une moyenne : Première constatation, ces résultats confirment ceux des benchs classiques pour toutes les cartes milieu de gamme et sur une partie du bas de gamme : résultats similaires entre produits ATI et Nvidia. Sur le très bas de gamme il y a quelques petites différences. X300 SE et TurboCache 16 Mo offrent ici une prestation similaire, un cran en-dessous de celle des autres cartes d’entrée de gamme. 4 jeux sur 19 sont injouables sur ces cartes. Les chipsets intégrés Intel sont cette fois nettement en retrait alors qu’ils étaient plus proches des cartes d’entrée de gamme dans les benchs. Pourquoi cette différence ? Parce qu’ils ne permettent pas de faire tourner un certain nombre de jeux et ont donc eu une note de 0 dans ces cas-là. Sur 19 jeux, 8 sont injouables, dans la moitié à cause de bugs. Page 15 - Conclusion ConclusionPeut-on jouer avec une carte d’entrée de gamme ? Oui, nous l’avons fait. Bien entendu il convient de nuancer cette réponse comme l’ont démontré nos différents tests. Toutes les cartes ne permettent pas de jouer à tous les jeux confortablement, c’est-à-dire avec un affichage parfaitement fluide. Certaines ne permettent pas de jouer à tous les jeux même avec des exigences revues à la baisse et d’autres souffrent d’un certain nombre de bugs qui empêchent de jouer. De plus, si dans les jeux qui ont 1 ou 2 ans ces cartes permettent généralement de jouer dans des résolutions correctes, il en va autrement dans les jeux récents qui utilisent des graphismes avancés. A ce moment il faut se contenter du 640 x 480 ou du 800 x 600, ce qui est très faible. A chacun de voir si jouer dans ces basses résolutions est acceptable à l’heure où "l’écran de base" est un TFT 17" 1280 x 1024, mais pour notre part nous pensons que c’est loin d’être idéal. Du coup, nous conseillerons aux joueurs d’opter au minimum pour une carte de type X700 Pro ou 6600 GT, voir X700 SE ou 6600 si vous ne pouvez décemment pas allez plus loin en terme de budget. Dans chacun de ces duels, Nvidia est légèrement devant en terme de performances et de fonctionnalités, mais il ne faut pas perdre de vue que ceci se paye 20 à 30 € de plus par rapport aux solutions ATI, ce qui est loin d’être négligeable dans cette tranche tarifaire. ![]() En dessous, il faudra faire de nombreuses concessions sur la qualité graphique. Bien entendu si il vous est impossible de mettre plus, que ce soit dans l’immédiat ou après avoir repoussé votre achat de quelques temps, il faut tout de même faire un choix parmi les cartes destinées aux budgets plus réduits. Dans ce cas, quitte à économiser, les Radeon X300 SE HyperMemory 32 Mo et les GeForce 6200 TurboCache 32 et 64 Mo offrent des performances 3D qui sont globalement très proches entre elles. De plus, et c’est plutôt une bonne surprise, elles sont bien plus proches en pratique des Radeon X300 et GeForce 6200 qui utilisent une mémoire de 128 Mo sur un bus 128 bits que des mêmes puces avec un bus mémoire 64 bits. Ces deux technologies, sans être miraculeuses, apportent donc bien un plus sur l’entrée de gamme, puisqu’elles permettent d’augmenter sensiblement les performances pour un coût de production inférieur. Les 6200 TC prennent l’avantage sur les X300 HM grâce à la décompression hardware des vidéos WMV HD et grâce à une petite option qui permet de remplacer l’interpolation de basse qualité de la plupart des écrans TFT par une interpolation plus propre réalisée par le GPU. En contrepartie ces cartes coûtent quelques euros de plus. La GeForce 6200 TurboCache 16 Mo est un cas à part et nous nous posons des questions quant à l’utilité d’une telle carte. Certes par rapport à une solution intégrée elle apporte des drivers de meilleure qualité avec moins de bugs, mais les performances ne sont pas meilleures voire même sont un rien inférieures. Pour se rattraper, elle ne peut pas compter sur une accélération de la lecture des vidéos HD puisqu’elle ne la supporte pas. 45€ uniquement pour quelques bugs en moins dans des jeux rendus avec peu de performances semble bien cher payé ! On notera que ces derniers mois, Intel a fait de nets progrès sur ses solutions intégrées. Bien entendu les performances sont loin d’être suffisantes pour jouer sérieusement mais les drivers s’améliorent rapidement bien qu’il reste encore du travail puisque 4 jeux que nous avons testés ne fonctionnaient pas du tout sur i915G et sur i945G. Ces GPU sont handicapés dans certains jeux du fait de l’absence de T&L et de Vertex Shader en hardware ce qui ajoute une charge supplémentaire au CPU, mais avec le dualcore, Intel pourrait bien corriger ce problème en déplaçant ces calculs vers le core non utilisé ! De quoi réduire encore plus l’écart entre les solutions intégrées et les cartes d’entrée de gamme et mettre la pression sur ATI et Nvidia afin que ceux-ci mettent enfin les bouchées doubles pour améliorer les performances de leur entrée de gamme ? Ce ne serait pas une mauvaise chose ! Copyright © 1997-2025 HardWare.fr. Tous droits réservés. |