Comparatif : 17 cartes graphiques d'entrée et milieu de gamme

Publié le 14/07/2005 par
Imprimer
Graphic Extreme
Très souvent on se demande qui de Nvidia ou d’ATI domine le marché des accélérateurs 3D. La question n’est en fait pas la bonne puisque celui qui domine, c’est Intel !

Avec plus de 50% des parts de marché, le fabricant de processeurs est le leader incontesté. Et tout ça grâce aux chipsets intégrés qui sont pourtant loin de faire l’unanimité tant leurs performances sont réduites. Le nom des cores graphiques de la génération précédente prêtait d’ailleurs à sourire : Graphic Extreme. Mis à part leur lenteur, leur retard technologique et leur nombre de jeux non supportés, ils n’avaient pas grand-chose d’extrême… Bien entendu tout ceci concerne la 3D et tout le monde n’en a pas besoin. Pourquoi utiliser un GPU complexe dans une machine uniquement destinée à de la bureautique ? Les cores graphiques intégrés remplissent très bien ce rôle.


Mais Intel ne s’attaque pas uniquement au marché des cartes "2D" et vise clairement plus que ça : la machine polyvalente voire même celle du joueur, sinon pourquoi augmenter le coût du chipset en y ajoutant les millions de transistors requis pour le support de la 3D ? Les cores intégrés d’Intel d’aujourd’hui, qui portent le nom de GMA (pour Graphic Media Accelerator), sont dotés d’un support complet de DirectX 9 et donc des Shaders 2.0. Bien entendu, ce support sera utile en bureautique lorsque Longhorn sera disponible puisque la nouvelle interface fera appel à la 3D et aura besoin des shaders 2.0. Mais en attendant, il ne faut pas se faire d’illusions, lorsqu’Intel vend son chipset il indique clairement qu’on peut jouer avec. Est-ce réellement le cas ? Nous allons vérifier ce qu’il en est avec la dernière génération de chipsets intégrés Intel : les GMA 900 et 950.

Evolution de l’entrée de gamme ?
Nous avons mis en graphique des courbes d’évolution du fillrate et de la bande passante mémoire sur le haut de gamme et sur le bas de gamme. Nous l’avons fait sur base des puces Nvidia commercialisées depuis 1999, soit du TNT2 au GeForce 7800 GTX, mais les résultats auraient été similaires avec les données des cartes ATI :



La différence entre les 2 extrémités d’une gamme de GPU s’accentue toujours plus. Notez que ces graphiques ne se basent que sur les données brutes sans prendre en compte des optimisations d’architecture (et d’éventuelles réduction de la qualité du filtrage via les drivers) qui peuvent augmenter significativement les performances. Mais il est utile de préciser que les GPU haut de gamme ont à chaque génération plus d’améliorations que leurs homologues d’entrée de gamme.

La bande passante n’évolue que très peu au fil des années. Bien qu’elle augmente avec les GeForce 6200 TurboCache, moins de mémoire est disponible à pleine vitesse. A l’opposé, la bande passante a explosé courant 2003 sur les produits haut de gamme.

Le fillrate suit un chemin similaire. Alors que la différence ente les extrêmes est restée pendant longtemps un facteur de 1.5 à 3, avec la parallèlisation massive des derniers GPU haut de gamme elle est passée à un facteur de 6 à 7 ! Pour schématiser, si les GPU haut de gamme avaient évolués à la même vitesse que les GPU d’entrée de gamme, le haut de gamme actuel serait tout au plus un 6600 GT, et dans le cas inverse l’entrée de gamme serait actuellement ce même GPU !

Que signifie cette tendance ? Que réduire les coûts sur l’entrée de gamme est très difficile et ralenti l’évolution. Pour affronter les solutions intégrées d’Intel, et pour essayer de placer un GPU dans chaque PC, ATI et Nvidia mettent sur le marché des produits qui relativement au haut de gamme ont un niveau toujours plus bas. Mais en définitive, en faisant cela, les 2 fabricants de GPU ont probablement aidé les solutions intégrées à gagner autant de terrain puisqu’à force d’aller toujours plus vers le bas de gamme, l’écart entre carte graphique d’entrée de gamme et solution intégrée se réduit. D’un côté le premier prix pour un fabricant d’ordinateurs doit se trouver aux environs de 25$ alors que de l’autre côté il n’est que de 5$ pour passer d´un chipset classique à un chipset intégré, ce qui fait une sacrée différence pour des produits qui sur le papier peuvent tous les deux faire tourner des jeux.

N’aurait-il pas été plus efficace pour ATI et Nvidia de ne pas sortir de solution 3D si bon marché et si peu performantes ? De ne pas essayer de placer une carte à 25$ dans chaque PC mais de faire entrer dans les esprits que pour jouer il faut une carte 3D à 100$ et que les PC de joueurs et polyvalents doivent en être équipés ? Les développeurs auraient alors pu tirer par le haut la qualité graphique des jeux et ne pas avoir à se soucier des 50% de PC équipés d’une solution à chipset intégré et d’une masse également importante de PC équipés d’une carte graphique très peu performante.

Soyons clair, les solutions d’entrée de gamme d’ATI et Nvidia sont meilleures (comme vous allez le voir dans les pages suivantes) que les chipsets intégrés d’Intel, mais la différence est-elle suffisante ? De son côté Intel travaille dur pour améliorer ses solutions graphiques tant au niveau des drivers que de leur architecture future. Si Intel arrivait à avoir un produit capable de concurrencer ceux d’ATI et Nvidia directement sur les performances et sur la qualité / fiabilité, ces 2 derniers auraient probablement quelques soucis à se faire…

Ne serait-il pas temps qu’ATI et Nvidia mettent au point une architecture pleinement adaptée à l’entrée de gamme ? Actuellement, par "facilité" et pour ne pas faire exploser le coût de développement tant hardware que software, une même architecture est déclinée sur toute la gamme, et le coût de cette architecture peut plomber l’entrée de gamme. Moins d’options qui ne servent à rien et plus de performances ? C’est l’éternel débat !
Vos réactions

Top articles