Les contenus liés au tag Nvidia

Afficher sous forme de : Titre | Flux Filtrer avec un second tag : AMD; ASUS; Fermi; GeForce; GTC; Intel; Kepler; Maxwell; Pascal; Pilotes GeForce;

Nvidia lance les GeForce 800M avec Battery Boost

Publié le 12/03/2014 à 18:54 par Damien Triolet

Après l'arrivée plus ou moins discrète de la GeForce 820M, Nvidia présente une famille GeForce 800M complète. Au menu de ce mélange de générations Maxwell, Kepler et même Fermi, des hausses de fréquences et l'introduction du système Battery Boost pour réduire la consommation en mode nomade.


C'est devenu une habitude chez Nvidia, en dehors de quelques renommages qui interviennent en décembre ou janvier, c'est en mars, juste avant l'arrivée du printemps qu'est introduite la nouvelle famille de GPU mobiles. Après les GeForce 600M et 700M, nous passons ainsi aux GeForce 800M. Il ne faut pas chercher de lien entre cette dénomination commerciale et une génération technologique, cela fait quelques temps déjà que les deux ne sont plus liées, raison pour laquelle 3 générations prennent part à cette famille de cartes graphiques.

Nvidia insiste fortement sur son écosystème logiciel dont GeForce Experience est devenu la pierre angulaire. Pour rappel, à sa base il permet de configurer automatiquement les jeux suivant des paramètres prédéfinis par Nvidia qui effectue des batteries de tests en interne pour déterminer le meilleur compromis pour chacun de ses GPU. De quoi permettre au néophyte de ne passer par le panneau d'options graphiques de jeux tout en profitant de réglages plus adaptés aux possibilités de sa machine. GeForce Experience a par la suite intégré ShadowPlay, pour enregistrer et diffuser des séquences de jeu, et GameStream, pour pouvoir jouer sur son PC depuis la console Shield.

Une nouvelle fonctionnalité propre aux GeForce 800M fait son apparition : Battery Boost. Sous cette appellation, Nvidia a implémenté différentes options qui permettent de limiter la consommation des portables en phase de jeu. L'option principale est un limiteur de fps, par défaut à 30 fps mais configurable, qui associé avec le mécanisme de contrôle du GPU permet à ce dernier de tourner à une fréquence/tension réduite. Un compromis fluidité (quoique la régularité à 30 fps peut être appréciable) contre consommation qui autorise des économie d'énergie substantielles.


Il était déjà possible de faire de même avec d'autres outils sur les GPU précédents, mais Battery Boost permet à cette option de s'enclencher automatiquement (sauf quand le jeu est déjà lancé) quand le portable passe sur sa batterie. Nvidia indique aller plus loin que le simple limiteur de fréquence, à travers des "algorithmes innovants" mais sans donner plus de détails. La réduction de fréquence pourrait par exemple être plus agressive à moins qu'il ne s'agisse de l'activation d'une autre possibilité de Battery Boost : réduire la qualité graphique en mode batterie (là aussi le tout est configurable jeu par jeu, option par option). Le GPU travaille alors moins et consomme moins. En résumé, Battery Boost permet de conserver les pleines performances quand l'alimentation est raccordée mais d'étendre l'autonomie quand le portable est sur batterie, à travers divers compromis.

L'aspect logiciel étant traité, passons à la partie matérielle :


Sur le haut de la gamme, nous retrouvons le GPU GK104, génération Kepler, qui sévit depuis près de 2 ans, en tant que GeForce GTX 600M puis GeForce GTX 700M et maintenant GeForce GTX 800M. Il profite à chaque fois d'une sélection et d'une configuration plus précises, ce qui permet à Nvidia de pousser les fréquences. Le GK106, par contre utilisé dans de nombreuses GeForce GTX 700M disparaît de la gamme.

La GeForce GTX 880M profite d'une fréquence GPU (de base, Nvidia ne communique aucune fréquence turbo) en hausse de 15% par rapport à la GeForce GTX 780M. A noter que cette carte graphique mobile pourra exister en version 2 Go GDDR5, mais également en version 4 Go GDDR5 peu utile et surtout en version spéciale "piège à pigeon" avec 8 Go GDDR5. Eurocom a d'ores et déjà annoncé intégrer cette version dans le X7, voire même en SLI avec 16 Go de GDDR5 au total !

La GeForce GTX 870M, qui devrait cette fois se contenter de 3 Go de GDDR5, représente une grosse évolution par rapport à la GTX 770M puisqu'elle utilise un GPU plus costaud, le GK104 au lieu du GK106. La GTX 860M "A" devrait pour sa part se rapprocher de cette GTX 770M. Elle exploite elle aussi le GK104 mais massivement castré, notamment au niveau de son interface mémoire limitée de 256 à 128-bit. Nous devons malheureusement préciser version "A" puisque Nvidia a eu la très mauvaise idée de proposer deux cartes graphiques totalement différentes sous cette même appellation.


Dans le milieu de gamme, la nouvelle génération Maxwell, introduite sur PC de bureau avec les GeForce GTX 750 et 750 Ti, fait cette fois son apparition. Nous retrouvons le GPU GM107 dans la variante "B" de la GeForce GTX 860M. Par rapport à la variante "A" en génération Kepler, la puissance de calcul est en nette baisse, mais il est important de rappeler que la génération Maxwell exploite mieux les ressources disponibles. Sur base de nos observations avec les GeForce GTX 750, nous estimons que les performances pratiques seront proches entre les 2 versions de la GTX 860M. La seconde devrait par contre être plus efficace sur le plan énergétique. Malheureusement, Nvidia a estimé préférable que le consommateur ne puisse pas faire de différence à ce niveau.

La GeForce GTX 850M est similaire à la GTX 860M "B" mais avec une fréquence GPU revue à la baisse. La tension devrait avoir suivi le même chemin ce qui devrait en faire une carte graphique mobile au rendement énergétique particulièrement intéressant. Le gain de performance sera important par rapport aux GTX 755M et GTX 750M qui étaient équipées d'un GPU nettement moins véloce mais tout aussi gourmand.


Enfin, dans le bas de la gamme nous retrouvons tout d'abord la GeForce 820M, déjà disponible. Etonnamment, il s'agit d'un ancien GPU de la génération Fermi que nous pensions abandonnée. Ce GPU a selon nous peu d'intérêt par rapport aux solutions graphiques intégrées aux CPU. A noter que Nvidia abandonne le préfixe GT en entrée de gamme.

Plus intéressant, Nvidia introduit les GeForce 840M et 830M basées sur un nouveau GPU Maxwell : le GM108. Nous n'en saurons pas plus à leur sujet, Nvidia refuse de communiquer les spécifications de ces produits en estimant que le consommateur peut se contenter de faire confiance à son estimation : un indice de performances de 3.5 à 5x en comparaison au HD Graphics 4400 d'Intel. Dans l'immédiat, nous vous conseillerons de ne pas faire confiance à ces accélérateurs graphiques tant que leurs spécifications ne seront pas connues. Ils pourraient tout aussi bien représenter une solution d'entrée de gamme intéressante qu'une taxe Maxwell avec autocollant GeForce sans plus-value utile par rapport aux GPU intégrés. C'est à Nvidia de le démontrer et pas au consommateur de lui faire confiance en achetant des spécifications surprises.

Ceci étant dit, sur le plan de l'architecture, nous supposons que ce GPU GM108 est similaire au GK208, bus 64-bit, bus PCI Express 8x, mais avec 2 ou 3 SMM Maxwell (256 à 384 unités de calcul) à la place de 2 SMX Kepler (384 unités de calcul moins efficaces). Nous confirmerons cela dès que possible.

La grosse limitation de ces GeForce 840M/830M semble venir du bus mémoire limité à la DDR3 pour tous les modèles. Il est possible que Nvidia ait simplifié ses contrôleur mémoire en supprimant le support de la GDDR5 mais également que ce support soit bien là mais non utilisé. En 64-bit, implémenter 2 Go de GDDR5 coûte relativement cher puisqu'il faut avoir recours aux modules de plus haute densité du moment. Se contenter de 1 Go de GDDR5 serait une bonne idée, malheureusement difficile à vendre au grand public par rapport à 2 Go de DDR3.

Au final, la GeForce GTX 850M semble être le dérivé le plus intéressant de la gamme et Battery Boost est une fonction bienvenue qui permettra aux joueurs de faire quelques compromis pour gagner en autonomie. Nous somme par contre déçus de ne pas retrouver de variante mobile de G-Sync annoncée avec ces GeForce 800M, probablement parce que Nvidia peut plus difficilement imposer une solution propriétaire quand la coopération d'Intel est nécessaire. Rappelons que ce sont les GPU intégrés HD/Iris Graphics qui pilotent l'affichage sur la plupart des plateformes via Optimus.

Pilotes GeForce 335.23 WHQL pour Titanfall

Publié le 10/03/2014 à 15:12 par Guillaume Louel

NVIDIA Logo 2010La sortie de Titanfall cette semaine est l'occasion pour Nvidia de proposer un nouveau pilote WHQL optimisé spécifiquement pour ce titre. Parmi les autres changements, le constructeur évoque une augmentation de la plage d'overclocking GPU manuel autorisée pour les GTX 750 et 750 Ti, ainsi que la mise à jour des profils SLI pour Bound By Flame, Diablo III, DOTA 2, NFS Rivals et Watch Dogs.

Pour Diablo III et DOTA 2, il s'agit surtout de corrections de bugs. Dans le cas du premier, le patch 2.01 posait un problème de ralentissements en SLI avec les réflexions activées dans le jeu, dans le second il s'agit de corriger des clignotements en SLI toujours. La liste complète des changements (qui inclut quelques modifications pour 3D Vision) est disponible dans les releases notes .

Le téléchargement s'effectue comme toujours en français sur le site du constructeur :
- Windows XP 32 bits 
- Windows XP 64 bits 
- Windows 7/8/8.1 32 bits 
- Windows 7/8/8.1 64 bits 

Le futur Direct3D dévoilé en mars, l'effet Mantle?

Publié le 27/02/2014 à 02:06 par Damien Triolet


C'était un secret de polichinelle depuis quelques temps, Microsoft prépare l'arrivée d'une nouvelle mouture de DirectX et de son API graphique Direct3D. Les premières annonces se feront à la Game Developer Conference (GDC) qui aura lieu du 17 au 21 mars à San Francisco. Comme les années précédentes, nous avons d'ailleurs prévu d'être sur place, d'autant plus en sachant que des choses importantes devraient y être dévoilées autour des API graphiques.

Il ne fait aucun doute que Microsoft va réorienter Direct3D vers une réduction massive du coût CPU des commandes de rendu, AMD ayant ouvert la voie vers cela avec Mantle. Il y a dorénavant une demande importante de la part des développeurs et des possibilités à ce niveau en OpenGL qui pourraient être exploitées par Steam OS. Pour garder le contrôle, Microsoft se devait de réagir.

La plupart des informations à ce sujet sortiront des sessions du jeudi 20 mars :

DirectX: Evolving Microsoft's Graphics Platform (Presented by Microsoft) 
DirectX Advancements in the Many-Core Era: Getting the Most out of the PC Platform (Presented by NVIDIA) 
Approaching Zero Driver Overhead in OpenGL (Presented by NVIDIA) 
DirectX: Direct3D Futures (Presented by Microsoft) 

L'intitulé de cette dernière cession est d'ailleurs très clair concernant les orientations du prochain Direct3D :
Come learn how future changes to Direct3D will enable next generation games to run faster than ever before!

In this session we will discuss future improvements in Direct3D that will allow developers an unprecedented level of hardware control and reduced CPU rendering overhead across a broad ecosystem of hardware.

If you use cutting-edge 3D graphics in your games, middleware, or engines and want to efficiently build rich and immersive visuals, you don't want to miss this talk.
Il est intéressant d'observer qu'AMD prendra part à la session sur le surcoût CPU en OpenGL de Nvidia (les équipes de développements de ces deux concurrents arrivent à s'entendre!), alors que c'est avec Oxide Games, qui propose la démo Mantle Star Swarm, que Nvidia s'est associé pour parler de la bonne exploitation des CPU multicores.

Une fois que nous en saurons plus sur ce que ce sera ce futur Direct3D, il restera à voir qui tirera le mieux parti de ce futur Direct3D, l'avantage alternant souvent entre AMD et Nvidia. D'un côté certains pourraient se dire qu'avec Mantle, AMD a irrité Microsoft qui pourrait être tenté de favoriser Nvidia. C'est possible, mais d'un autre côté AMD a également enlevé une épine du pied au père de Windows en lui donnant un prétexte pour une évolution plus radicale face à laquelle certains pouvaient peut-être trainer des pieds. L'expérience de Mantle est par ailleurs une bonne base de travail et de réflexion pour Microsoft, de quoi l'aider à bouger plus rapidement pour ne pas laisser d'avantage au couple OpenGL et Steam OS.

Dossier : Nvidia GeForce GTX 750 Ti & GTX 750 : Maxwell fait ses débuts

Publié le 26/02/2014 à 18:51 par Damien Triolet

Avec les GeForce GTX 750, c'est par l'entrée de gamme que Nvidia introduit sa nouvelle architecture Maxwell. Au menu, un rendement énergétique en nette hausse et des cartes compactes. De quoi changer la donner à 100-150€ ?

[+] Lire la suite

Parts de marché GPU T4 2013

Tags : AMD; Intel; Nvidia;
Publié le 19/02/2014 à 15:33 par Marc Prieur

John Peddie Research  a publié son analyse du marché graphique PC pour le quatrième trimestre 2013. Il en ressort qu'Intel reste logiquement leader grâce à ses iGPU (hors serveurs, 99% de leurs CPU en intègrent), avec pas moins de 65,1% du marché contre 62,9% au T3 2013 et 63% au T4 2013.


Ces estimations de Jon Peddie Research regroupent les ventes de PC desktop, mobiles, et tablettes x86. Les serveurs sont exclus.

Egalement aidé par les iGPU qui sont intégrés dans 67% des processeurs qu'il a vendus (hors serveurs), AMD conserve la seconde place avec 18,3% de part de marché, un chiffre en baisse par rapport au trimestre précédent (20,7%) et il y a un an (19,7%). La baisse séquentielle provient de mauvais résultats sur les portables, avec des baisses de 26,7% côté APU et 6,7% en GPU, alors que côté desktop les hausses sont de 15 et 1,8%.

Nvidia est le dernier du trio avec 16,6% du marché, soit une légère hausse par rapport au trimestre précédent (16,3%) mais une baisse sur un an (16,8%). Comme chez Intel ce gain sur un trimestre est lié à une hausse des volumes équilibrée entre portables et pc de bureau.

Au global les ventes de GPU/iGPU se portent assez bien, avec une hausse de 1,6% séquentiellement et de 2% sur un an. Pour les GPU additionnels seuls, la hausse de volume est de 1,5% séquentiellement et de 2,4% sur un an. 66% des machines n'ont pas de GPU additionnel et au global le nombre de GPU par machine est de 1,37. Cela signifie donc que sur les 34% de machines restantes il y a environ 2,1 GPU par machine… mais pas forcément un SLI et un CrossFire, qui doit représenter plus ou moins de 1% du marché, mais plutôt un iGPU et un GPU. Il y a 6 mois, le taux de GPU par machine était "quasiment de 1,4" : puisque la part de CPU AMD et Intel avec iGPU n'a pas évolué, de plus en plus de machines se passent logiquement d'un GPU additionnel.

Top articles