Les derniers contenus liés au tag Kepler

Afficher sous forme de : Titre | Flux Filtrer avec un second tag : GeForce; GeForce 600; GK110; GPGPU; GTC; Maxwell; Nvidia; Quadro; Tegra; Tesla;

GTC: GeForce GTX Titan Z, 3000$, bi-GK110 en avril

Publié le 25/03/2014 à 19:03 par Damien Triolet
Commentaires (131) RéactionsEnvoyer Imprimer


Nvidia profite de la GTC pour annoncer la GeForce GTX Titan Z. Le fabricant explique avoir été surpris par le succès des GeForce GTX Titan et GTX Titan Black, malgré leur tarif de 1000$ / 1000€, autant auprès des joueurs (fortunés) qu'auprès des amateurs de GPU computing qui ont besoin d'un maximum de puissance de calcul mais ne désirent pas investir dans des cartes Quadro ou Tesla. Dans ce cas, les GeForce GTX Titan s'intercalent ainsi assez bien entre les GeForce classiques et les cartes professionnelles.

Nvidia retente l'expérience avec la GeForce GTX Titan Z qui reprend le principe des cartes GTX Titan précédentes mais passe au bi-GPU. Elle est équipée de 2 GPU GK110 totalement fonctionnels pour un total de 5760 unités de calcul FMA 32-bit et 1920 unités de calcul FMA 64-bit. De quoi atteindre une puissance de calcul de 8 Tflops en simple précision. Chaque GPU dispose de sa propre mémoire de 6 Go interfacée en 384-bit et le système de refroidissement reprend le design haut de gamme cher à la marque. Il a cependant été quelque peu musclé pour l'occasion et semble passer de 2 à 2.5 slots d'épaisseur.


Par rapport à une GeForce GTX 690 en bi-GK104 (300W), le TDP a vraisemblablement dû être revu à la hausse mais Nvidia ne donne pas de précision à ce sujet. 350W ? 400W ? Nous ne devrions pas tarder à en savoir plus puisque la disponibilité est annoncée pour début avril avec un tarif de… 3000$ ! Il s'agit d'un nouveau record pour une carte non-issue d'une gamme professionnelle et nous sommes curieux de savoir si cette GeForce GTX Titan Z pourra réellement trouver son public, aussi réduit soit-il...

Nvidia lance les GeForce 800M avec Battery Boost

Publié le 12/03/2014 à 18:54 par Damien Triolet
Commentaires (22) RéactionsEnvoyer Imprimer

Après l'arrivée plus ou moins discrète de la GeForce 820M, Nvidia présente une famille GeForce 800M complète. Au menu de ce mélange de générations Maxwell, Kepler et même Fermi, des hausses de fréquences et l'introduction du système Battery Boost pour réduire la consommation en mode nomade.


C'est devenu une habitude chez Nvidia, en dehors de quelques renommages qui interviennent en décembre ou janvier, c'est en mars, juste avant l'arrivée du printemps qu'est introduite la nouvelle famille de GPU mobiles. Après les GeForce 600M et 700M, nous passons ainsi aux GeForce 800M. Il ne faut pas chercher de lien entre cette dénomination commerciale et une génération technologique, cela fait quelques temps déjà que les deux ne sont plus liées, raison pour laquelle 3 générations prennent part à cette famille de cartes graphiques.

Nvidia insiste fortement sur son écosystème logiciel dont GeForce Experience est devenu la pierre angulaire. Pour rappel, à sa base il permet de configurer automatiquement les jeux suivant des paramètres prédéfinis par Nvidia qui effectue des batteries de tests en interne pour déterminer le meilleur compromis pour chacun de ses GPU. De quoi permettre au néophyte de ne passer par le panneau d'options graphiques de jeux tout en profitant de réglages plus adaptés aux possibilités de sa machine. GeForce Experience a par la suite intégré ShadowPlay, pour enregistrer et diffuser des séquences de jeu, et GameStream, pour pouvoir jouer sur son PC depuis la console Shield.

Une nouvelle fonctionnalité propre aux GeForce 800M fait son apparition : Battery Boost. Sous cette appellation, Nvidia a implémenté différentes options qui permettent de limiter la consommation des portables en phase de jeu. L'option principale est un limiteur de fps, par défaut à 30 fps mais configurable, qui associé avec le mécanisme de contrôle du GPU permet à ce dernier de tourner à une fréquence/tension réduite. Un compromis fluidité (quoique la régularité à 30 fps peut être appréciable) contre consommation qui autorise des économie d'énergie substantielles.


Il était déjà possible de faire de même avec d'autres outils sur les GPU précédents, mais Battery Boost permet à cette option de s'enclencher automatiquement (sauf quand le jeu est déjà lancé) quand le portable passe sur sa batterie. Nvidia indique aller plus loin que le simple limiteur de fréquence, à travers des "algorithmes innovants" mais sans donner plus de détails. La réduction de fréquence pourrait par exemple être plus agressive à moins qu'il ne s'agisse de l'activation d'une autre possibilité de Battery Boost : réduire la qualité graphique en mode batterie (là aussi le tout est configurable jeu par jeu, option par option). Le GPU travaille alors moins et consomme moins. En résumé, Battery Boost permet de conserver les pleines performances quand l'alimentation est raccordée mais d'étendre l'autonomie quand le portable est sur batterie, à travers divers compromis.

L'aspect logiciel étant traité, passons à la partie matérielle :


Sur le haut de la gamme, nous retrouvons le GPU GK104, génération Kepler, qui sévit depuis près de 2 ans, en tant que GeForce GTX 600M puis GeForce GTX 700M et maintenant GeForce GTX 800M. Il profite à chaque fois d'une sélection et d'une configuration plus précises, ce qui permet à Nvidia de pousser les fréquences. Le GK106, par contre utilisé dans de nombreuses GeForce GTX 700M disparaît de la gamme.

La GeForce GTX 880M profite d'une fréquence GPU (de base, Nvidia ne communique aucune fréquence turbo) en hausse de 15% par rapport à la GeForce GTX 780M. A noter que cette carte graphique mobile pourra exister en version 2 Go GDDR5, mais également en version 4 Go GDDR5 peu utile et surtout en version spéciale "piège à pigeon" avec 8 Go GDDR5. Eurocom a d'ores et déjà annoncé intégrer cette version dans le X7, voire même en SLI avec 16 Go de GDDR5 au total !

La GeForce GTX 870M, qui devrait cette fois se contenter de 3 Go de GDDR5, représente une grosse évolution par rapport à la GTX 770M puisqu'elle utilise un GPU plus costaud, le GK104 au lieu du GK106. La GTX 860M "A" devrait pour sa part se rapprocher de cette GTX 770M. Elle exploite elle aussi le GK104 mais massivement castré, notamment au niveau de son interface mémoire limitée de 256 à 128-bit. Nous devons malheureusement préciser version "A" puisque Nvidia a eu la très mauvaise idée de proposer deux cartes graphiques totalement différentes sous cette même appellation.


Dans le milieu de gamme, la nouvelle génération Maxwell, introduite sur PC de bureau avec les GeForce GTX 750 et 750 Ti, fait cette fois son apparition. Nous retrouvons le GPU GM107 dans la variante "B" de la GeForce GTX 860M. Par rapport à la variante "A" en génération Kepler, la puissance de calcul est en nette baisse, mais il est important de rappeler que la génération Maxwell exploite mieux les ressources disponibles. Sur base de nos observations avec les GeForce GTX 750, nous estimons que les performances pratiques seront proches entre les 2 versions de la GTX 860M. La seconde devrait par contre être plus efficace sur le plan énergétique. Malheureusement, Nvidia a estimé préférable que le consommateur ne puisse pas faire de différence à ce niveau.

La GeForce GTX 850M est similaire à la GTX 860M "B" mais avec une fréquence GPU revue à la baisse. La tension devrait avoir suivi le même chemin ce qui devrait en faire une carte graphique mobile au rendement énergétique particulièrement intéressant. Le gain de performance sera important par rapport aux GTX 755M et GTX 750M qui étaient équipées d'un GPU nettement moins véloce mais tout aussi gourmand.


Enfin, dans le bas de la gamme nous retrouvons tout d'abord la GeForce 820M, déjà disponible. Etonnamment, il s'agit d'un ancien GPU de la génération Fermi que nous pensions abandonnée. Ce GPU a selon nous peu d'intérêt par rapport aux solutions graphiques intégrées aux CPU. A noter que Nvidia abandonne le préfixe GT en entrée de gamme.

Plus intéressant, Nvidia introduit les GeForce 840M et 830M basées sur un nouveau GPU Maxwell : le GM108. Nous n'en saurons pas plus à leur sujet, Nvidia refuse de communiquer les spécifications de ces produits en estimant que le consommateur peut se contenter de faire confiance à son estimation : un indice de performances de 3.5 à 5x en comparaison au HD Graphics 4400 d'Intel. Dans l'immédiat, nous vous conseillerons de ne pas faire confiance à ces accélérateurs graphiques tant que leurs spécifications ne seront pas connues. Ils pourraient tout aussi bien représenter une solution d'entrée de gamme intéressante qu'une taxe Maxwell avec autocollant GeForce sans plus-value utile par rapport aux GPU intégrés. C'est à Nvidia de le démontrer et pas au consommateur de lui faire confiance en achetant des spécifications surprises.

Ceci étant dit, sur le plan de l'architecture, nous supposons que ce GPU GM108 est similaire au GK208, bus 64-bit, bus PCI Express 8x, mais avec 2 ou 3 SMM Maxwell (256 à 384 unités de calcul) à la place de 2 SMX Kepler (384 unités de calcul moins efficaces). Nous confirmerons cela dès que possible.

La grosse limitation de ces GeForce 840M/830M semble venir du bus mémoire limité à la DDR3 pour tous les modèles. Il est possible que Nvidia ait simplifié ses contrôleur mémoire en supprimant le support de la GDDR5 mais également que ce support soit bien là mais non utilisé. En 64-bit, implémenter 2 Go de GDDR5 coûte relativement cher puisqu'il faut avoir recours aux modules de plus haute densité du moment. Se contenter de 1 Go de GDDR5 serait une bonne idée, malheureusement difficile à vendre au grand public par rapport à 2 Go de DDR3.

Au final, la GeForce GTX 850M semble être le dérivé le plus intéressant de la gamme et Battery Boost est une fonction bienvenue qui permettra aux joueurs de faire quelques compromis pour gagner en autonomie. Nous somme par contre déçus de ne pas retrouver de variante mobile de G-Sync annoncée avec ces GeForce 800M, probablement parce que Nvidia peut plus difficilement imposer une solution propriétaire quand la coopération d'Intel est nécessaire. Rappelons que ce sont les GPU intégrés HD/Iris Graphics qui pilotent l'affichage sur la plupart des plateformes via Optimus.

Titan Black, le retour de la carte à 1000 Euros

Publié le 18/02/2014 à 15:21 par Marc Prieur
Commentaires (49) RéactionsEnvoyer Imprimer

Comme prévu, Nvidia annonce ce jour la GeForce Titan Black. Quasiment un an après la GeForce GTX Titan et après les 780 et 780 Ti, il s'agit de la 4è déclinaison de GeForce basée sur le GK110.


Cette version dispose des avantages de la GeForce GTX Titan (6 Go, pas de bridage en double précision) et de ceux de la GeForce GTX 780 Ti (toutes les unités actives, GDDR5 7 Gbps), il s'agit donc de la première carte exploitant pleinement le GK110… pour la bagatelle de 1000 €. Elle reprend par ailleurs le design déjà utilisé par Nvidia pour ses dernières cartes haut de gamme, si ce n'est une touche de noir ajoutée au refroidissement.


A ce tarif il est clair que cette carte est fort chère pour son seul côté ludique, par contre elle pourrait intéresser ceux qui ont besoin de sa puissance de calcul en double précision (pour une application CUDA par exemple) sans pour autant avoir besoin d'acquérir les encore plus onéreuses Quadro et Tesla à base de GK110. L'évolution reste toutefois mineure en un an, preuve de la stagnation des GPUs sur les 12 derniers mois.

La GTX Titan Black mardi prochain ?

Publié le 12/02/2014 à 13:07 par Marc Prieur
Commentaires (44) RéactionsEnvoyer Imprimer

En sus des GeForce GTX 750 et 750 Ti, Nvidia devrait lancer une autre carte la semaine prochaine selon nos confrères de Videocardz.com : la GeForce GTX Titan Black, qui débarquera plus exactement mardi prochain.


En attendant les spécifications officielles les rumeurs font état, comme le GeForce GTX 780 Ti, d'un GK110 complet mais associé à 6 Go de mémoire GDDR5 et sans bridage au niveau des performances de calcul double précision.

Pour rappel sur les GeForce GTX 780/780 Ti les unités de calcul double précision du GK110 sont cadencées à une fréquence 8x moindre que celle des unités de calcul classique. Le prix n'est pas non plus confirmé, même si les rumeurs font état de 999$ comme c'était le cas de la Titan initiale qui ne disposait "que" de 14 SMX actifs sur les 15 sur GK110.

Il parait évident que seuls ceux qui ont besoin de l'aspect double précision, spécifiquement chez Nvidia (pour une application CUDA par exemple) auront un intérêt dans cette carte qui sera bien moins onéreuse - comme quoi tout est relatif - que les cartes Quadro et Tesla basées sur la même puce.

Focus : Nvidia Tegra K1 et son GPU Kepler : les details

Publié le 06/01/2014 à 15:20 par Damien Triolet
Commentaires (13) RéactionsEnvoyer Imprimer

Enfin, après plusieurs générations de SoC basés sur un GPU à l'architecture vieillissante, Nvidia intègre un GPU digne de ce nom. Exit le GeForce ULP et place à Kepler pour le futur Tegra K1 ! Le Tegra K1 v1 Il a souvent été fait référence au nouveau SoC de Nvidia, nom de code Logan, en tant que Tegra 5, succession logique au Tegra 4. Nvidia a cependant décidé que la rupture d'architecture qui l'accompagne devait se refléter dans le nom du produit qui sera ainsi officiellement...

[+] Lire la suite


Top articles