Les contenus liés aux tags Kepler et GeForce
Afficher sous forme de : Titre | Flux
GeForce GTX 670 : Les cartes des partenaires
Dossier: Nvidia GeForce GTX 670 en test
Dossier: Nvidia GeForce GTX 690 : la carte à 1000€ en test !
Nvidia lance la GeForce GTX 690
Nouvelles GeForce 600M : Fermi et Kepler
Après la 660 Ti, voici la GeForce 660... OEM !
Dossier: Nvidia GeForce GTX 660 Ti, Asus DirectCU II TOP, EVGA SuperClocked et AMD Radeon HD 7950 v2 en test
Nvidia GeForce GT 640 DDR3 : Kepler abordable
Focus: Asus GeForce GTX 670 DirectCU II TOP en test
GTC: GeForce GRID: jouer depuis le cloud
Après la 660 Ti, voici la GeForce 660... OEM !
Nvidia a dévoilé sur son site web une nouvelle GeForce 600 basée sur un GK104, la GeForce 660 OEM . Cette quatrième déclinaison étend encore le champ d'action de ce GPU qui est donc utilisé aussi bien pour le milieu que le haut de gamme, une plage couverte par deux GPU chez AMD (Tahiti et Pitcairn) comme ce fut également le cas sur les générations précédentes chez Nvidia. Réservée aux OEMs pour le moment, elle utilise un GK104 avec deux SMX désactivés, contre un sur les 670 et 660 Ti (et 0 sur les 680).

On passe donc de 1344 unités de calculs et 112 unités de texturing à respectivement 1152 et 96. La fréquence est de 823 MHz de base et 888 MHz boost, contre 915 et 980 MHz sur les 660 Ti et 670. Il en résulte donc une puissance de calcul et de texturing en baisse de 22-23%.
Côté mémoire la GeForce 660 OEM conserve le bus mémoire 192 bits mais le côté asymétrique de la version 2 Go est abandonné au profit exclusif d'une configuration mémoire symétrique de 1.5 Go ou 3 Go. La fréquence mémoire de cette GDDR5 est revue à la baisse, les spécifications n'étant pas très claire à ce sujet : on passe de 6 Gbps à 5.8 Gbps (1450 MHz au lieu de 1500 MHz) mais la bande passante passe de 144.2 à 134 Go /s, ce qui correspond avec un bus 192 bits plutôt à 5.584 Gbps et 1396 MHz.
Le TDP baisse également, passant de 170 watts sur la GeForce 670 et 150 watts sur la GeForce 660 Ti à 130 watts pour cette GeForce 660 OEM. Ceci permet à la carte de n'être alimentée que part le port PCI-Express et un connecteur 6 broche additionnel.
Reste maintenant à voir si cette solution, qui devrait offrir environ 85% des performances d'une GeForce 660 Ti et se situer en face de la Radeon HD 7850, quittera le monde OEM dans les semaines qui viennent. Dans la positive, rien ne dit que les spécifications seront identiques.
Dossier : Nvidia GeForce GTX 660 Ti, Asus DirectCU II TOP, EVGA SuperClocked et AMD Radeon HD 7950 v2 en test
Nvidia démocratise Kepler avec l'arrivée de la GeForce GTX 660 Ti, très proche de la GTX 670. Nous en avons testé les versions de référence, Asus DirectCU II TOP et EVGA SuperClocked, sans oublier la nouvelle Radeon HD 7950...
[+] Lire la suite

Nvidia GeForce GT 640 DDR3 : Kepler abordable
Déjà décliné sur portables (GTX660M, GT650M, GT640M et GT630M) ou sur des cartes en version OEM (GT640, GT630), le GPU GK107 doté de l'architecture Kepler débarque sur les cartes graphiques classiques avec la GeForce GT 640. Cette version destinée à l'entrée de gamme n'a toutefois pas grand-chose à voir avec le GK104 puisque le nombre d'unités de calcul passe de 1536 à 384.

Cette déclinaison desktop fait appel à de la DDR3 en 128 bits cadencée à 891 MHz, comme c'est le cas de la GT640 OEM DDR3, mais le GPU passe à 900 MHz contre 797 MHz pour la version OEM. Le GT650M GDDR3 utilise une configuration proche avec un GPU à 950 MHz et de la GDDR3 à 900 MHz.
On notera que la version OEM la plus rapide, la GT 640 GDDR5 qui dispose d'un GPU à 950 MHz et de GDDR5 à 1,25 GHz (soit 2.8x plus de bande passante mémoire), n'est pas encore déclinée. C'est un peu dommage car avec son TDP de 65 watts et un prix conseillé de 99$, la GeForce GT 640 DDR3 devrait se positionner aux alentours de la Radeon HD 6670 GDDR5 en termes de performances, soit assez loin d'une Radeon HD 7750 qui n'est que 10$ plus onéreuse mais 40 à 50% plus rapide pour un TDP de 75 watts.
Focus : Asus GeForce GTX 670 DirectCU II TOP en test
Comme nous l'expliquions dans notre test de la GeForce GTX 670, son design de référence ne nous a pas convaincus, avec une finition inadaptée à une carte graphique haut de gamme. Qui plus est, le système de refroidissement sur notre échantillon de test, ainsi que sur celui de plusieurs confrères, était impacté par un problème de fabrication. Résolu rapidement selon Nvidia, il n'aurait pas impacté les cartes du commerce, ou très peu.
Reste que ce design de référence n'est pas...
[+] Lire la suite

GTC: GeForce GRID: jouer depuis le cloud
Avec la famille de GPU Kepler, Nvidia vise un nouveau marché : cloud computing. Nous vous avons déjà parlé du pan professionnel de cette stratégie avec VGX dédié à la virtualisation et nous abordons aujourd'hui l'autre partie : le cloud gaming.

Jouer à travers le cloud revient à transformer n'importe quel périphérique connecté en une combinaison écran / contrôleur de jeu. Toutes les informations de contrôle sont envoyées vers un serveur distant sur lequel le jeu va en réalité tourner. Chaque image calculée par ce serveur est renvoyée vers le client à travers un flux H.264. Les avantages sont multiples : plus besoin d'une puissance de calcul importante du côté du joueur, plus besoin de mettre à jour son matériel pour les nouveaux jeux, possibilité de jouer facilement depuis n'importe quel endroit et périphérique. De quoi révolutionner le petit monde du jeu vidéo.

En contrepartie, cela demande une infrastructure importante du côté des fournisseurs de service et surtout, jouer depuis le cloud augmente significativement la latence. Deux points noirs auxquels Nvidia indique s'attaquer avec GeForce GRID.
Au niveau de l'infrastructure, il faut savoir qu'en règle générale, actuellement, il faut un système/serveur par joueur connecté. Nvidia donne ainsi un exemple actuel de plateforme dédiée au cloud gaming pour laquelle chaque baie accueille 28 serveurs (1 CPU + un GPU) et permet donc de gérer jusqu'à 28 flux de jeu. GeForce GRID permet de faire grimper cette densité en intégrant 4 GPU par serveur. Avec 21 de ces serveurs par baie il est ainsi possible de supporter jusqu'à 84 flux de jeu. Ce n'est pas tout puisque cette approche permet selon Nvidia de faire baisser la consommation typique de 150 à 75W par flux de jeu, un exemple probablement d'un jeu pas trop lourd rendu en 720p.

Comment cela est-il possible ? Tout d'abord au niveau matériel, Nvidia commercialise une carte GeForce GRID qui est en réalité identique à la Tesla K10. Il s'agit d'une version serveur de la GeForce GTX 690, avec des fréquences revues à la baisse pour tenir dans un TDP de 250W, configurable en 225W si nécessaire. Une seule de ces cartes peut ainsi gérer 2 flux de jeu. Nvidia propose d'en placer une seconde dans chaque serveur et probablement d'utiliser sa couche logicielle de virtualisation pour gérer efficacement jusqu'à 4 flux. La présence d'un encodeur H.264 dédié dans les GPU Kepler permet par ailleurs à GeForce GRID de gérer d'un bout à l'autre la récupération des images dans le framebuffer et leur encodage dans un flux H.264, déchargeant totalement le système de cette tâche et libérant le ou les CPU pour gérer ces flux de jeu supplémentaires.

Et pour la latence ? Nvidia nous donne ici aussi un exemple : 166ms pour une console, 286ms pour le cloud gaming actuel et 161ms pour GeForce GRID, en précisant que la latence typique d'un PC récent dans ce cas serait de 75ms.

GeForce GRID gagne sur 3 points : le rendu, l'encodage et le réseau. Pour le rendu, Nvidia suppose qu'avec son GPU, les fournisseurs de service vont traiter les jeux à 60fps au lieu de 30fps, ce qui fait gagner 50ms de latence. Concernant l'encodage il passerait de 30 à 10ms alors que le décodage serait lui aussi plus rapide… sur un composant Tegra.
Enfin, le réseau deviendrait lui aussi beaucoup plus rapide. En creusant un peu, Nvidia précise cependant ne rien pouvoir faire à ce niveau, mais supposer que GeForce GRID grâce à sa densité plus élevée et son attrait supérieur par rapport au cloud gaming actuel, va inciter les fournisseurs à mettre en place de plus en plus de serveurs. En d'autres termes, Nvidia présume que la probabilité d'en trouver un près de chez vous va augmenter et que la latence sera ainsi réduite.
Derrière ces affirmations se cache en réalité le fait que la latence du réseau est un problème et que Nvidia ne peut rien y faire actuellement, mais espère qu'elle se réduira à l'avenir. Ce ne sont cependant que des projections. Nvidia indique explorer d'autres voies telles que d'inciter les fabricants de TV à proposer une entrée ethernet à faible latence d'affichage, celle-ci étant en général relativement très élevée sur les TV, notamment à cause des différents traitements d'image.
Lors d'une démonstration sur TV, un autre problème saute aux yeux : la qualité de l'encodage H.264. Comme nous l'avons expliqué dans cet article dédié, NVENC, l'encodeur matériel de Kepler, s'il est très rapide, ne brille pas spécialement par sa qualité en comparaison de solutions CPU. Dans une scène de combat très rapide cela donne rapidement une bouillie de pixel passable sur un smartphone mais indigne d'un grand écran.
Vous l'aurez compris, nous ne sommes pas encore convaincus par le cloud gaming, en dehors du jeu occasionnel sur petit écran. Latence et qualité sont encore loin de pouvoir concurrencer ce bon vieux PC et Nvidia doit utiliser quelques artifices pour mettre en avant sa solution GeForce GRID : comparaison à des consoles qui commencent à dater et suppositions sur une amélioration future de la latence des réseaux.
Les mauvaises langues diront que faute d'avoir pu obtenir une place dans une des futures consoles pour l'un de ses GPU, Nvidia tente une autre approche pour ne pas être exclu de votre TV. D'autres, plus optimistes, insisteront sur le fait qu'il ne s'agit que d'un premier pas, qui a l'intérêt de trouver un nouveau débouché pour les GPU haut de gamme qui en ont bien besoin. De quoi pérenniser leur existence… sur PC ?
Pour vous faire une idée sur le cloug gaming actuel, Gaikai propose gratuitement l'accès à des démos de quelques jeux PC, exécutées sur ses serveurs (classiques, sans GeForce GRID) et visualisées à travers un plugin pour votre navigateur internet. Le but étant à terme de proposer des jeux complets et de migrer vers des solutions plus efficaces telles que ce que promet Nvidia avec GeForce GRID.
