Les contenus liés au tag Nvidia

Afficher sous forme de : Titre | Flux Filtrer avec un second tag : AMD; ASUS; Fermi; GeForce; GTC; Intel; Kepler; Maxwell; Pascal; Pilotes GeForce;

Dossier : AMD Radeon HD 7790 et GeForce GTX 650 Ti Boost en test

Publié le 22/03/2013 à 05:30 par Damien Triolet

La famille Radeon HD 7000 s'agrandit avec l'arrivée du nouveau GPU Bonaire et de la Radeon HD 7790, qui pour moins de 150€ fait réagir la concurrence avec une baisse de prix et l'arrivée de la GeForce GTX 650 Ti Boost...

[+] Lire la suite

GTC: GRID VCA: Nvidia et la virtualisation

Tags : GRID; GTC; Nvidia;
Publié le 21/03/2013 à 03:55 par Damien Triolet

Lors de la GTC 2012, Nvidia avait dévoilé les solutions VGX et GeForce GRID dédiées à la virtualisation des GPU respectivement dans les domaines de l'entreprise et du jeu PC en parlant autant de solutions tout-en-un que de composants et de couches logicielles. Un petit peu floue, la stratégie de Nvidia a été simplifiée et réorganisée autour de la marque GRID, ce qui a impliqué plusieurs changements de noms :

GRID for Gaming englobe tout ce qui concerne le cloud gaming
GRID for Enterprise englobe tout ce qui concerne la virtualisation en entreprise
GRID K1 et GRID K2 représentent les noms des 2 premiers accélérateurs graphiques
GRID VGX est le nom de la couche de virtualisation : hyperviseur + VDI

GRID K1 intègre pas moins de 4 GPU GK107 mais se contente d'un TDP de 130W. Ces GPU sont partiellement castrés et seule la moitié de leurs unités de calcul sont actives, soit 192 par GPU et 768 au total. Chacun est équipé de sa propre mémoire de 4 Go.

GRID K2 est de son côté basé sur 2 GPU GK104, plus véloces. Le TDP passe à 225W (avec une option à 250W) et si la mémoire est également de 4 Go par GPU, ils disposent par contre chacun de 1536 unités de calcul, pour un total de 3072, et sont ainsi adaptés au cloud gaming en plus de la virtualisation graphique en entreprise.


L'an passé, Nvidia annonçait que l'hyperviseur GRID VGX était capable de profiter des 32 accès concurrents possibles sur chaque GPU Kepler pour supporter un nombre très élevé d'utilisateurs, soit une centaine sur GRID K1. En pratique, VGX sous cette forme n'est cependant pas encore prêt. L'infrastructure de bureaux virtuels (VDI) maison est par contre fonctionnelle et actuellement exploitée avec une solution temporaire (1.0) moins évoluée qui consiste à dédier un GPU à chaque machine virtuelle. En d'autres termes, un seul utilisateur par GPU est supporté. La solution VGX complète (2.0) est cependant en cours de finalisation et sera déployée dès qu'elle aura été validée. Rappelons que la VDI de Nvidia profite de l'encodeur vidéo intégré dans les GPU Kepler pour sortir directement de ceux-ci un flux h.264 qui n'a plus qu'à être transféré vers le poste client, un avantage important en terme d'efficacité.

Ce point étant fait, passons à la nouveauté présentée lors de la GTC 2013 : GRID VCA pour Visual Computing Appliance. GRID VCA est un serveur de virtualisation dédié aux réseaux internes et le premier produit tout-en-un qui sera commercialisé par Nvidia. Il s'agit en quelque sorte de la transformation en produit fini Nvidia d'une variante de GRID for Enterprise prévue pour les applications graphiques lourdes (Autodesk, 3dsmax etc.) avec une licence Quadro USM (User-Selectable Machines) qui active les optimisations des pilotes pour les applications professionnelles ainsi que le support de CUDA. Intégré dans le réseau local, ce serveur permet à n'importe quel poste client de se transformer en station de travail.


Au niveau matériel, GRID VCA est un serveur 4U qui repose sur une plateforme Intel 2P, deux Xeon 8 cores / 16 threads (dont le modèle exact n'est pas précisé par Nvidia), 384 Go de mémoire et 8 cartes GRID K2 (soit 16 GPU GK104 chacun équipé de 4 Go de mémoire vidéo). Une configuration moins musclée est également proposée et se contente d'un seul Xeon, de 192 Go de mémoire et de 4 cartes GRID K2.

Actuellement, la configuration maximale peut supporter jusqu'à 16 utilisateurs alors que la configuration réduite se contente de 8 utilisateurs en simultané. Dès que l'hyperviseur GRID VGX aura été validé et déployé, ces limites seront bien entendu revues à la hausse à travers une mise à jour logicielle.

A partir de la fin du printemps ou du début de l'été, GRID VCA équipé de 8 GRID K2 sera commercialisé au tarif de 39.900$ alors que la version qui se contente de 4 GRID K2 sera proposée à 24.900$. Outre le matériel, il faudra s'acquitter annuellement d'une licence logicielle Nvidia qui reviendra à 4.800$ pour la première configuration et à 2.400$ pour la seconde. Cette licence comprend l'utilisation de la couche logicielle Nvidia (virtualisation et VDI), toutes les mises à jour, la maintenance et un support complet.

Nvidia qui dispose ici d'une solution unique sur le marché, ne compte bien entendu pas s'arrêter là et si ces premiers serveurs de virtualisation graphique trouvent leur public, la famille GRID VCA s'agrandira progressivement. Nous pouvons ainsi supposer qu'une version équipée en GPU GK11x pour profiter de toutes les évolutions de CUDA est au programme.

GTC: FaceWorks: rendu de visage réaliste

Tags : FaceWorks; GTC; Nvidia;
Publié le 20/03/2013 à 07:35 par Damien Triolet

Au début de la keynote d'ouverture de la GTC, le CEO de Nvidia, Jen-Hsun Huang, a présenté une nouvelle démo technologique plutôt impressionnante. Elle s'attaque à une tâche complexe : le rendu du visage humain.


Si la partie graphique est très évoluée, il est question de pixels shaders de plus de 8000 instructions pour l'éclairage qui prend en compte la diffusion sous-cutanée ou encore la réflexion partielle sur la transpiration, c'est la représentation des mouvements et des micro-mouvements qui représente ici le challenge. Dénommée FaceWorks, la technologie de Nvidia a été développée en collaboration avec l'Institute for Creative Technology de l'USC et se base sur des prototypes de systèmes de capture de mouvements extrêmement précis (au dixième de millimètre).

Ceux-ci génèrent une quantité énorme de données : Nvidia parle de 32 Go pour une poignée d'expression. Impossible pour un GPU de travailler sur une telle base. FaceWorks consiste à organiser les composantes de ces expressions sous forme de textures, de les compresser et de détecter les similitudes avec d'autres expressions pour en supprimer les données superflues. Avec une perte de fidélité limitée, Nvidia parvient à passer de 32 Go à 400 Mo de données et rend ainsi leur utilisation viable.

Pour observer la qualité de l'animation du visage, nous vous conseillons de jeter un coup d'œil au segment de la keynote qui concerne FaceWorks, avec un visage rendu et animé en temps réel sur une GeForce GTX Titan. Notez pour l'anecdote qu'AMD ne manquera probablement pas de faire remarquer à Nvidia que son personnage manque de cheveux !

GTC: CUDA on ARM: Tegra 3 + Tesla K20

Publié le 20/03/2013 à 06:51 par Damien Triolet

En plus des plateformes CUDA on ARM destinées à simuler de futurs SoC que ce soit pour une utilisation de type périphérique mobile grand public ou de type micro-serveur, des développements se font également autour d'accélérateurs très puissants tels que les Tesla K20.

C'est le cas chez l'européen PRACE qui développe des systèmes dédiés au supercomputing et s'intéresse à CUDA on ARM depuis quelques temps. En collaboration avec le Barcelona Supercomputing Center, PRACE est en train de mettre au point une plateforme ARM équipée en GK110 : Pedraforca v2. Celle-ci est composée d'une carte mini-ITX sur laquelle prend place un module Q7 Tegra 3 dont 4 des lignes PCI Express 2.0 sont connectées à un switch PLX PCI Express 3.0 sur lequel vont venir se greffer un accélérateur Tesla K20 et une carte contrôleur InfiniBand 40 Gbps.


Cette plateforme a la particularité de ne pas rechercher la complémentarité entre les cores CPU et GPU. Grossièrement, le but est d'utiliser le SoC ARM uniquement pour activer un système CUDA plus ou moins indépendant. C'est la raison pour laquelle le Tesla K20 est associé à un contrôleur InfiniBand sur un même switch PCI Express 3.0 : ils peuvent ainsi communiquer très rapidement avec les accélérateurs d'autres nœuds en ignorant autant que possible la communication avec les SoC et leurs mémoires.

Les développeurs de Pedraforca v2 sont bien conscients qu'une telle approche n'est pas une solution de remplacement générale à un système CUDA classique et se contentera de répondre avantageusement à un sous-ensemble de problématiques : si un problème massivement parallèle peut être résolu sans CPU, autant réduire l'encombrement et la consommation de celui-ci.

Une telle solution permet par ailleurs de simuler le comportement de futurs GPU haut de gamme qui pourraient intégrer un ou plusieurs cores ARMv8 Denver pour gagner en indépendance. De quoi commencer à préparer des algorithmes qui leur seront adaptés ?

GTC: CUDA on ARM: Kayla, Tegra 3 et GK208

Tags : ARM; CUDA; GK208; GTC; Kepler; Nvidia;
Publié le 20/03/2013 à 02:22 par Damien Triolet

Nvidia l'a enfin confirmé, CUDA arrivera enfin dans les SoC Tegra avec Logan. Cela ne veut pas dire pour autant que CUDA sur plateforme ARM doit attendre. Il s'agit d'un point important de la stratégie de Nvidia pour son futur autant dans le monde professionnel que grand public. C'est la raison pour laquelle, depuis quelques temps déjà, Nvidia s'est associé à SECO pour proposer un kit de développement dénommé CARMA. Pour 529€, la plateforme propose un connecteur Q7 qui reçoit un SoC Tegra 3 (T30 à 1.3 GHz) et un connecteur MXM sur lequel prend place une Quadro 1000M de génération Fermi (GF108 avec 96 cores).


Tout cela va évoluer à partir du mois de mai, d'une part avec une couche logicielle qui supportera Ubuntu 12.04 et CUDA 5.0, et d'autre part avec la plateforme KAYLA, toujours développée en partenariat avec SECO, et qui existera en 2 versions : connecteur MXM ou PCI Express (câblés en 4x dans les 2 cas). Si nous aurions pu supposer que le SoC passerait en version Tegra 4, c'est bel et bien le Tegra 3 T30 qui reste exploité pour la simple et bonne raison que ses successeurs ne disposent plus de liens PCI Express. La différence (unique ?) entre les 2 cartes concerne les GPU supportés. La version PCI Express en supporte un large choix et la version MXM est annoncée être équipée d'un GPU Kepler de next generation.

Nvidia indique à ce sujet que ce GPU dispose de 2 SMX (384 cores), supporte les compute capabilities 3.5 (Dynamic Parallelism etc.) et est très proche du niveau de fonctionnalité du futur SoC Logan. Nous apprenons ainsi que le GPU de cette plateforme et celui de Logan disposent d'un processeur de commande plus évolué que sur les premiers GPU de la génération Kepler, dérivé de celui du GK110 (Tesla K20 et GTX Titan).


De toute évidence ce GPU est ainsi le GK208 qui prendra place dans les GeForce 700 d'entrée de gamme. Une supposition renforcée par un panneau de contrôle des pilotes Linux que Nvidia a malencontreusement oublié de masquer pendant quelques secondes et qui fait référence à un nom de code produit : D15M2-20. Cela correspond à la famille GeForce 700 desktop (D12 = GeForce 400, D13 = GeForce 500, D14 = GeForce 600…).


Cette plateforme CUDA on ARM continuera bien entendu à évoluer, tout d'abord avec CUDA 5.5 qui intégrera un compilateur CUDA pour l'architecture ARM, et plus tard avec l'arrivée de Logan et de Parker.

Correction du 01/07/2013: le nom du GPU que nous pensions être GK117 est en réalité GK208.

Top articles