Les derniers contenus liés aux tags Volta et GV100

Une Titan V en jeux, ça donne quoi ?

Publié le 19/12/2017 à 10:30 par Marc Prieur

Nos confrères de PC Perspective  ont pu mettre la main sur une Titan V et se sont amusés à voir ce que ce monstre à 3000$ pouvait donner en jeu.

Ça devient une habitude chez Nvidia, on note pour commencer que la carte va bien au-delà de sa fréquence annoncée à 1200-1455 MHz puisqu'elle démarre vers 1700 MHz avant de se stabiliser vers 1550-1600 MHz en charge. A 1700 MHz la consommation est au niveau du TDP soit 250W, quand la fréquence baisse car la limite de température de 84°C est atteinte on est à 210-220W.

En pratique la carte est clairement la plus véloce à ce jour pour le jeu, avec jusqu'à 38% de mieux qu'une Titan Xp sous Hellblade en 2560x1440 (29% en 3840x2160). Toujours sous ce même titre, on est à +55/41% face à une GTX 1080 Ti, +97/88% face à une 1080 et +103/77% face à une Vega 64 Liquid. Les gains sont plus limités sous Dirt Rally (+6% en 1440p et +15% en 2160p face à une Titan Xp) alors que Sniper Elite 4 semble dans la moyenne (+22% et +16%).

Bien entendu si on met en parallèle ces gains avec la débauche de transistors du GV100, 76% de plus qu'un GP102, les performances peuvent s'avérer un peu décevantes. Ce serait oublier qu'il intègre des unités dédiées au GPGPU non utile en jeu (double précision ou tensor cores) qui lui font prendre le large dans des usages spécifiques. Il ne fait pas vraiment de doute qu'un "GV102" offrira un meilleur rapport performance/milliards de transistors pour ce qui est du jeu.

NVIDIA lance la Titan V, GV100 et 3000$

Publié le 08/12/2017 à 09:21 par Marc Prieur

Nvidia vient d'annoncer la Titan V, première carte non-Tesla basée sur le GV100 annoncé en mai 2017. Ce monstre de 21,1 milliards de transistors gravés en 12nm FFN par TSMC est ici cadencé à 1200/1455 MHz pour une puissance maximale de 15 TFlops en FP32, contre 1370 MHz pour une Tesla V100. Comme sur les Tesla, 80 des 84 SM sont actifs soit 5120 unités de calculs et 320 unités de texturing là ou une Titan Xp et son GP102 en embarque 3840 et 240. Le nombre de ROPs du V100 n'est toujours pas connu.

Côté mémoire alors qu'une Tesla V100 embarque 16 Go de HBM 1.75 Gbps en 4096-bit, la Titan V se "contente" de 12 Go à 1.7 Gbps soit une bande passante de 653 Go/s au lieu de 900 Go/s. Le TDP est inchangé à 250 watts, la carte étant alimentée par deux connecteurs PCIe, un 8 broches et un 6 broches. Contrairement au Tesla on dispose de sorties graphiques, trois DisplayPort et une HDMI.

 
 

La carte reprend le design traditionnel des cartes Founders Edition de Nvidia si ce n'est qu'on a droit pour 3000$ au doré. A noter que l'association de deux cartes, qui requiert un ou deux ponts NVLink à 600$, n'est pas disponible sur Titan V.

A défaut d'être abordable et même peut être intéressante pour d'autres usages que le calcul, l'arrivée de la Titan V devrait permettre de voir l'architecture Volta à l'oeuvre dans d'autres domaines. Reste que l'arrivée d'une Titan basée sur un GV100 et non pas sur un "GV102" n'est pas forcément le signe d'une arrivée rapide de Volta sur des GPU plus grand public, ce qui serait regrettable !

Nvidia dévoile le GV100: 15 Tflops, 900 Go/s

Publié le 10/05/2017 à 22:31 par Damien Triolet

Nvidia profite de sa GPU Technology Conference pour dévoiler quelques détails sur le GV100, le premier GPU de la génération Volta qui sera dédié au monde du calcul et en particulier de l'intelligence artificielle.

Comme c'est à peu près le cas chaque année, le CEO de Nvidia Jen Hsun Huang vient de profiter de la GTC pour dévoiler les grandes lignes du premier GPU de sa future génération Volta. Ce sera un monstre clairement orienté vers l'intelligence artificielle, un débouché qui monte en puissance pour les GPU Nvidia.

Le GV100 est le successeur direct du GP100 et reprend un format similaire : il s'agit d'une puce énorme placée sur un interposer avec 4 modules HBM2. Grossièrement c'est la même chose en mieux : plus gros et plus évolué.

Plus gros tout d'abord avec un GV100 qui profite de la gravure en 12 nm FFN de TSMC (personnalisé pour Nvidia) pour passer à 21.1 milliards de transistors, plus de 30% de plus que les 15.3 milliards du GP100. Malgré le passage au 12 nm, la densité ne progresse presque pas et le GV100 est énorme avec 815 mm² contre 610 mm² pour le GP100. Le 12 nm permet ici avant tout de pouvoir monter en puissance à consommation similaire.

Tout comme le GP100, le GV100 utilise des "demi SM" par rapport aux GPU grand public. Leur nombre passe de 60 à 84, ce qui représente 5376 unités de calcul. Ils restent répartis dans 6 blocs principaux, les GPC, ce qui laisse penser que Nvidia a tout misé sur un gain de puissance de calcul, sans trop toucher au débit de triangles ou de pixels qui étaient déjà à un niveau très élevé sur GP100.

Comme sur le GP100, ces SM sont capables de traiter différents niveau de précision : FP16 (x2), FP32 et FP64 (/2). Par ailleurs, Nvidia a ajouté quelques instructions spécifiques au deep learning et y fait référence en tant que tensor cores. Ils permettent aux algorithmes qui y feront appel de doubler la mise par rapport aux instructions 8-bits (produit scalaire avec accumulation) des GPU Pascal (sauf GP100) et du futur Vega d'AMD. A voir évidemment dans quelle mesure les différents algorithmes de deep learning pourront profiter de ces nouvelles instructions.

Nvidia en a profité pour améliorer le sous-système mémoire qui sera plus flexible pour demander moins d'efforts d'optimisation de la part des développeurs. Le cache L2 passe de 4 à 6 Mo et de la HBM2 Samsung plus rapide est exploitée mais qui restera au départ limitée à 4 Go par module soit 16 Go au total. Par ailleurs, le GV100 profite de 6 liens NV-Link de seconde génération (25 Go/s dans chaque direction) pour offrir une interface qui peut monter à 300 Go/s.

Le premier accélérateur qui profitera du GV100 est comme nous pouvions nous y attendre le Tesla GV100 qui sera initialement proposé dans un format de type mezzanine. Un tel module sera bien entendu gourmand mais Nvidia parle d'une enveloppe thermique maximale qui reste à 300W. Par ailleurs, deux modes énergétique seront proposé : Maximum Performance et Maximum Efficiency. Le premier autorise le GV100 à profiter de toute son enveloppe de 300W alors que le second limite probablement la tension maximale pour maintenir le GPU au meilleur rendement possible, ce qui a évidemment du sens pour de très gros serveurs.

Sur le Tesla GV100, le GPU sera amputé de quelques unités de calcul, pour faciliter la production seuls 80 des 84 SM seront actifs. Voici ce que cela donne :

Le Tesla GV100 augmente la puissance brute de 40% par rapport au Tesla GP100, mais ses différentes optimisations feraient progresser les performances en pratique de +/- 60% dans le cadre du deep learning selon Nvidia. La bande passante mémoire progresse un peu moins avec "seulement" +25%, mais le cache L2 plus important et diverses améliorations compensent quelque peu cela.

Le GV100 devrait devancer assez facilement le Vega 10 d'AMD, mais ce dernier devrait être commercialisé en version Radeon Instinct à un tarif nettement moindre que le Tesla GV100 et en principe plus tôt. Nvidia parle de son côté du troisième trimestre et de 150.000$ pour les premiers serveurs DGX-1 équipés en GV100 et de la fin de l'année pour les accélérateurs au format PCI Express. Nvidia proposera évidemment d'ici-là des versions mises à jour de ses logiciels, compilateurs et autres librairies dédiées au deep learning.

Top articles