Actualités cartes graphiques

Nvidia dévoile le GV100: 15 Tflops, 900 Go/s

Publié le 10/05/2017 à 22:31 par
Imprimer

Nvidia profite de sa GPU Technology Conference pour dévoiler quelques détails sur le GV100, le premier GPU de la génération Volta qui sera dédié au monde du calcul et en particulier de l'intelligence artificielle.

Comme c'est à peu près le cas chaque année, le CEO de Nvidia Jen Hsun Huang vient de profiter de la GTC pour dévoiler les grandes lignes du premier GPU de sa future génération Volta. Ce sera un monstre clairement orienté vers l'intelligence artificielle, un débouché qui monte en puissance pour les GPU Nvidia.

Le GV100 est le successeur direct du GP100 et reprend un format similaire : il s'agit d'une puce énorme placée sur un interposer avec 4 modules HBM2. Grossièrement c'est la même chose en mieux : plus gros et plus évolué.

Plus gros tout d'abord avec un GV100 qui profite de la gravure en 12 nm FFN de TSMC (personnalisé pour Nvidia) pour passer à 21.1 milliards de transistors, plus de 30% de plus que les 15.3 milliards du GP100. Malgré le passage au 12 nm, la densité ne progresse presque pas et le GV100 est énorme avec 815 mm² contre 610 mm² pour le GP100. Le 12 nm permet ici avant tout de pouvoir monter en puissance à consommation similaire.

Tout comme le GP100, le GV100 utilise des "demi SM" par rapport aux GPU grand public. Leur nombre passe de 60 à 84, ce qui représente 5376 unités de calcul. Ils restent répartis dans 6 blocs principaux, les GPC, ce qui laisse penser que Nvidia a tout misé sur un gain de puissance de calcul, sans trop toucher au débit de triangles ou de pixels qui étaient déjà à un niveau très élevé sur GP100.

Comme sur le GP100, ces SM sont capables de traiter différents niveau de précision : FP16 (x2), FP32 et FP64 (/2). Par ailleurs, Nvidia a ajouté quelques instructions spécifiques au deep learning et y fait référence en tant que tensor cores. Ils permettent aux algorithmes qui y feront appel de doubler la mise par rapport aux instructions 8-bits (produit scalaire avec accumulation) des GPU Pascal (sauf GP100) et du futur Vega d'AMD. A voir évidemment dans quelle mesure les différents algorithmes de deep learning pourront profiter de ces nouvelles instructions.

Nvidia en a profité pour améliorer le sous-système mémoire qui sera plus flexible pour demander moins d'efforts d'optimisation de la part des développeurs. Le cache L2 passe de 4 à 6 Mo et de la HBM2 Samsung plus rapide est exploitée mais qui restera au départ limitée à 4 Go par module soit 16 Go au total. Par ailleurs, le GV100 profite de 6 liens NV-Link de seconde génération (25 Go/s dans chaque direction) pour offrir une interface qui peut monter à 300 Go/s.

Le premier accélérateur qui profitera du GV100 est comme nous pouvions nous y attendre le Tesla GV100 qui sera initialement proposé dans un format de type mezzanine. Un tel module sera bien entendu gourmand mais Nvidia parle d'une enveloppe thermique maximale qui reste à 300W. Par ailleurs, deux modes énergétique seront proposé : Maximum Performance et Maximum Efficiency. Le premier autorise le GV100 à profiter de toute son enveloppe de 300W alors que le second limite probablement la tension maximale pour maintenir le GPU au meilleur rendement possible, ce qui a évidemment du sens pour de très gros serveurs.

Sur le Tesla GV100, le GPU sera amputé de quelques unités de calcul, pour faciliter la production seuls 80 des 84 SM seront actifs. Voici ce que cela donne :

Le Tesla GV100 augmente la puissance brute de 40% par rapport au Tesla GP100, mais ses différentes optimisations feraient progresser les performances en pratique de +/- 60% dans le cadre du deep learning selon Nvidia. La bande passante mémoire progresse un peu moins avec "seulement" +25%, mais le cache L2 plus important et diverses améliorations compensent quelque peu cela.

Le GV100 devrait devancer assez facilement le Vega 10 d'AMD, mais ce dernier devrait être commercialisé en version Radeon Instinct à un tarif nettement moindre que le Tesla GV100 et en principe plus tôt. Nvidia parle de son côté du troisième trimestre et de 150.000$ pour les premiers serveurs DGX-1 équipés en GV100 et de la fin de l'année pour les accélérateurs au format PCI Express. Nvidia proposera évidemment d'ici-là des versions mises à jour de ses logiciels, compilateurs et autres librairies dédiées au deep learning.

Résultats Nvidia : +48% avec Nintendo et les datacenter

Tags : Nvidia; Résultats;
Publié le 10/05/2017 à 20:58 par
Imprimer

NVIDIA Logo 2010Nvidia vient de nouveau d'annoncer d'excellents résultats financiers pour son trimestre fiscal qui prenait fin le 30 avril dernier. Les ventes sont en hausse de 48% par rapport à il y'a un an et atteignent 1,937 milliards de $, alors que la marge brute progresse de 1,9 points à 59,4%. Le bénéfice opérationnel passe de 245 à 554 millions de $, et le net de 208 à 508 millions.

Le gros des ventes se fait toujours côté GPU avec 1,562 milliards, en hausse de 45% sur un an. Mais les ventes de Tegra sont également en forte hausse puisque doublées à 332 millions de $, porté par le SoC destiné à la Nintendo Switch. Par segment c'est sont les ventes liées au Datacenter (Tesla, NVIDIA GRID, DGX-1) qui augmentent le plus avec 186% de mieux pour atteindre 409 millions de $.

On notera que les versements liés à l'accord de licence signé avec Intel en 2011 prenaient fin ce trimestre, il aura permis à Nvidia de récolter 1,5 milliards de $.

GTX 1080 Ti aux hormones chez KFA2

Tags : GTX 1080 Ti; KFA²;
Publié le 04/05/2017 à 21:59 par
Imprimer

Palit lance au travers des marques Galaxy et KFA2 une GTX 1080 Ti aux hormones, la HOF Limited Edition. Son PCB personnalisé à 12 phases pour le GPU et 3 pour la GDDR5X est refroidi par un un radiateur imposant surmonté de 3 ventilateurs 90mm et alimenté par pas moins de 3 connecteurs PCIe 8 broches. Une carte qui sera probablement utilisée pour des records en tout genre faisant appel à des refroidissements plus extrêmes.

 
 

Un écran LCD est intégré à la coque et permet d'afficher des informations tels que la fréquence, la température, la version de driver ou un texte personnalisé, et les LED sont de la partie.

Côté fréquence il s'agit de base des plus élevées pour une carte custom puisque si la GDDR5X reste à 11 Gbps, le GPU est à 1645/1759 MHz au lieu de 1481/1582 MHz. Seul problème, il faudra compter un peu plus de 1100 € pour ce modèle… !

Pilotes Radeon 17.5.1

Publié le 04/05/2017 à 20:49 par
Imprimer

RadeonA l'image de son concurrent, AMD lance également aujourd'hui une nouvelle version de ses pilotes pour carte graphique. Ces Radeon Software 17.5.1 sont optimisés pour Prey et apportent selon le constructeur un gain de 4.7% dans ce jeu, par rapport aux 17.4.4 (mesuré avec une RX 580 8 Go en 2560x1440 avec un Core i7 5960X). AMD annonce également un support du multi GPU pour ce jeu.

Des bugs ont été corrigés au niveau des pilotes, avec la résolution de problèmes lors de l'installation, ou du système de mise à jour automatique qui ne fonctionnerait pas. Des bugs graphiques ont enfin été corrigés dans Forza 3 et Civilization VI.

Le téléchargement des pilotes se fait via le site du constructeur .

Pilotes GeForce 382.05 pour Prey et Battlezone

Publié le 04/05/2017 à 19:19 par
Imprimer

NVIDIA Logo 2010Nvidia a mis en ligne une nouvelle version des pilotes pour ses cartes graphiques. Cette version 382.05 apporte un support "optimal" pour Prey et Battlezone.

Ces pilotes ajoutent également des profils SLI pour Sniper: Ghost Warrior 3, Warhammer 40000 : Dawn of War III, et des optimisations pour la version Multi GPU de Gears of War 4.

Des bugs ont également été corrigés dans No Man's Sky, World of Tanks sur les configurations SLI. Des plantages du pilote kernel ont aussi été résolus dans Gears of War pour les 1080 Ti. Vous pourrez retrouver la liste complète des bugs corrigés dans les releases notes (PDF) .

Ces pilotes sont disponibles comme toujours sur le site du constructeur :

Top articles