Les contenus liés au tag 12nm

Une 2nde génération de Ryzen en mars ?

Tags : 12nm; AMD; Ryzen; Zen; Zen 2;
Publié le 10/12/2017 à 22:31 par Marc Prieur

Une présentation AMD dont une photo a été publiée sur MOEPC.net  fait mention d'une seconde génération de Ryzen dont le lancement semble prévu à la fin du premier trimestre 2018.

Il ne devrait pas y avoir de changement architectural majeur, Zen 2 étant prévu en 7nm et pas avant 2019. Cette itération pourrait par contre profiter de la version "14nm+" de Zen mentionnée sur les roadmap officielle, ce process ayant finalement pris l'appellation de 12LP chez GlobalFoundries et AMD ayant confirmé son utilisation l'an prochain.

Reste à voir ce qu'il apportera en pratique et quelles seront les autres améliorations qu'aura pu apporter AMD à Zen, en attendant Zen 2.

AMD utilisera le 12nm de GloFo en 2018

Publié le 21/09/2017 à 12:16 par Guillaume Louel

GlobalFoundries vient d'annoncer par un communiqué de presse  le lancement à venir d'un nouveau process, baptisé 12LP.

Il s'agit d'une variante de l'actuel 14LPP FinFET du constructeur qui permettra d'améliorer la densité de 15% et d'augmenter les performances de 10%. Il s'agit bien entendu de la réponse de GlobalFoundries au "12nm" de TSMC et au tout frais "11LPP" de Samsung.

La société ne donne pas de date ferme sur la disponibilité, mais le communiqué inclut une citation de Mark Papermaster, CTO d'AMD qui déclare qu'AMD "introduira de nouveaux produits clients et graphiques basés sur le 12nm de GlobalFoundries en 2018".

Les roadmaps d'AMD mentionnaient en effet une version de Zen en "14nm+" avant Zen 2 prévu en 7nm. Côté graphique, les roadmaps d'AMD incluaient aussi une version 14nm+ de Vega (avant Navi en 7nm). Dans tous les cas, AMD dispose désormais de l'option d'utiliser d'autres fondeurs s'il le souhaite pour certains produits, même si la société ne semble pas l'avoir utilisée jusque maintenant.

Pour rappel, le 7nm de GlobalFoundries, assez ambitieux, est prévu au mieux pour fin 2018.

Tesla V100 décliné en PCIe

Tags : 12nm; GV100; HBM2; Nvidia; Tesla;
Publié le 21/06/2017 à 11:51 par Marc Prieur

NVIDIA annonce la déclinaison PCIe de son accélérateur Tesla V100. Il utilise toujours l'énorme GV100, gravé en 12nm FFN par TSMC et disposant de pas moins de 21,1 milliards de transistors.

Avec un TDP réduit à 250W contre 300W pour la version mezzanine, les performances sont légèrement revues à la baisse avec une puissance annoncée à 7 Tflops en double précision et 14 Tflops en simple précision en boost, soit une fréquence passant de 1455 à 1370 MHz environ. On dispose par contre toujours de 16 Go de HBM2 à 900 Go/s.

La disponibilité est annoncée pour "plus tard dans l'année", sans plus de précisions. Nvidia indique au passage que le supercalculateur Summit à base de V100 du département de l'énergie américain, annoncé en 2014 et désormais prévu pour 2018, disposera d'une puissance de 200 petaFLOPS (l'intervalle donnée initialement était de 150-300).

Nvidia dévoile le GV100: 15 Tflops, 900 Go/s

Publié le 10/05/2017 à 22:31 par Damien Triolet

Nvidia profite de sa GPU Technology Conference pour dévoiler quelques détails sur le GV100, le premier GPU de la génération Volta qui sera dédié au monde du calcul et en particulier de l'intelligence artificielle.

Comme c'est à peu près le cas chaque année, le CEO de Nvidia Jen Hsun Huang vient de profiter de la GTC pour dévoiler les grandes lignes du premier GPU de sa future génération Volta. Ce sera un monstre clairement orienté vers l'intelligence artificielle, un débouché qui monte en puissance pour les GPU Nvidia.

Le GV100 est le successeur direct du GP100 et reprend un format similaire : il s'agit d'une puce énorme placée sur un interposer avec 4 modules HBM2. Grossièrement c'est la même chose en mieux : plus gros et plus évolué.

Plus gros tout d'abord avec un GV100 qui profite de la gravure en 12 nm FFN de TSMC (personnalisé pour Nvidia) pour passer à 21.1 milliards de transistors, plus de 30% de plus que les 15.3 milliards du GP100. Malgré le passage au 12 nm, la densité ne progresse presque pas et le GV100 est énorme avec 815 mm² contre 610 mm² pour le GP100. Le 12 nm permet ici avant tout de pouvoir monter en puissance à consommation similaire.

Tout comme le GP100, le GV100 utilise des "demi SM" par rapport aux GPU grand public. Leur nombre passe de 60 à 84, ce qui représente 5376 unités de calcul. Ils restent répartis dans 6 blocs principaux, les GPC, ce qui laisse penser que Nvidia a tout misé sur un gain de puissance de calcul, sans trop toucher au débit de triangles ou de pixels qui étaient déjà à un niveau très élevé sur GP100.

Comme sur le GP100, ces SM sont capables de traiter différents niveau de précision : FP16 (x2), FP32 et FP64 (/2). Par ailleurs, Nvidia a ajouté quelques instructions spécifiques au deep learning et y fait référence en tant que tensor cores. Ils permettent aux algorithmes qui y feront appel de doubler la mise par rapport aux instructions 8-bits (produit scalaire avec accumulation) des GPU Pascal (sauf GP100) et du futur Vega d'AMD. A voir évidemment dans quelle mesure les différents algorithmes de deep learning pourront profiter de ces nouvelles instructions.

Nvidia en a profité pour améliorer le sous-système mémoire qui sera plus flexible pour demander moins d'efforts d'optimisation de la part des développeurs. Le cache L2 passe de 4 à 6 Mo et de la HBM2 Samsung plus rapide est exploitée mais qui restera au départ limitée à 4 Go par module soit 16 Go au total. Par ailleurs, le GV100 profite de 6 liens NV-Link de seconde génération (25 Go/s dans chaque direction) pour offrir une interface qui peut monter à 300 Go/s.

Le premier accélérateur qui profitera du GV100 est comme nous pouvions nous y attendre le Tesla GV100 qui sera initialement proposé dans un format de type mezzanine. Un tel module sera bien entendu gourmand mais Nvidia parle d'une enveloppe thermique maximale qui reste à 300W. Par ailleurs, deux modes énergétique seront proposé : Maximum Performance et Maximum Efficiency. Le premier autorise le GV100 à profiter de toute son enveloppe de 300W alors que le second limite probablement la tension maximale pour maintenir le GPU au meilleur rendement possible, ce qui a évidemment du sens pour de très gros serveurs.

Sur le Tesla GV100, le GPU sera amputé de quelques unités de calcul, pour faciliter la production seuls 80 des 84 SM seront actifs. Voici ce que cela donne :

Le Tesla GV100 augmente la puissance brute de 40% par rapport au Tesla GP100, mais ses différentes optimisations feraient progresser les performances en pratique de +/- 60% dans le cadre du deep learning selon Nvidia. La bande passante mémoire progresse un peu moins avec "seulement" +25%, mais le cache L2 plus important et diverses améliorations compensent quelque peu cela.

Le GV100 devrait devancer assez facilement le Vega 10 d'AMD, mais ce dernier devrait être commercialisé en version Radeon Instinct à un tarif nettement moindre que le Tesla GV100 et en principe plus tôt. Nvidia parle de son côté du troisième trimestre et de 150.000$ pour les premiers serveurs DGX-1 équipés en GV100 et de la fin de l'année pour les accélérateurs au format PCI Express. Nvidia proposera évidemment d'ici-là des versions mises à jour de ses logiciels, compilateurs et autres librairies dédiées au deep learning.

Top articles