Les derniers contenus liés au tag Nvidia

Afficher sous forme de : Titre | Flux Filtrer avec un second tag : AMD; ASUS; Fermi; GeForce; GeForce 600; GPGPU; GTC; Kepler; Maxwell; Pilotes GeForce;

Nvidia client de Samsung Foundry

Tags : Nvidia; Samsung; TSMC;
Publié le 26/03/2015 à 15:23 par Guillaume Louel

Nos confrères de The Tech Report ont noté une mention intéressante dans le Form 10-K de Nvidia. Ce document administratif est un rapport annuel livré aux autorités de régulation économique américaine qui résume l'activité. Le document est posté sur le site de la SEC.

Dans la description de la fabrication du constructeur on peut noter ceci :


We do not directly manufacture semiconductor wafers used for our products. […]

We utilize industry-leading suppliers, such as Taiwan Semiconductor Manufacturing Company Limited and Samsung Electronics Co. Ltd, to produce our semiconductor wafers.


Si l'on ne s'étonnera pas de voir TSMC indiqué comme fournisseur de wafers pour la société, la présence de Samsung est une nouveauté. Nous vous avons relaté à plusieurs reprises les difficultés que rencontrent les sociétés de l'industrie PC (et notamment AMD et Nvidia) à profiter des dernières finesses de gravures de TSMC dont l'écrasante majorité des Wafers sont réservés aux SoC pour smartphones et tablettes (TSMC fabrique pour rappel les A8/A8X d'Apple en 20nm ainsi que les SoC de Qualcomm) qui représentent un volume bien plus important.

Les besoins de l'industrie mobile sont tels que la plupart des constructeurs utilisent de plus en plus une « seconde source » pour fabriquer leurs puces, un choix qui réclame un travail d'adaptation tant les process de fabrications sont différents d'un constructeur à l'autre. En général les sociétés choisissent de répartir leurs produits même si l'on voit parfois migrer certains d'entre eux. AMD avait migré ses Kabini de TSMC a GlobalFoundries par exemple.

Si l'on ne dispose pas de détails sur ce que Nvidia produira chez Samsung, on peut imaginer que le constructeur souhaite y fabriquer en priorité des SoC, possiblement dans le nouveau process 14nm du constructeur. Le process 14nm de Samsung est d'autant plus intéressant pour l'industrie qu'il a fait l'objet d'un partenariat avec GlobalFoundries.

Nvidia Pascal: le FP16 pour doubler les Tflops

Tags : GTC; Nvidia; Pascal;
Publié le 18/03/2015 à 00:13 par Damien Triolet

Le CEO de Nvidia, Jen-Hsun Huang, a profité de l'ouverture de la GPU Technology Conference pour donner un détail de plus concernant sa future architecture GPU prévue pour 2016 : Pascal supportera la précision de calcul FP16.

L'an passé, les premiers détails avaient déjà été communiqués au sujet de Pascal, vous pourrez retrouver nos actualités dédiées ici et .

Ainsi, pour rappel, nous savions déjà au sujet de cette architecture intermédiaire entre Maxwell et Volta que Nvidia visait 32 Go de mémoire 3D et une bande passante totale de 1 To/s, soit à peu près le triple de ce dont est capable un GPU tel que le GM200 de la GeForce GTX Titan X. Nvidia avait également annoncé un format de type mezzanine pour les serveurs et une nouvelle interconnexion : NVLink.

Il était par contre alors question d'une augmentation de 66% des performances par watts en SGEMM (FP32). Visiblement, Nvidia est plus ambitieux cette année et parle dorénavant d'un doublement des performances par watts.

 
 

Mais surtout, Nvidia compte aller plus loin dans l'augmentation de la puissance de calcul et c'est là que se trouve le nouveau détail concernant Pascal : il supportera le calcul en FP16 et la précision mixte. Nvidia reprend probablement cette spécificité du Tegra X1 dont les unités de calcul FP32 sont également capables de traiter 2 opérations FP16, étendue pour plus de flexibilité. De quoi potentiellement doubler les performances pour les applications qui peuvent se satisfaire d'une précision de calcul réduite.

Le but de la précision mixte sera de pouvoir mélanger dans un algorithme des opérations des différents niveaux de précision supportés par le GPU, FP16, FP32, FP64, pour n'exploiter les instructions plus lentes et plus gourmandes que là où elles sont réellement nécessaires. Les optimisations potentielles sont légions mais les identifier et les exploiter efficacement en pratique est probablement une difficulté qui va se poser.

En combinant les évolutions au niveau du sous-système mémoire à cette précision mixte et en doublant le nombre de GPU d'un système à l'aide de NVLink, Nvidia table sur une multiplication par 10 des performances. Un chiffre qui est par contre probablement très optimiste.

Dossier : Nvidia GeForce GTX Titan X 12 Go et GM200 en test: big Maxwell débarque !

Publié le 17/03/2015 à 20:00 par Damien Triolet

Avec 8 milliards de transistors, 6.6 Tflops et 12 Go de mémoire, Nvidia entendu bien profiter de la GTX Titan X pour renforcer sa place de leader. Faut-il craquer pour cette carte graphique à plus de 1000€ ?

[+] Lire la suite

GDC: Quelques statistiques pour Nvidia GRID

Tags : GDC; GDC 2015; GRID; Nvidia;
Publié le 16/03/2015 à 08:31 par Damien Triolet

En fin de GDC, Nvidia organisait plusieurs sessions consacrées à son service de cloud gaming GRID, dont une qui a particulièrement attiré notre attention puisqu'il était question de mesures et d'analyses des données issues de la phase de beta test proposée gratuitement aux utilisateurs de la tablette Shield ou de la console portable du même nom.


Nous y apprenons que 40 jeux sont dorénavant proposés sur GRID et que Saints Row 3 est celui qui rencontre le plus de succès, ce que Nvidia mesure par le pouvoir d'attraction et de fidélisation des joueurs.

Certains joueurs ont profité du service dans pas moins de 27 villes situées dans 9 pays différents, plus de 500 sessions de plus de 8 heures de jeu ont été observées, et plusieurs joueurs ont dépassé les 400 heures de jeu. De quoi permettre à Nvidia d'accumuler des statistiques très utiles sont mesurées la fluidité, la résolution (elle peut être réduite en cas de gros ralentissement), la latence, la qualité du signal audio et la qualité des vidéos (quantization process). En tout ce sont 39 millions de mesures par heure qui sont enregistrées par les serveurs GRID.

Si Nvidia parle de l'objectif d'une latence totale, Click-to-Photon, de 150ms, malheureusement aucune statistique n'a été présentée à ce sujet. C'était bien entendu le point le plus intéressant mais il nous a été répondu qu'il s'agissait de données stratégiques que Nvidia ne compte pas communiquer à la concurrence. Par contre, Nvidia nous a précisé que ses statistiques avaient mis en évidence une corrélation entre la latence, le temps de jeu et la fidélisation des joueurs. Au-delà de 150ms, ces derniers ont tendance à rapidement déserter la plateforme, ce qui explique que Nvidia mette tout en œuvre pour essayer de ne pas dépasser cette valeur.

Nvidia va mettre à dispositions des développeurs qui le désirent un accès en ligne à une partie des données mesurées par ses serveurs. De quoi leur permettre d'analyser directement les performances de leur jeu et son niveau de succès auprès des joueurs.

 
 

GDC: Nvidia fournit le code source de PhysX

Publié le 16/03/2015 à 07:57 par Damien Triolet

Depuis son annonce il y a 3 ans, l'Unreal Engine 4 intègre PhysX de Nvidia. Rappelons qu'il s'agit d'un moteur de prise en charge de la physique, multiplateformes. Il est proposé gratuitement sur PC et sous licence pour les consoles. Il offre la possibilité, optionnellement, d'accélérer via le GPU le traitement de certains effets qui n'affectent pas la simulation du monde.


PhysX évolue régulièrement et ses mises à jour sont progressivement intégrées par Epic dans l'UE4 qui en supporte actuellement la version 3.3.2. Changement important, à la GDC, Nvidia a annoncé qu'à partir de la version 3.3.3, le code source C++ de PhysX pour l'Unreal Engine 4 sera fourni à travers GitHub à tous les développeurs qui en feront la demande.

Une révolution pour Nvidia ? Oui mais pas totalement puisque cette orientation nouvelle garde malgré tout ses limites. Ainsi ce n'est pas tout PhysX qui est ouvert mais uniquement deux de ses modules, certes probablement les plus importants pour la conception des jeux vidéo : les librairies de gestion des destructions et de simulations des tissus. A noter qu'il s'agit dans les deux cas de librairies 100% CPU, la simulation des tissus sur GPU n'en fait pas partie et reste un élément stratégique sur PC pour Nvidia. Il ne faut donc pas voir dans cette annonce une opportunité pour AMD de porter PhysX sur Radeon par exemple.

A terme cela devra permettre une meilleure utilisation de PhysX et probablement des possibilités nouvelles suivant ce que les développeurs vont construire autour de ces librairies. Ils pourront d'ailleurs proposer leurs évolutions à Nvidia qui pourra éventuellement les intégrer dans la branche principale de PhysX qui se retrouvera ensuite dans les futures versions de l'Unreal Engine.

Vous pourrez retrouver plus d'informations par ici.


Top articles