Actualités cartes graphiques

Pilotes Radeon Software 16.12.2 WHQL

Publié le 10/01/2017 à 14:56 par
Imprimer

En décembre dernier, AMD mettait en ligne ses Radeon Software Crimson ReLive 12.6.1, une évolution majeure de ses pilotes dans laquelle la firme de Sunnyvale introduisait de nouvelles possibilités, notamment dans le domaine du streaming en temps réel.

Deux semaines plus tard arrivaient les 16.12.2 en version bêta, qui venaient corriger les quelques soucis liés aux nouvelles fonctionnalités. Désormais, ces pilotes ont obtenu la certification WHQL et sont disponibles en versions finales sur les serveurs d'AMD .

Ils apportent eux aussi leur lot de correctifs, de nombreux titres très en vogue (World of Warcraft, League of Legends, Battlefield 1, Counter-Strike : Global Offensive, FIFA17, Titanfall 2...) étaient touchés par de petits et de gros bugs.

Vous pouvez consulter l'ensemble des modifications apportées par ces pilotes via les notes de versions . Ces pilotes sont compatibles, pour rappel, avec tous les GPU depuis la série HD 7000 jusqu'aux plus récentes RX 400.

Dossier : Radeon RX 470 4 Go vs GeForce GTX 1060 3 Go : le test de cartes Asus, EVGA, MSI, Sapphire et XFX

Publié le 10/01/2017 à 00:00 par
Imprimer

Après les RX 480 et GTX 1060 6 Go, AMD et Nvidia proposent des RX 470 et GTX 1060 3 Go basées sur les mêmes GPU mais plus abordables. Des solutions de choix pour les joueurs ?

[+] Lire la suite

Architecture Vega 10 : AMD lève le voile

Tags : AMD; HBM2; Radeon; Vega; Vega 10;
Publié le 05/01/2017 à 15:01 par
Imprimer

A l'occasion du CES, AMD nous en dit un petit peu plus sur le futur GPU Vega 10 et dévoile quelques points techniques de son architecture qui vont permettre d'améliorer le rendement en jeu et de monter en puissance dans le monde de l'intelligence artificielle.

Suivant la même formule que l'an passé avec Polaris, AMD a décidé de nous aider à patienter en dévoilant quelques éléments de sa nouvelle architecture GPU, dont le premier exemplaire, Vega 10, vise le haut de gamme et est annoncé pour le premier semestre 2017.

Au menu : une refonte du sous-système mémoire pour pouvoir prendre en charge une masse de données toujours plus imposantes, de nouveaux moteurs géométriques pour mieux traiter des décors plus riches, de nouveaux moteurs de rastérisation pour calculer moins de pixels inutiles et des unités de calcul plus efficaces pour donner un coup de boost à leurs performances.

A travers cette annonce, AMD explique avec quelques détails techniques comment ces évolutions ont été mises en place.

 
 

Avec Vega, AMD annonce avoir mis en place l'architecture mémoire pour GPU la plus avancée du marché, pour pouvoir répondre aux besoins actuels et futurs dans les domaines où la taille des data sets est en train d'exploser. Il serait déjà question de pétaoctets dans l'animation 3D voire même d'exaoctets dans le GPU computing et l'intelligence artificielle. Pour s'y attaquer, Vega est capable d'adresser jusqu'à 512 To grâce à un espace de mémoire virtuelle étendu (49-bit) qui va au-delà des 256 To du x64 (48-bit).

Bien entendu, le GPU Vega 10 ne recevra pas autant de mémoire dédiée. Il sera associé à 2 modules de mémoire HBM2 pour un bus combiné de 2048-bit. Sur base des premiers modules disponibles qui sont de type 4 Go (4-Hi), Vega 10 sera ainsi associé à 8 Go de HBM2, mais pourra passer à 16 Go quand les modules 8-Hi seront disponibles.

8 Go, voire 16 Go, c'est bien peu par rapport aux data sets auxquels AMD compte s'attaquer. Pour pouvoir s'y attaquer plus efficacement, AMD a revu le contrôleur mémoire qui s'appelle dorénavant High Bandwidth Cache Controller alors que la mémoire HBM2 est présentée comme un cache local (High Bandwidth Cache). Le HBCC a été conçu et optimisé pour piloter les mouvements de données à partir de l'énorme espace adressable. Qu'elles se situent dans la mémoire système, dans de la flash rattachée au GPU ou ailleurs sur le réseau, le but est faire en sorte qu'à chaque instant un maximum de données utiles se retrouvent dans la HBM2.

C'est évidemment principalement important dans le monde professionnel, mais AMD en parle également au niveau des jeux vidéo, probablement pour anticiper les critiques par rapport à une mémoire de "seulement" 8 Go contre 12 Go sur une Titan X de Nvidia. A ce sujet, AMD explique que pour chaque image générée moins de la moitié de la mémoire utilisée est réellement exploitée. Il y a donc des opportunités d'optimisation et le HBCC est annoncé comme capable de faire mieux que les contrôleurs et pilotes classiques.

 
 

Ensuite, ce sont évidemment les unités de calcul qui vont recevoir quelques améliorations. AMD explique tout d'abord les avoir retravaillées pour autoriser une montée en fréquence significative, et réduire l'écart avec Nvidia sur ce point. Mais ce n'est pas tout et le taux d'IPC devrait également progresser. AMD en dit peu à ce niveau et s'est contenté de nous indiquer avoir élargi le cache d'instructions, ce qui boosterait notamment le débit d'opérations sur 3 opérandes. Reste évidemment à voir à quel niveau se situeront les gains en pratique pour ces Next-Gen Compute Units (NCU).

L'autre grosse nouveauté concernant les unités de calcul est le packed math qui représente le support natif de la démi précision ou FP16. Pour rappel, les GPU GCN 3 (Tonga/Fiji) et GCN4 (Polaris), supportent déjà le FP16 mais uniquement pour gagner de la place au niveau des registres, les opérations étant traitées par les unités de calcul FP32 à débit identique.

Avec Vega, chaque SIMD d'unité de calcul FP32 pourra travailler sur des vecteurs 2-way en FP16. C'est identique à ce que fait Nvidia sur le GP100 ou sur Tegra et cela permet de doubler la puissance de calcul en demi précision si le compilateur arrive à extraire des paires d'opérations à traiter en parallèle. AMD précise que si ce n'est pas le cas, des gains pourront malgré tout ressortir au niveau de la consommation énergétique, et que son approche permet de gérer indépendamment les parties hautes et basses des registres pour plus d'efficacité.

Enfin, AMD a ajouté le support du calcul en 8-bit mais il est spécifique au deep learning, comme le fait Nvidia sur GP102/104/106/107). Contrairement au FP16 il ne s'agit donc pas d'un support généralisé mais d'une ou de quelques instructions spécifiques telles que DP4A (produit scalaire avec accumulation).

Au final, AMD parle donc par NCU de 128 ops 32-bit par cycle (= 64 FMA FP32 comme sur tous les GPU GCN), 256 ops 16-bit par cycle (= 128 FMA FP16) et de 512 ops 8-bit par cycle (= 64 DP4A). Aucune information concernant le débit en FP64 qui est juste annoncé comme configurable.

 
 

Plus spécifiquement pour le jeu vidéo cette fois, AMD a retravaillé ses moteurs géométriques sur 3 fronts. Tout d'abord leur débit va augmenter d'un facteur supérieur à 2x, AMD parle de 11 triangles par cycle avec 4 moteurs géométriques pour un GPU Vega, sans préciser s'il s'agit de Vega 10. Nous supposons qu'il s'agit ici du débit d'éjection des triangles qui tournent le dos à la caméra par exemple. Ce débit supérieur était jusqu'ici un des gros avantages des GPU Nvidia, qu'AMD devrait donc rattraper.

Ensuite, AMD proposera aux développeurs un nouveau type de shaders, les Primitive Shaders qui permettront de remplacer les Vertex Shaders et les Geometry Shaders. Nous ne savons pas exactement comment tout cela fonctionnera et sera exposé, mais cela devrait permettre de faciliter l'implémentation de pipelines de rendu personnalisés. AMD indique par ailleurs qu'ils permettront de booster le taux d'éjection des primitives mais nous ne savons pas si cela correspond au débit de 11 triangles par cycle noté ci-dessus ou si ce gain se fera en complément.

Enfin, suite à des retours constructifs de développeurs sur console, qui cherchaient à optimiser au maximum les performances, AMD s'est rendu compte que son algorithme de load balancing pouvait être amélioré pour mieux exploiter les ressources disponibles. Il a donc été revu.

 
 

Le dernier point mis en avant par AMD concerne les pixels. Avec tout d'abord des moteurs de rastérisation revus. AMD parle de draw stream binning rasterizer. Derrière ce charabia technique se cache une approche similaire à celle exploitée par Nvidia sur les GPU Maxwell et Pascal. Elle consiste à faire une exploitation opportuniste du principe du tile renderingpour éviter de calculer trop de pixels masqués.

Il ne s'agit pas d'avoir recours à un rendu en 2 passes comme le font certains GPU mobiles pour appliquer fermement la technique, mais plutôt d'utiliser un petit buffer interne avant la rastérisation qui permet de traiter celle-ci quand l'information de couverture de plus de triangles est connue. Si ces informations permettent d'éviter de générer des pixels masqués, c'est tout bonus, si ce n'est pas le cas le traitement se fait de manière classique. D'où le côté opportuniste de la technique qui ne souffre pas des désavantages des approches des GPU mobiles.

Les ROP ont eux aussi été revus. Leurs capacités exactes restent inconnues, mais au lieu d'exploiter de petits buffers spécifiques, ils deviennent des clients du gros cache L2. Selon AMD cela permet un gain appréciable dans les moteurs de type rendu différé qui sont devenus très courants dans les jeux vidéo.

Après ces quelques caractéristiques techniques de l'architecture Vega, intéressons-nous au GPU Vega 10 dans son ensemble. Physiquement tout d'abord puisque nous avons pu l'apercevoir brièvement dans les mains de Raja Koduri, responsable du groupe Radeon Technology (RTG) lors d'un évènement presse organisé par AMD le mois passé :

Nous pouvons apercevoir sur cette photo, prise rapidement au smartphone, un énorme die placé sur un interposer qui reçoit également 2 modules HBM2. Nous pouvons estimer la taille du die de Vega 10 entre 500 et 550 mm² (soit plus que les 471mm² du GP102, mais moins que les 610 mm² du GP100). C'est ce qui explique pourquoi AMD s'est contenté d'un bus 2048-bit, contrairement aux 4096-bit de Fiji dont les modules HBM1 prenaient beaucoup moins de place.

Pour pouvoir placer 4 modules HBM2 avec un gros die pour le GP100, Nvidia a de son côté recours à une double exposition très coûteuse, seule possibilité actuelle pour concevoir un interposer suffisamment grand pour recevoir l'ensemble. Avec Vega 10 AMD vise autant le marché professionnel que les joueurs et a donc opté pour une solution (un peu) plus raisonnable en termes de coûts de production.

Quelles pourraient être les spécifications complètes d'une Radeon basée sur le GPU Vega 10 ? Nous avons rassemblé dans le tableau qui suit nos suppositions actuelles basées sur les quelques éléments dévoilés par AMD, notamment lors de l'annonce de la Radeon Instinct MI25 :

Reste bien entendu que pour pouvoir réellement concurrencer le GP102 (Titan X), et pas seulement se contenter de battre le GP104 (GTX 1080), il faudra que les avancées dévoilées aujourd'hui par AMD portent réellement leurs fruits en pratique.

Est-ce que le HBCC sera efficace dans le cadre du jeu vidéo si 8 Go deviennent insuffisants ? Est-ce que le FP16 sera exploité par certains jeux ? Est-ce que les développeurs seront intéressés par les Primitive Shaders ? Est-ce que le boost au niveau du débit des moteurs géométrique se retrouvera en pratique ? Quel sera le gain réel en terme d'IPC ? La nouvelle approche pour la rastérisation permettra-t-elle de rattraper Nvidia en terme d'efficacité ?

A l'heure actuelle, AMD ne nous fournit aucune information ou donnée pour permettre de quantifier ou de se faire une idée de ce que tout cela va apporter. Nous ne pouvons pas oublier que les avancées dévoilées de la même manière pour Polaris ont au final produit des résultats mitigés par rapport aux espérances suscitées (nous avons noté 8% de mieux en jeu entre GCN3 et GCN4). Avec Vega, nous avons par contre l'impression qu'AMD a enfin pris le recul nécessaire pour observer ce que Nvidia a fait de bien pour rendre plus efficaces ses dernières générations de GPU. De quoi s'engager dans une voie similaire avec Vega, ce qui laisse augurer de bonnes choses. Nous sommes évidemment impatients d'en savoir plus !

Vous pourrez retrouver l'intégralité de la présentation d'AMD ci-dessous :

 
 

Nvidia annonce GeForce Now pour PC et Mac

Publié le 05/01/2017 à 05:21 par
Imprimer

Depuis un peu plus de 2 ans maintenant, Nvidia développe son propre système de streaming de jeux vidéo. Initialement connu sous la marque GRID, avant de devenir GeForce Now, il était jusqu'ici réservé aux tablettes et consoles Shield. Il débarquera bientôt sur PC et Mac.

En proposant dans un premier temps GeForce Now sur les périphériques Shield, Nvidia a pu profiter d'un écosystème plus restreint pour peaufiner sa plateforme de streaming avant de la proposer plus largement aux joueurs. Arrivée à maturité, ses serveurs initialement équipés en GPU Kepler sont en train d'être multipliés et mis à jour pour recevoir des GPU Pascal plus performants et moins gourmands.

Le moment est donc venu pour Nvidia de proposer une variante de GeForce Now sur PC (et sur Mac) via une application client qui permettra l'accès au streaming à partir du cloud, que la machine soit équipée ou pas de GPU Nvidia. Grossièrement il s'agit pour Nvidia de proposer un PC de jeu GeForce GTX à la demande.

Un environnement Windows 10 sera alors accessible en streaming et donnera accès aux plateformes les plus courantes, telles que Steam, Origin ou Uplay. Il suffira de s'y connecter avec son propre compte pour avoir accès à ses jeux ou en acheter de nouveaux, comme avec n'importe quel PC. L'infrastructure mise en place par Nvidia conservera les jeux en cache (tout du moins les plus courants), ce qui permettra une installation très rapide. Nvidia parle d'un objectif de moins d'une minute pour les plus gros jeux.

Les spécifications exactes des systèmes qui seront ainsi mis à disposition n'ont pas encore été communiquées, mais du côté graphique, Nvidia indique qu'il proposera soit une GeForce GTX 1060 (6 Go ? 3 Go ?), soit une GeForce GTX 1080.

L'approche est similaire à ce que propose la start-up française Blade avec le Shadow PC, mais pas identique. D'une part Blade propose sa solution à base de GeForce GTX 1070 à travers un mini-PC et d'autre part offre un espace de stockage dédié de 256 Go. Ce n'est pas le cas de GeForce Now qui est strictement dédié à l'exécution de jeux vidéo, Nvidia proposant un autre service pour les utilisations professionnelles.

Le business model est également différent. Le Shadow PC est proposé à travers un abonnement de 45€ par mois, réduit à 30€ avec un engagement annuel. Du côté de GeForce Now, le tarif aux Etats-Unis sera de 25$ soit pour 20 heures de jeu avec une GeForce GTX 1060, soit pour 10 heures de jeu avec une GeForce GTX 1080, ce qui reviendra donc sensiblement plus cher pour celui qui compte jouer régulièrement en streaming. Du côté de GeForce Now sur Shield, c'est dorénavant une GeForce GTX 1080 qui permettra de profiter des derniers jeux alors que le tarif de l'abonnement reste inchangé à 10€ par mois.

GeForce Now pour PC sera disponible début mars pour un nombre limité d'utilisateurs et uniquement aux Etats-Unis avant d'être proposé plus globalement au printemps. Dès l'ouverture d'un compte, Nvidia proposera alors un essai gratuit de 8 heures en GTX 1060 ou de 4 heures en GTX 1080.

Avec ses différentes plateformes GeForce Now, Nvidia compte toucher un plus grand nombre de joueurs, mais également permettre à ses clients actuels de profiter d'un PC de jeu GeForce lorsqu'ils sont en déplacement par exemple.

HDMI 2.1 : 48 Gbps, Dynamic HDR et FRV

Tags : FreeSync; FRV; G-SYNC; HDMI; HDR;
Publié le 04/01/2017 à 21:51 par
Imprimer

HDMI Forum vient d'annoncer la sortie prochaine des spécifications complètes du HDMI 2.1 avec une bande passante de 48 Gbps et le support de la FRV.

Sans surprise, la bande passante maximale du nouveau standard fait un bond énorme de manière à pouvoir mieux s'accommoder des résolutions, taux de rafraichissements et/ou profondeurs des couleurs plus élevés. Alors que le HDMI 2.0/a/b doit se contenter de 18 Gbps, le HDMI 2.1 passe à pas moins de 48 Gbps. C'est 50% de bande passante de plus que les 32 Gbps du futur DisplayPort 1.3/1.4, pour lesquels les GPU récents sont déjà prêts.

Cette bande passante de 48 Gbps permettra de supporter les écrans 4K/UHD en 120 Hz (4:4:4) ou encore les écrans 8K en 60 Hz (4:4:4) et ce avec HDR. A ce sujet, le HDMI Forum met en avant le support du Dynamic HDR qui permet d'étendre virtuellement la plage dynamique encore plus loin en spécifiant image par image la luminosité et les paramètres de couleurs. Nous supposons qu'il s'agit là de standardiser ce que fait déjà Dolby Vision en HDMI 2.0 avec son mode HDR propriétaire.

Enfin, le HDMI 2.1 supporte un Game Mode qui n'est autre qu'une implémentation standardisée de la fréquence de rafraîchissement variable(FRV). Une technique d'affichage qui permet actuellement à certains moniteurs PC de suivre parfaitement la cadence des GPU pour améliorer la fluidité à travers G-Sync de Nvidia ou FreeSync d'AMD. Rappelons qu'AMD supporte la version standard de la FRV à travers le DisplayPort et propose pour l'instant une version propriétaire pour le HDMI 1.4/2.0. AMD devrait donc basculer dans le futur sur la version standardisée du HDMI 2.1. Il n'est par contre pas dit que ce sera le cas pour Nvidia qui se contente pour l'instant d'une solution d'affichage totalement propriétaire. Reste à voir si les fabricants de TV trouveront dans le HDMI 2.1 la motivation de proposer un Game Mode digne de ce nom pour l'affichage des jeux vidéo.

La spécification finale sera publiée au second trimestre 2017 et comme vous vous en doutez, il faudra de nouveaux contrôleurs et GPU pour prendre en charge une telle bande passante, mais également de nouveaux câbles. Le HDMI Forum se contente d'indiquer à leur sujet qu'ils resteront compatibles avec les anciennes normes HDMI mais sans en dire plus.

Top articles