Les derniers contenus liés au tag Radeon

Afficher sous forme de : Titre | Flux Filtrer avec un second tag : AMD; Catalyst; GCN; GeForce; Hawaii; Radeon HD 6000; Radeon HD 7000; Radeon HD 7970; Radeon R9; Sapphire;

AMD annonce Polaris, sa future architecture GPU

Publié le 04/01/2016 à 15:00 par Damien Triolet

Enfin, après 4 années de GCN en 28nm, les Radeon vont accueillir une nouvelle architecture gravée en 14nm : Polaris. Et pour AMD le focus se portera sur l'efficacité énergétique avec un bond en avant annoncé sans précédent !


Le Radeon Technology Group d'AMD profite de ce début d'année pour lever un (très petit) coin du voile qui entoure sa prochaine génération de GPU, notamment en donnant un nom de code à son architecture : Polaris (l'étoile polaire). Et pour positionner sans équivoque ses objectifs avec cette architecture, AMD explique avoir opté pour ce nom de code en faisant le parallèle entre l'efficacité des étoiles à générer des photons et l'efficacité demandée aux GPU pour générer des pixels.

Comme vous le savez, l'architecture actuelle des Radeon est globalement en retrait par rapport à l'architecture Maxwell de Nvidia au niveau de l'efficacité énergétique. Fort de larges parts de marché et ayant bien anticipé le très long passage par le procédé de fabrication 28nm (exploité pour les GPU depuis 4 ans déjà !), Nvidia a développé deux architectures pour celui-ci : Kepler et Maxwell. En face, AMD est resté sur une architecture GCN moins efficace en se contentant d'évolutions mineures de son cœur. Pourquoi ? Probablement parce que, contrairement à Nvidia, AMD avait parié sur l'exploitation d'un procédé en 20nm qui ne s'est jamais concrétisée pour les GPU.

Tout cela va enfin changer en 2016 avec l'arrivée de GPU fabriqués en 16nm FinFET+ chez TSMC et en 14nm LPP chez GlobalFoundries et Samsung. Ces nouveaux procédés de fabrication ont pour point commun de donner enfin aux GPU l'accès à la technologie FinFET, de quoi donner un coup de pied dans une fourmilière bien trop tranquille à notre goût !

Introduit par Intel en 2012 sous les noms de "transistors tri-gates" ou de "transistors 3D", le FinFET se détache de la construction planaire classique des transistors en donnant une troisième dimension à la porte ce qui permet d'en augmenter la surface de contact et de mieux l'isoler. Les courants de fuite, qui peuvent représenter une grosse partie de la consommation d'un transistors classique, sont alors nettement réduits.


Autant, voire plus, que la finesse de gravure, c'est ainsi le passage au FinFET qui autorise une avancée significative dans les performances des transistors, ce qui peut se traduire par un gain de fréquence, une nette réduction de la consommation ou un mélange de ces deux points selon le positionnement de la puce. Autre avantage selon AMD, le FinFET permet d'obtenir un comportement plus homogène de l'ensemble des transistors, ce qui réduirait la variabilité dans les échantillons produits.

Comme c'est traditionnellement le cas pour les Radeon, c'est lors de ce changement de process qu'AMD va introduire une évolution significative de son architecture GPU, sur laquelle le Radeon Technology Group va bien entendu vouloir communiquer. Et pour cela il faut pouvoir lui mettre un nom.

La nomenclature des architectures GPU d'AMD, ou plutôt son absence, a été source de confusion ces dernières années. En l'absence de communication d'AMD, nous avons ainsi fait référence à GCN 1.1 et GCN 1.2 pour parler des petites évolutions apportées depuis la Radeon HD 7970 de décembre 2011. AMD préfère cependant concentrer le terme GCN sur les unités de calcul du GPU (ses "cœurs"), d'autres éléments du GPU pouvant évoluer indépendamment. Polaris représente ainsi le nom global de la nouvelle architecture et GCN 4 la nouvelle version de ses unités d'exécution (après GCN 1 / 1.0, GCN 2 / 1.1 et GCN 3 / 1.2).

Raja Koduri, qui dirige Le Radeon Technology Group, nous a indiqué vouloir faire en sorte que les cartes graphiques qui embarqueront un GPU de type Polaris soient clairement identifiables. Pragmatique et réaliste, il est bien conscient qu'avec une éventuelle future gamme de cartes graphiques, il pourra être difficile pour ses équipes de résister à la tentation d'y intégrer d'anciens GPU. Il sera ainsi important de permettre aux GPU Polaris d'être mis en avant de manière explicite.


Avec Polaris, à peu près tous les blocs du GPU vont être mis à jour. Nous vous avons déjà parlé de l'aspect affichage et vidéo le mois passé. Pour rappel, les GPU Polaris supporteront le HDMI 2.0a, le DisplayPort 1.3 et le décodage des vidéo 4K en H.265.

Les processeurs de commandes (grahiques et compute), les processeurs géométriques, le cache L2 et le contrôleur mémoire seront également revus pour accompagner le passage aux Compute Units (CU) de type GCN de 4ème génération. Sur ce dernier point AMD précise que Polaris pourra supporter soit un bus GDDR5 soit un bus HBM, suivant les GPU.

Malheureusement, AMD en dit très peu sur les évolutions et ne donne que ces quelques maigres détails :


AMD indique tout d'abord que le cœur de l'architecture a été amélioré pour une meilleure efficacité énergétique. Comme Nvidia a commencé à le faire à partir de la génération Kepler, nous pouvons supposer qu'AMD va essayer de ne plus avoir besoin d'une logique d'ordonnancement complexe et gourmande à l'intérieur des CU, là où le comportement d'une suite de certaines instruction est totalement déterministe et peut donc se contenter d'un ordonnancement statique préparé lors de la compilation.

AMD parle également d'amélioration des ordonnanceurs matériels, mais cette fois nous supposons qu'ils ne font pas référence aux CU mais au front-end et aux tâches globales initiées par les processeurs de commandes. Il s'agit ainsi probablement d'améliorations destinées au support du multi-engine de Direct3D 12. Il est également question de nouveaux modes de compression. Il pourrait s'agir de la compression ASTC, coûteuse à implémenter (mais le 14nm règle ce problème) et qu'AMD et Nvidia avaient évité jusqu'ici, contrairement aux concepteurs de GPU pour SoC pour lesquels quelques transistors de plus ne sont jamais trop chers payés pour économiser de la bande passante mémoire et de l'énergie.

Enfin, AMD mentionne un Primitive Discard Accelerator, soit un système d'éjection des triangles masqués du pipeline de rendu. Pour rappel, statistiquement, à peu près la moitié des triangles d'un objet tournent le dos à la caméra et peuvent être éjectés du rendu dès que cet état est confirmé. Pouvoir le faire rapidement permet de booster les performances géométriques en situation réelle.

Actuellement, les moteurs géométriques des Radeon ne sont pas capables d'effectuer cette tâche plus rapidement que le rendu d'un triangle, contrairement aux GeForce qui en profitent pour se démarquer dans certaines scènes, notamment quand la tesselation génère de nombreux triangles masqués. Avec Polaris, AMD devrait enfin combler ce déficit, probablement en doublant le nombre de moteurs d'éjection des primitives par moteur de rastérisation (Nvidia a opté pour une autre approche en décentralisant une partie du traitement géométrique mais nous ne nous attendons pas à ce qu'AMD suive cette voie).


Pour introduire Polaris, contrairement à ce qui se passe habituellement (à l'exception de Maxwell 1 et des GTX 750), AMD met en avant non pas son futur haut de gamme mais un petit GPU prévu pour les PC compacts et pour les portables. Il est équipé de mémoire GDDR5. Nous n'avons pas encore de nom pour ce GPU et n'avons pu l'apercevoir que brièvement sans pouvoir en prendre une photo. Tout juste de quoi apercevoir qu'il s'agit effectivement d'une petite puce et d'un packaging compact.

Sans confirmer que ce serait le premier GPU Polaris disponible, AMD a indiqué que ce petit GPU était important pour sa division graphique, qu'il serait lancé mi-2016 et qu'il serait fabriqué en 14nm chez GlobalFoundries. En précisant ne pas exclure que d'autres GPU soient fabriqués ailleurs, chez Samsung (probablement) ou chez TSMC (de moins en moins probable).

Au niveau de ses spécifications, nous ne saurons rien. Il faudra encore patienter quelque peu, le but d'AMD aujourd'hui étant de nous mettre l'eau à la bouche pour nous faire patienter quelques mois de plus.


Nous avons par contre pu voir ce GPU en action dans une version alpha lors d'un événement presse organisé il y a quelques semaines. AMD a voulu illustrer les gains d'efficacité énergétique apportés par Polaris par rapport à un GPU Maxwell, déjà très efficace. Des chiffres à prendre avec des pincettes, puisqu'ils restent dans le fond assez vagues et avec des conditions de mesure discutables, mais qui font état d'une progression fulgurante du rendement de l'architecture GCN.

Un système équipé d'un petit GPU Polaris est ainsi capable de maintenir 60 fps dans Star Wars Battlefront avec une consommation totale mesurée à la prise de 86W là où un même système équipé d'une GTX 950 demande 140W. Difficile d'en déduire exactement la consommation GPU et ce gain peut en partie être lié à la combinaison d'une puissance GPU supérieure avec un V-Sync à 60 Hz qui permet de rester à une plus faible fréquence, d'ailleurs le GPU utilisé est configuré à 850 MHz pour 0,8375v seulement. Mais de toute évidence Polaris en 14nm va enfin permettre à AMD de faire mieux que Maxwell en 28nm.

AMD tient d'ailleurs à préciser que cette démonstration a été effectuée avec un support partiel de Polaris par les pilotes. Les gains d'efficacité proviennent ainsi uniquement du 14nm et des CU GCN 4, le support des nouveaux mécanismes dédiés à économiser de l'énergie n'ayant pas encore été implémenté.

Bien entendu, les GPU Polaris n'auront pas simplement affaire aux GPU Maxwell actuels mais bien aux GPU Pascal et peut-être à de petits GPU Maxwell 2 fabriqués en 16/14nm. Et il est beaucoup trop tôt pour savoir comment s'opposeront ces futurs concurrents. Pour la première fois depuis très longtemps, il est d'ailleurs intéressant de noter qu'un élément tiers pourra venir semer le trouble dans le combat AMD vs Nvidia : les fondeurs. En effet, il semble de plus en plus probable qu'AMD exploite principalement les process 14nm de GlobalFoundries et Samsung alors que Nvidia exploiterait plutôt le 16nm de TSMC. Si l'un de ces process s'avère meilleur que l'autre, le fabricant de GPU qui aura misé sur le bon cheval s'en trouvera mécaniquement avantagé même si le process ne fait pas tout.

Vous retrouverez la présentation complète ci-dessous :
 
 

AMD repousse Fiji Gemini, la bi-Radeon Fury

Tags : AMD; Fiji; Radeon;
Publié le 22/12/2015 à 16:46 par Damien Triolet

Lors des premières annonces du GPU Fiji et de la Radeon R9 Fury X, AMD avait dévoilé le PCB d'une variante bi-GPU. Lisa Su, CEO d'AMD, avait alors précisé que cette carte graphique ultra haut de gamme serait disponible pour Noël. Mais AMD vient de nous confirmer officiellement que ce ne serait finalement pas le cas.

Pour rappel, la Fiji Gemini, nom de code de la carte graphique qui devrait s'appeler R9 Fury X2, est une variante bi-GPU de la famille Radeon R9 Fury pour laquelle nous nous attendons à ce qu'elle corresponde à peu près à une double Radeon R9 Nano. AMD devrait en effet exploiter son GPU dans une configuration orientée vers l'efficacité énergétique, exercice auquel Fiji se plie assez facilement, pour présenter un nouveau monstre de puissance sans faire exploser le TDP comme cela avait été le cas avec la Radeon R9 295X2.

Crédit photo : wccftech

Parmi les usages pour une telle carte se trouvent les très hautes résolutions, que ce soit de la 4K, du multi-écrans ou encore de la réalité virtuelle. Un dernier point d'ailleurs fortement mis en avant… et exploité aujourd'hui pour nous expliquer le retard de cette Fiji Gemini. La sortie de certains casques de réalité virtuelle (HTC Vive par exemple) a été repoussée, du coup AMD en fait de même pour sa solution bi-GPU. Questionné à ce sujet, voici ce qu'AMD nous a répondu :

Q. On the E3 Livecast, Lisa committed to shipping Fiji Gemini by Xmas. What happened? Is Fiji Gemini delayed?
A. The product schedule for Fiji Gemini had initially been aligned with consumer HMD availability, which had been scheduled for Q415 back in June. Due to some delays in overall VR ecosystem readiness, HMDs are now expected to be available to consumers by early Q216. To ensure the optimal VR experience, we're adjusting the Fiji Gemini launch schedule to better align with the market.
Working samples of Fiji Gemini have shipped to a variety of B2B customers in Q415, and initial customer reaction has been very positive.

Difficile de savoir quelle est la raison réelle de ce lancement repoussé puisqu'il n'est pas impossible qu'AMD profite de la situation pour ne pas avoir à admettre avoir besoin de quelques mois de plus pour fignoler sa carte bi-GPU et son système de refroidissement.

Quoi qu'il en soit, la déclaration d'AMD nous laisse penser qu'il faudra attendre le début du second trimestre ou la fin du premier trimestre (peut-être la GDC qui se tient à la mi-mars) pour ce lancement. Il serait alors peu probable qu'AMD lance au second trimestre un nouveau GPU haut de gamme fabriqué en 14/16nm. Si vous avez suivi les annonces récentes du Radeon Technology Group, vous aurez d'ailleurs pu remarquer une référence à la mobilité qui n'est probablement pas anodine par rapport au type de GPU qui pourrait introduire sa nouvelle architecture.

Radeon et affichage: HDR, HDMI 2.0a et DP 1.3 en 2016

Publié le 08/12/2015 à 15:00 par Damien Triolet

Lors d'un évènement presse organisé la semaine passée, AMD a dévoilé quelques nouveautés à venir concernant les sorties vidéos de ses GPU. Au menu : le support du HDR et de FreeSync via HDMI pour les GPU actuels ainsi que l'arrivée du HDMI 2.0a et du DisplayPort 1.3 avec de futurs GPU.


Avec les pilotes Crimson Edition, AMD a fait évoluer FreeSync, son implémentation de la fréquence de rafraîchissement variable qui permet de fluidifier l'image dans le cadre du jeu vidéo. AMD a ainsi fait évoluer son algorithme en y ajoutant une composante LFC qui permet de maintenir la fluidité à faible niveau de FPS, mais uniquement sur une partie des écrans, ceux dont la plage de variation de la fréquence de rafraîchissement est suffisamment large (au moins 2.5x la fréquence minimale).

Ce problème qualitatif étant résolu, AMD se penche dorénavant sur la généralisation du support de FreeSync avec tout d'abord l'arrivée d'un premier portable compatible : le Y700 de Lenovo qui combine un APU FX-8800P et une Radeon R9 M380. Il s'agit cependant d'une exclusivité Best Buy pour les Etats-Unis et son écran 15.6" 1080p doit se contenter d'une plage de variation limitée à 40-60 Hz.


A partir de début 2016, AMD apportera le support de FreeSync à travers la connectique HDMI. Contrairement au DisplayPort, le HDMI ne propose pas encore la fréquence de rafraîchissement variable de manière standardisée. Par conséquent, AMD a recours à une extension propriétaire de la norme, ce qui implique que seules les Radeon et les écrans pour lesquels les fabricants ont travaillé avec AMD pourront supporter FreeSync via cette connectique. AMD envisage d'ouvrir éventuellement son extension au reste de l'industrie mais entend garder le contrôle sur celle-ci.

L'intérêt de FreeSync via HDMI est de pouvoir proposer son support sur plus d'écrans, en particulier les modèles 1080p bon marchés. Plusieurs fabricants de contrôleurs ont accepté de travailler avec AMD pour intégrer ce support (Mstar, Novatek, Realtek) et une dizaine d'écrans sont déjà en préparation, principalement chez Samsung. Un support qui permettra également à certains portables (dont le GPU AMD pilote la sortie vidéo) de profiter de FreeSync sur un écran externe.


Ensuite, AMD misera en 2016 sur le HDR ou High Dynamic Range pour des images plus lumineuses, avec des couleurs plus fidèles. Comme vous le savez probablement, les jeux récents sont en général rendus en HDR avant qu'un algorithme de tone mapping transforme le tout en une image SDR affichable par nos écrans classiques. Ce n'est bien entendu pas idéal mais faute de mieux cela permettait de bénéficier en partie des avantages du HDR.


Cela va changer en 2016 avec l'arrivée progressive de TV et de moniteurs capables d'afficher des images HDR, plus fidèles et plus vives. Pour cela ces écrans devront proposer une luminosité supérieure (de 1000 à 2000 cd/m² pour les LCD et de 500 à 1000 cd/m² pour les OLED) et supporter un espace de couleurs étendu (BT.2020) avec un encodage 10-bit ou 12-bit adapté à ces nouvelles capacités (ST 2084 PQ).


AMD travaille d'ores et déjà avec certains développeurs de jeux vidéo de manière à ce qu'ils supportent ce mode d'affichage et implémentent un nouvel algorithme de tone mapping adapté aux spécificités du HDR "natif". Le gain qualitatif peut être énorme comme nous avons pu le voir sur certaines démonstrations, notamment à base de vidéos.

AMD précise que la collaboration de Microsoft sera également nécessaire pour profiter pleinement du HDR, Windows 10 n'étant actuellement pas compatible. Il est possible de passer outre la gestion des couleurs de Windows en mode plein écran exclusif, mais une mise à jour de son sous-système graphique sera nécessaire pour pouvoir combiner correctement des contenus HDR et SDR.



Certaines Radeon actuelles gagneront ce support en 2016 via une mise à jour des pilotes, AMD parle des R9 300 sans donner plus de détails au niveau du matériel compatible (quid des R9 200 ? des R7 300 ?) mais en précisant qu'il s'agira de HDR 10-bit en 1080p 120 Hz, 1440p 60 Hz ou 4K 30 Hz, autant via HDMI 1.4b que via DP 1.2.


Pour aller plus loin, et il s'agit du dernier point abordé par AMD, il faudra attendre l'arrivée de sa prochaine génération de GPU, prévue pour mi-2016. Au-delà du jeu vidéo, ces futures graphiques seront adaptées également au décodage de vidéo HDR et pourront supporter du HDR 10-bit en 4K 60 Hz grâce au support d'une connectique plus moderne.

AMD annonce ainsi l'arrivée du HDMI 2.0a (enfin puisque cette norme est supportée depuis plus d'un an par Nvidia !) et du DisplayPort 1.3, en précisant que les GPU Radeon de 2016 représenteront la première architecture mobile compatible avec ce standard. Des mots choisis prudemment et qui laissent penser que des cartes graphiques concurrentes pourraient le supporter avant sur PC de bureau.


Ces futurs GPU AMD supporteront évidemment le mode HBR3 du DP 1.3 qui offre jusqu'à 32.4 Gbps de bande passante. De quoi supporter la 4K jusqu'à 120 Hz (et donc FreeSync avec LFC) avec un seul connecteur ou encore des écrans 5K en 60 Hz (5120x2880).

AMD, et plus particulièrement le Radeon Technology Group, semble avoir décidé de rendre plus d'importance à la connectique et aux technologies d'affichage, un avantage traditionnel des Radeon qui avait été quelque peu délaissé dernièrement. De notre côté nous attendons avec impatience l'arrivée d'un écosystème HDR complet tant les premières démonstrations sont prometteuses avec un réel saut qualitatif, bien plus intéressant que le passage à une résolution supérieure.

Vous retrouverez la présentation complète ci-dessous :

 
 

Focus : Comparatif express de 6 Radeon R9 380

Publié le 02/12/2015 à 09:15 par Damien Triolet

Avec le meilleur rapport performances/prix du moment dans le milieu de gamme, la Radeon R9 380 est une carte graphique à considérer pour les joueurs. Gigabyte, MSI, Sapphire, VTX3D et XFX en proposent des variantes bon marché et nous avons voulu observer si celles-ci se comportaient raisonnablement sur le plan des nuisances sonores.

Comme nous avons pu le voir dans notre dossier complet consacré à la Radeon R9 380X, c'est sa petite sœur, la Radeon R9 380, qui, suite à une petite baisse de prix, représente désormais le...

[+] Lire la suite

Dossier : AMD Radeon R9 380X : les cartes Asus Strix et Sapphire Nitro en test

Publié le 30/11/2015 à 08:00 par Damien Triolet

Pour renforcer son offre face aux GTX 900, AMD introduit la Radeon R9 380X avec un GPU Tonga qui monte enfin en puissance. Est-ce suffisant pour faire la différence ? La réponse dans notre dossier complet.

[+] Lire la suite


Top articles