Actualités cartes graphiques

Les Radeon R300 pour juin, en deux temps ?

Tags : AMD; Fiji; Radeon;
Publié le 12/05/2015 à 15:52 par
Envoyer Imprimer

Selon Benchlife.info, la nouvelle série R300 de AMD devrait être lancée en juin, en deux temps. Le 18 juin ce sont ainsi des cartes basées sur des GPU connus, a priori Pitcairn (HD 7800 / R9 270), Tonga (R9 285) et Hawaii (R9 290/X) qui débarqueront. Viendra ensuite le temps des cartes à base de à base de Fiji qui seraient prévues pour le 24 juin. Wait & see !

Résultats Nvidia, ventes en hausse mais baisse à venir

Tags : Nvidia; Résultats;
Publié le 11/05/2015 à 19:33 par
Envoyer Imprimer

NVIDIA Logo 2010Nvidia a annoncé en fin de semaine passé ses résultats pour son premier trimestre fiscal qui prenait fin le 26 avril dernier. Les ventes s'établissent à 1,15 milliards de $, en hausse de 4% par rapport à la même période l'an passé, alors que la marge brute passe de 54,8% à 56,7%. Le résultat net passe de 166 à 187 millions de $, une hausse de 13%.

Dans le détail les ventes de GPU augmentent de 5% et représentent 940 millions de chiffre d'affaires, alors que Tegra est à 145 millions soit 4% de mieux. Nvidia précise que les ventes de GeForce sont en hausse de 14%, alors que les ventes de Telsa sont en hausse et que celles de Quadro en baisse.

Pour le trimestre suivant Nvidia n'est pas très optimiste puisqu'il prévoit d'atteindre 1,01 milliards de ventes environ, contre 1,10 l'an passé. La demande serait en baisse sous l'effet mutuel de la hausse des prix en Europe (du fait de la baisse de l'Euro) et des achats repoussés avant l'arrivée de Windows 10. Si elle n'est pas citée la concurrence de la future gamme R300 d'AMD devrait bien entendu également participer à cette baisse.

AMD lance les Radeon R9 380/370/360 OEM (MAJ)

Publié le 07/05/2015 à 01:51 par
Envoyer Imprimer

A travers la mise à jour de ses pages produits, c'est très discrètement qu'AMD vient de lancer les premières Radeon de la série 300 à destination des intégrateurs. Et pour cause, il s'agit simplement de renommage d'anciennes, voire très anciennes, cartes graphiques.

La vague de renommage que nous attendions du côté des Radeon vient de débuter avec la transition dans la famille R300 de 3 modèles issus de la gamme R200 actuelle. Ces premiers modèles sont à destination des OEM, soit des gros intégrateurs, qui vont ainsi préparer de "nouvelles" machines Windows 10 pour la rentrée.

Rappelons si cela était encore nécessaire que cette pratique du renommage est un mal chronique dans le monde des cartes graphiques. A travers cette stratégie commerciale, qui leur évite de devoir trop baisser les prix en l'absence de réelles nouveautés, AMD et Nvidia font régulièrement en sorte de permettre à leurs clients (les intégrateurs) de tromper le grand public en simulant la nouveauté via une nomenclature revue à la hausse. De quoi créer de la valeur fictive auprès d'un acheteur néophyte qui aura malheureusement du mal à imaginer qu'on lui vende une nouvelle Radeon R9 370 qui est en fait identique à sa vieille Radeon R7 265 qui elle-même était identique à sa très vieille Radeon HD 7850.

Cet exemple n'est pas pris au hasard puisque parmi ces 3 renommages, la Radeon R9 370 est bel et bien similaire à la HD 7850 qui date d'un peu plus de 3 ans, une éternité dans le monde des cartes graphiques.


La Radeon R9 380 OEM est une Radeon R9 285, un modèle qui n'existait jusqu'ici qu'en vente au détail, AMD n'ayant rien proposé sur ce marché entre la R9 290 OEM et la R9 270X OEM. Les fréquences restent identiques et par rapport à la R9 285, la R9 380 OEM devrait être plus souvent commercialisée en version 4 Go.

Ensuite, la R9 360 OEM est une R9 260 dont la fréquence GPU a été légèrement revue à la hausse. Elle passe de 1000 à 1050 MHz, soit un gain de 5% mais sans augmentation similaire de la bande passante mémoire qui ne progresse pas. A noter que la R9 260 OEM était en fait plutôt une R9 260X et donc supérieure à cette R9 360 OEM.

Enfin, nous retrouvons la R9 370 OEM qui est une R7 265 dont AMD a également boosté la fréquence GPU maximale. Elle passe de 925 à 975 MHz, soit un gain de 5%. Là aussi, la version 4 Go devrait être courante pour mieux attirer le chaland. A noter que la R9 370 OEM est inférieure aux Radeon R9 270 et R9 270 OEM qui disposaient d'un GPU Pitcairn complet équipé de 1280 unités de calcul. Il n'y en aura que 1024 pour cette R9 370 OEM qui est donc 20% inférieure.

Pire, le GPU Pitcairn étant l'un des plus vieux de la génération GCN, il ne supporte pas les dernières fonctionnalités d'AMD telles que TrueAudio ou encore FreeSync. AMD dispose vraisemblablement de gros stocks de ce vieux GPU, ce qui met la société dans une position délicate et la pousse à agir de la sorte pour tenter de les écouler et ne pas avoir à encaisser une perte sèche. De toute évidence, des prévisions de croissance très optimistes il y a 2 ans font ici face à la dure réalité de l'évolution vers le bas de ses parts de marché.

Reste cependant à voir si les Radeon R300 proposées au détail seront identiques à ces modèles OEM ou si AMD parviendra à proposer un lifting plus profond pour ne pas avoir à se reposer uniquement sur un nouveau haut de gamme pour terminer l'année 2015.


Mise à jour à 14h : AMD a mis en ligne d'autres pages produits sur lesquelles nous pouvons observer que les Radeon d'entrée de gamme sont également renommées. Les R7 250 et R7 240 (identiques en versions classiques et OEM) deviennent ainsi R7 350 et R7 340 et sont donc toujours basées sur un GPU Oland (384 unités de calcul, 128-bit). Il s'agit là aussi d'un ancien GPU qui ne supporte pas les dernières technologies telles que FreeSync. Par ailleurs, ces cartes peuvent toujours être proposées en versions GDDR5 ou DDR3.

La gamme Radeon R5 300 se distingue par contre de la gamme R5 200. Cette dernière était largement constituée de très vieux GPU fabriqués en 40 nm (excepté pour la R5 240 OEM). Ces dérivés disparaissent et il ne reste plus que deux références basées sur un GPU GCN (Oland, lui-même plus très jeune) fabriqué en 28nm et dont le bus mémoire a été castré à 64-bit. La R5 340 OEM est une R5 240 OEM dont la fréquence GPU est revue légèrement à la hausse (+5%) alors que la R5 330 OEM perd 64 unités de calcul (soit 320 en tout) et ne sera proposée qu'en version DDR3. Deux cartes qui n'ont aucun intérêt.

Batman AK + The Witcher 3 avec les GTX 970 / 980

Publié le 05/05/2015 à 15:03 par
Envoyer Imprimer

Nvidia vient d'annoncer un nouveau jeu offert avec les GeForce GTX 970 et 980, Batman: Arkham Knight. Cette opération vient s'ajouter à The Witcher 3 : Wild Hunt qui est pour rappel offert depuis mars, et qui profite également aux GTX 960, 970M et 980M.


Les GeForce GTX 970 et 980 profitent donc de deux titres récents à ce jour, The Witcher 3 étant prévu pour le 19 mai et Batman AK pour le 23 juin. Une manière pour Nvidia de rendre plus attrayante son offre sans pour autant baisser ses tarifs.

Comme d'habitude vous recevrez de la part d'un revendeur partenaire mettant en avant l'offre un code qui vous permettra d'obtenir auprès de Nvidia de quoi télécharger le jeu sur Steam. En cas de vente en ligne ce code est généralement envoyé par courriel après expiration du délai de rétractation.

DirectX 12 supportera un mix de GPU

Publié le 02/05/2015 à 04:51 par
Envoyer Imprimer

Microsoft avait réservé pour sa conférence Build 2015 les détails concernant une énième nouvelle fonctionnalité de Direct3D 12 : le support explicite du multi-GPU. Il ouvre en théorie la voie aux combinaisons de tous types de GPU, y compris de marques différentes, mais la pratique ne sera pas aussi simple.

Direct3D 12, la composante graphique du prochain DirectX, supportera plusieurs modes de multi-GPU (multiadapter). Le premier est un mode de multi-GPU implicite, similaire à ce qui est utilisé actuellement par AMD et Nvidia sous Direct3D 11 ou OpenGL pour supporter le CrossFire et le SLI. Avec ce mode, les développeurs n'ont pas trop à se soucier du multi-GPU, les pilotes se chargeant de son support de façon à peu près transparente, même s'ils doivent faire en sorte qu'il n'y ait pas de dépendance entre les images, puisqu'il s'agit en général d'un rendu des images en alternance (AFR).


La nouveauté c'est le support du mode multi-GPU explicite, ou plutôt des modes explicites. Dans ces cas de figures, le contrôle du multi-GPU revient aux développeurs qui pourront en faire à peu près tout ce qu'ils veulent. Ce support est basé sur l'extension de la gestion par Direct3D de différents moteurs pour piloter un GPU (graphics, compute, copy), fonctionnalité qui permet pour rappel de profiter du parallélisme entre différents types de tâches, comme expliqué ici. En multi-GPU explicite, ces différents moteurs seront exposés pour chaque GPU.

A partir de là, deux sous modes peuvent être exploités. Le multi-GPU explicite lié (linked) est proche des CrossFire et SLI actuels (il en exploite le moteur de composition), si ce n'est que les développeurs prennent le contrôle. L'ensemble est vu comme un seul gros GPU qui dispose de plus de moteurs de types graphics, compute et copy. Ce mode pourrait par exemple permettre de supporter plus facilement un rendu de type AFR malgré certaines dépendances entre images. Microsoft n'est pas rentré dans les détails à ce niveau et s'est contenté d'indiquer qu'ils seraient communiqués plus tard. Nous ne savons pas non plus si AMD et Nvidia conserveront la mains sur les combinaisons supportées (par exemple 2 GTX 980 et pas GTX 980 + GTX 970).

Enfin, le multi-GPU explicite non-lié (unlinked) est le mode qui autorise tout type de combinaisons de GPU. Direct3D 12 est très flexible et permet aux développeurs de gérer les synchronisations entre GPU, leurs mémoires respectives, des buffers distincts ou partagés, les transferts entre GPU… Bref de quoi faire à peu près tout ce qui peut leur passer par la tête pour exploiter tous les GPU du système.

De quoi imaginer la combinaison d'une GeForce avec une Radeon ? Oui et non. C'est théoriquement possible, mais en pratique différents problèmes vont se poser, que ce soit en termes de performances via les optimisations spécifiques des pilotes, ou en termes de qualité avec de petites différences dans le rendu des images (notamment au niveau du filtrage des textures ou de l'antialiasing) qui vont entraîner un clignotement. Des modes de types AFR ou SFR avec un mix de GPU ne sont donc pas réalistes, tout du moins pour l'instant.

Rappelons cependant que dans la documentation de Mantle, nous avons pu découvrir qu'AMD avait prévu un mécanisme pour demander à ses cartes graphiques de rentrer dans un mode "neutre" en terme de qualité de manière à uniformiser le rendu autant que possible entre des GPU Radeon différents. Dans le futur ce principe pourrait être étendu à Intel et Nvidia, mais mettre tout le monde d'accord ne sera pas simple, d'autant plus que l'intérêt commercial sera limité.

Dans l'immédiat, l'utilisation réaliste du multi-GPU explicite non-lié est différente. Il s'agit plutôt de faire traiter par chaque GPU différentes étapes du rendu, ce qui évite tout souci de qualité et de clignotement. C'est d'ailleurs ce qu'a choisi d'illustrer Microsoft qui a pour l'occasion modifié quelque peu l'Unreal Engine 4 de manière à déporter certaines tâches d'une carte graphique Nvidia vers un GPU intégré Intel.


Dans cette démonstration, le plus gros du rendu est traité par la carte graphique mais la fin du post processing est traitée par le GPU Intel qui se charge ensuite de l'affichage. Travailler de la sorte au niveau du post processing permet d'exploiter toute la puissance de calcul disponible en minimisant les échanges de données via le bus PCI Express puisqu'il suffit en gros de transférer le frame buffer et le Z-Buffer.

Choisir où scinder le rendu est essentiel pour s'assurer qu'il y ait bel et bien un gain de performances. Microsoft explique à ce sujet avoir fait en sorte que le GPU intégré prenne toujours moins de temps à faire son travail que la carte graphique. Celle-ci reçoit un coup de boost mais reste l'élément qui définit les performances.


Plus spécifiquement, l'opération permet de passer de 35.9 à 39.7 fps, soit un gain de 10%. En observant de plus près cet exemple, il apparaît que le GPU intégré prend beaucoup plus de temps pour traiter la partie finale du post processing que la carte graphique, mais ce dernier n'ayant rien d'autre à faire, cela permet un gain de performances. C'est probablement surtout vrai pour les GPU d'entrée voire de milieu de gamme (Microsoft ne précise pas la configuration) alors qu'il serait peut-être contreproductif de vouloir aider une GeForce GTX Titan X avec un GPU intégré.

Par contre, il y a un désavantage évident à cette technique qui apparaît sur ce graphique : elle augmente la latence. Dans l'exemple de Microsoft, la partie de la latence liée au rendu passe de 28ms à plus ou moins 45ms quand le GPU intégré entre en action. Suivant le mode d'affichage, cela peut correspondre à l'ajout de l'équivalent d'une image de latence, ce qui ne plaira pas aux joueurs exigeants sur ce point.

Du coup est-ce bien utile pour les développeurs de jeux vidéo d'essayer de proposer ce type d'optimisations ? Une démonstration telle que celle de Microsoft est relativement facile à mettre en place grâce à Direct3D 12, mais dans la pratique, sur PC, il y a un nombre énorme de combinaisons possibles à prendre en compte pour que l'opération ne soit pas contre-productive. Et mettre en place un système de load balancing automatique dans les moteurs est loin d'être simple, même si ce n'est pas impossible.

Dans l'immédiat, il nous semble donc probable que cette possibilité de mélanger différents types de GPU reste avant tout dans la zone d'expérimentation pour les développeurs de jeux vidéo, même si les gros moteurs graphiques pourraient la supporter rapidement. Un peu plus tard, la première utilisation commerciale pourrait concerner certains PC d'entrée de gamme. Nous pensons par exemple aux plateformes Dual Graphics d'AMD (APU + GPU) ou encore aux portables Optimus de Nvidia (GeForce associée à un GPU Intel). Avec un petit effort de la part des développeurs de jeux vidéo, AMD et Nvidia pourraient prendre le relais avec des profils adaptés pour booster certaines de leurs plateformes.

Vous pourrez retrouver ci-dessous l'ensemble des slides de la présentation de Microsoft effectuée lors de la Build 2015 (section multiadapter à partir de la page 11) :

 
 


Top articles