Les contenus liés au tag Nvidia

Afficher sous forme de : Titre | Flux Filtrer avec un second tag : AMD; ASUS; Fermi; GeForce; GTC; Intel; Kepler; Maxwell; Pascal; Pilotes GeForce;

GTX 750 Ti et 750 chez Nvidia et R7 250X pour AMD

Publié le 06/02/2014 à 16:20 par Marc Prieur / source: TechPowerUp

Comme nous l'indiquions à l'époque des rumeurs de décembre annonçant une arrivée prochaine de l'architecture Maxwell de Nvidia, c'est bien sous la forme d'une puce d'entrée de gamme, le GM107, qu'elle va débarquer dans un premier temps.

Selon les dernières rumeurs, cette puce sera composée de la sorte :

- GM107 : 156mm² en 28nm, 5 SMX, 16 ROPs / GDDR5 128 bits
- GK106 : 221mm² en 28nm, 5 SMX, 24 ROPs / GDDR5 192 bits
- GK107 : 118mm² en 28nm, 2 SMX, 16 ROPs / GDDR5 128 bits

Rappelons que sur Kepler, mais cela reste une inconnue pour Maxwell, un SMX est constitué de 192 unités de calculs. Le GM107 serait un compromis entre le GK106 (GTX 660, et bridé en GTX 650 Ti Boost et 650 Ti) et le GK107 (GTX 650), avec la puissance de calcul du premier, si le nombre d'unités par SMX est inchangé, mais le fillrate et la bande passante du second.

Vu la taille du die en nette baisse, il est probable que Nvidia ait fait quelques compromis supplémentaires au niveau de son architecture. Pour rappel, si sur les GK1xx chaque SMX intégrait 16 unité de texturing, sur le GK208 ce nombre est passé à 8. Il est possible que cette simplification ait été reprise par Nvidia sur le GM107. Selon le choix fait au niveau du nombre d'unités de texturing par SMX, on sera de ce côté 25% (8 unités par SMX) à 150% (si c'est 16) au-dessus d'un GK107. Il semble également évident que Nvidia soit passé de 3 à 2 rasterizers pour s'aligner sur le débit de pixels autorisé par 16 ROP, réduisant au passage le débit de petits triangles rendus.

On peut s'attendre à des performances intermédiaires, plus proche de l'un ou de l'autre des GPU Kepler en fonction des jeux. Deux déclinaisons sont pour l'instant prévues :

- GTX 750 Ti : GPU à 1085-1163 MHz, 5 SMX actifs, GDDR5 128 bits à 5,5 Gbps
- GTX 750 : GPU à 1085-1163 MHz, 4 SMX actifs, GDDR5 128 bits à 5,1 Gbps

Le niveau de fréquence GPU est comparable à la génération précédente, avec un léger mieux du fait d'un boost qui était absent des 650 et 650 Ti. Côté mémoire on est à des niveaux comparables à ces deux solutions et en dessous d'une 660 qui dispose de mémoire 6 Gbps. Nvidia a probablement intégré des PHY GDDR5 plus simples et à la fréquence maximale limitée mais moins gourmands. Car c'est bien sur le point de l'efficacité énergétique que les nouvelles venues devraient se distinguer.

Les GTX 750 et 750 Ti seront respectivement plus rapides que les GTX 650 et 650 Ti, mais la GTX 660 et son GK106 restera intouchable alors même qu'elle n'est pas déclinée dans la gamme GeForce 700. Assisterons-nous à un renommage de celle-ci en 750 Ti Boost ?

AMD semble assez bien paré pour contrer cette offensive, les GTX 750 et 750 Ti ne feront sauf surprise que se repositionner face à l'offre R7 260 et 260X qui met à mal les GTX 650 Ti. Une Radeon R7 250X serait toutefois à l'étude afin de combler le "trou" entre R7 250 et R7 260X, cette dernière étant environ 35% plus rapide pour 20 € de plus.

AMD 'FreeSync': proposition pour le DP 1.2a

Publié le 23/01/2014 à 09:28 par Damien Triolet

Durant le CES, AMD nous a surpris en dévoilant une alternative gratuite au G-Sync de Nvidia. Si de nombreuses questions restent en suspens, nous en savons aujourd'hui un peu plus : elle devrait passer par une nouvelle option intégrée au standard DisplayPort 1.2a actuel.


Pour rappel, en octobre dernier, Nvidia a dévoilé G-Sync, un mode d'affichage qui repose sur une fréquence de rafraîchissement variable (ou dynamique, ou encore non-isochrone, FRV) destinée à forcer l'écran à se synchroniser par rapport au GPU. L'intérêt est d'éviter les désagréments de la fréquence de rafraîchissement fixe traditionnelle : elle force le GPU, qui par nature ne produit pas les images à intervalle parfaitement régulier, à se contorsionner pour se synchroniser par rapport à l'écran, ce qui entraîne suivant les cas et le mode de V-Sync des cassures dans les images, des saccades et/ou une latence supplémentaire. Des désagréments que les joueurs PC doivent accepter depuis de nombreuses années, à moins de disposer de systèmes très puissants capables de maintenir en permanence un niveau de performances égal ou supérieur au taux de rafraîchissement de l'écran.

Pour pouvoir proposer ce mode d'affichage miracle, Nvidia a recours à un "module G-Sync", relativement onéreux, qui vient prendre la place des contrôleurs de dalles LCD tradionnels ("scalers"). Nous avons pu tester un écran compatible G-Sync et les résultats sont probants : aucune cassure dans les images et une fluidité qui progresse nettement quand les performances se situent entre 40 et 60 fps.

Durant le CES, soit 4 mois plus tard, AMD a enfin réagi en indiquant qu'un standard VESA (Video Electronics Standards Association) allait permettre de faire de même sans devoir passer par un module spécial. Une initiative surnommée "FreeSync" en référence au surcoût élevé de la solution de Nvidia, et directement mise en démonstration à travers Toshiba Satellite Click (2-in-1 13.3") pour lequel la fréquence de rafraîchissement variable a été activée.

Bien que très brève, cette démonstration a mis en avant un résultat identique à celui de G-Sync et pour cause, son fonctionnement est exactement le même : partir de la fréquence de rafraîchissement maximale de l'écran et moduler la durée du VBLANK (espace entre 2 images sur le signal vidéo) pour forcer l'écran à "patienter" le temps que le GPU lui propose une nouvelle image à afficher.

Une démonstration qui a soulevé de nombreuses questions. Comment est-ce possible de faire aussi bien que G-Sync sans module spécial ? A quoi sert ce module G-Sync ? De quel standard s'agit-il ? Quand est-ce que cela pourrait être disponible ? Pourquoi Nvidia fait-il mine d'ignorer qu'un standard est en approche ? … Tant AMD que Nvidia ont préféré éviter de répondre à des questions trop précises, le premier probablement parce que sa solution n'est pas encore prête, le second probablement pour éviter d'avoir à admettre ne pas nous avoir tout dit…


Nous avions en effet dès le départ posé de nombreuses questions aux responsables de Nvidia concernant G-Sync, et à nouveau au début du mois de décembre en préparant le test du premier écran compatible. La possibilité qu'il fonctionne sur base d'un standard actuel ou futur ? Son intégration dans les portables qui pourrait être plus simple via l'eDP ? Nvidia n'a jamais répondu clairement à ces questions, se contentant de tourner autour du pot et de laisser penser que rien de tout cela n'était à l'ordre du jour, mais que tout était possible dans l'avenir. Après la démonstration d'AMD, Nvidia n'était pas plus pressé de répondre à ces questions, mais a tenu à préciser que la gestion de l'affichage est différente sur un écran intégré dans un portable par rapport à un moniteur de bureau et que sa solution repose sur une technologie propriétaire pour laquelle des brevets ont été déposés.

Rappelons à ce niveau qu'un brevet déposé n'est pas un brevet accordé (cela prend du temps) et encore moins un brevet validé puisque cela n'intervient en pratique aux Etats-Unis que s'il est contesté. Si la fameuse mention "patent pending" est prévue pour prévenir des concurrents éventuels qu'ils risquent d'enfreindre un brevet, son utilisation est devenue courante, toutes industries confondues, pour renforcer la communication en termes de crédibilité, de sentiment de complexité, d'exclusivité, etc.

Le plus simple aurait bien entendu été que VESA clarifie la situation. AMD indique que pas mal de personnes qui prennent part à l'organisation ont fait de gros yeux quand ils ont vus Nvidia annoncer une technologie propriétaire de gestion de la fréquence de rafraichissement variable. En fait, cette fonctionnalité existe depuis 2008 dans le standard eDP 1.0 (DisplayPort interne) puisqu'elle peut permettre des économies d'énergie, par exemple en ne rafraîchissant pas l'affichage du bureau Windows quand rien ne bouge. Nvidia ne ferait donc qu'en profiter dans une situation différente.


Malheureusement, VESA se contente de répondre qu'il ne leur est pas possible de commenter officiellement le sujet et qu'une communication officielle aura lieu plus tard dans l'année. L'accès à toutes les documentations des standards VESA est par ailleurs restreint à ses seuls membres.

En l'absence de plus de détails de la part de Nvidia, d'AMD ou de VESA, nous avons heureusement pu compter sur un lecteur bien informé, que nous remercions, puisqu'il a eu accès à ces documents et a pu nous les communiquer.

Nous apprenons ainsi qu'une demande de type SCR (Specification Change Request) a été déposée de manière à intégrer le support optionnel de la fréquence de rafraîchissement variable au standard DisplayPort 1.2a. Compte tenu du nom du document daté du 25 novembre, DP1.2a Extend MSA Tmg Para AMD SCR, il semble évident que la proposition a été soumise par AMD. Elle est actuellement au stade GMR  (General Member Review) est donc en bonne voie d'être finalisée et ratifiée.

Voici un extrait du document en question :
Summary
Extend the "MSA TIMING PARAMETER IGNORE" option to DisplayPort to enable source based control of the frame rate similar to embedded DisplayPort.

Intellectual property rights
N/A

Benefits as a result of changes
This enables the ability for external DisplayPort to take advantage of the option to ignore MSA timing parameter and have the sink slave to source timing to realize per frame dynamic refresh rate.

Assessment of the impact
The proposed change enable per frame dynamic refresh rate for single stream devices that expose dynamic refresh rate capability in EDID for DisplayPort interface. The source will be able to enable this with an SST interface or MST hub with physical ports. Logical MST port support of the feature is not included as part of this SCR. A generic framework to enable such feature for logical port is required that can accommodate other feature where stream related configuration is programmed in DPCD.

Analysis of the device software implication
SST device which support "MSA TIMING PARAMETER IGNORE" option will be able to expose the capability in EDID and DPCD to let source enable dynamic refresh rate.
Source driver would have to be updated to parse EDID and enable "MSA TIMING PARAMETER IGNORE" feature when source want the sink to be refreshed based on its update rate.

Analysis of the compliance test and interop implications
Currently this feature is tested as part of eDP CTS. New test would have to be added as part of DP LL CTS and EDID CTS.

D'ici quelques temps, les écrans DisplayPort 1.2a pourront donc, si les fabricants le désirent, supporter une fréquence de rafraîchissement variable. Pour cela, il faudra que la dalle LCD l'accepte ainsi que le contrôleur de l'écran. Durant le CES, AMD avait affirmé que certains moniteurs actuels seraient capables de supporter cette évolution avec une simple mise à jour de leur firmware, sans donner plus de détails. Nos questions à ce sujet sont restées lettres mortes et nous n'en savons donc pas plus, ni quand ces écrans actuels pourraient être mis à jour, ni quand de nouveaux modèles pourraient être commercialisés.

AMD nous a affirmé que le support de la fréquence de rafraîchissement variable était déjà intégré aux pilotes Catalyst récents mais qu'une interface pour en donner le contrôle aux joueurs était toujours en cours de développement. Même si les moniteurs compatibles FRV tardent à arriver, AMD devrait ainsi pouvoir proposer cette fonction rapidement sur certains portables, ce qui tombe d'ailleurs très bien puisque leur puissance graphique plus limitée fait qu'ils en auraient bien besoin pour proposer plus de confort aux joueurs.

Il est probable que Nvidia ait été le premier à réaliser l'intérêt que pourrait avoir la fréquence de rafraîchissement variable pour les joueurs. Friand de solutions propriétaires, Nvidia a cependant évité de soumettre son idée à VESA et opté pour le développement confidentiel d'un G-Sync limité à ses seules cartes graphiques. Une approche qui réduit immanquablement l'offre et empêche de généraliser son utilisation, même chez les utilisateurs de GeForce, mais qui a l'avantage de permettre de tirer des revenus supplémentaires de cette fonctionnalité, de se démarquer de la concurrence… et d'aller vite.

Ajouter une fonctionnalité à un standard VESA existant ou en cours de développement demande de prendre le temps qu'elle soit débattue par tous ses membres, validée et exploitée par l'industrie. Avec G-Sync, Nvidia a pu aller très vite, certes au prix d'un contrôleur écran émulé à l'aide d'un composant relativement cher. Ainsi, le module G-Sync est réellement utile à l'heure actuelle, car en attendant que des contrôleurs classiques supportent la FRV, que ce soit à travers un nouveau firmware, une nouvelle révision ou un nouveau modèle, c'est le seul moyen d'activer ce support sur les écrans de bureau.

Mais pourquoi Nvidia ne s'est-il pas contenté dans un premier temps de proposer G-Sync sur les portables, domaine où le lien eDP connecte la dalle au GPU d'une manière plus directe ? Sans surcoût ou revenu direct supplémentaire, cela aurait malgré tout apporté de la valeur à ses cartes graphiques mobiles. Le problème est que sur la majorité des portables équipés en GeForce, Nvidia n'est plus maître des sorties vidéos ! A travers la plateforme Optimus, toute cette partie est sous-traitée à l'IGP Intel. Ce dernier aurait donc dû collaborer à son support, or il a tout intérêt à préférer attendre un standard que favoriser une solution propriétaire de Nvidia.

Au final, vous l'aurez compris, aussi intéressante que soit la fréquence de rafraîchissement variable pour les joueurs, de nombreuses questions restent encore en suspens quant à sa généralisation éventuelle. Nvidia va-t-il supporter sa version standardisée dès qu'elle sera disponible ou tenter de forcer les joueurs à payer, en plus de leur carte graphique, la taxe d'une solution propriétaire ? Nvidia va-t-il arriver à s'entendre avec Intel pour l'arrivée de la FRV sur la plateforme Optimus ? Quand est-ce que des moniteurs DisplayPort 1.2a avec support de la FRV seront disponibles ? Si certains contrôleurs actuels acceptent la FRV via mise à jour de leur firmware, y aura-t-il des limitations telles que la désactivation de l'overdrive ?

En attendant d'en savoir plus, la technologie G-Sync de Nvidia doit être vue comme une manière d'accéder en primeur aux bénéfices du DisplayPort 1.2a + FRV, avec tout ce que cela implique : surcoût élevé et possibles limitations dans le futur en terme de compatibilité. Sans changer fondamentalement notre avis sur G-Sync tel que nous l'avions exprimé dans le test du premier écran compatible, avant d'apprendre l'arrivée d'une version standardisée, cela rend le surcoût plus difficile à accepter. Opter pour un des premiers écrans G-Sync en 1920x1080, les modèles de séries ne vont plus tarder, est difficilement justifiable s'ils s'accompagnent d'une surtaxe de 200€, de 150€ voire même de 100€.

Plus haut en gamme, par exemple sur le futur Asus RoG Swift PG278Q en 2560x1440 ou sur un éventuel moniteur UHD / 4K, notre avis est moins tranché. Il est plus difficile pour les cartes graphiques, même haut de gamme, de générer un affichage fluide dans cette résolution et dans les jeux gourmands. Nous pouvons donc comprendre que Nvidia se presse d'y apporter une solution d'autant plus que le tarif plus élevé de ces moniteurs, 800€ pour cet exemple, permet d'y intégrer plus facilement le surcoût actuel de G-Sync. Reste néanmoins à accepter de faire une croix sur toute possibilité d'évolution de son système vers une future carte graphique Radeon.


Le PG278Q d'Asus au CES.

Nous aurions bien entendu préféré que Nvidia se contente de lancer G-Sync tel qu'il existe aujourd'hui sur ce type d'écran, sans chercher à cacher le fait qu'il s'agit d'une version primeur d'un mode d'affichage qui est voué à être exploité par tous puisque basé sur le transfert d'une technologie qui existe déjà vers un autre type d'utilisation. Plus loin dans l'idéalisme il serait sans aucun doute bénéfique pour tous si Nvidia pouvait voir plus grand de temps en temps et viser des retours sur investissements indirects en transformant ses bonnes idées en propositions ouvertes, pour faire progresser l'écosystème PC, plutôt que de chercher une variante propriétaire à chaque technologie, dont la portée est mécaniquement plus limitée.

Focus : Nvidia Tegra K1 et son GPU Kepler : les details

Publié le 06/01/2014 à 15:20 par Damien Triolet

Enfin, après plusieurs générations de SoC basés sur un GPU à l'architecture vieillissante, Nvidia intègre un GPU digne de ce nom. Exit le GeForce ULP et place à Kepler pour le futur Tegra K1 !

Le Tegra K1 v1

Il a souvent été fait référence au nouveau SoC de Nvidia, nom de code Logan, en tant que Tegra 5, succession logique au Tegra 4. Nvidia a cependant décidé que la rupture d'architecture qui l'accompagne devait se refléter dans le nom du produit qui sera ainsi officiellement...

[+] Lire la suite

CES: Les écrans G-SYNC pour le printemps

Publié le 06/01/2014 à 10:37 par Damien Triolet

Durant sa conférence du CES, Nvidia a précisé le timing de l'arrivée des premiers écrans G-SYNC de série. Ce sera finalement pour le printemps et devraient alors arriver des modèles chez Acer, AOC, Asus, Benq, Philips et Viewsonic. Nvidia mentionne par ailleurs qu'il y aura autant du 27" que du 24" en 1920x1080 mais surtout au moins un modèle 27" en 2560x1440, pour lequel G-SYNC devrait représenter le plus d'intérêt.


Nous n'en savons par contre toujours pas plus concernant le surcoût de l'intégration de la version de production du module G-SYNC, ni s'il utilisera les mêmes composants que sur les prototypes actuels. Nous estimons cependant probable que ce coût reste relativement élevé dans un premier temps.

CES: Nvidia annonce Tegra K1, avec Denver en option

Publié le 06/01/2014 à 07:48 par Damien Triolet

A chaque CES son nouveau Tegra. L'édition 2014 du salon ne déroge pas à la règle et Nvidia y annonce officiellement son nouveau SoC précédemment connu sous le nom de code Logan. Destiné aux tablettes, aux gros smartphones et autres consoles mobiles, le Tegra K1 se démarque des précédents Tegra par l'arrivée, enfin d'un GPU Kepler, à l'architecture identique à celle des GeForce GTX 600 et GTX 700.


Nous vous avons déjà parlé de Logan à plusieurs reprises, Nvidia ayant dévoilé ses caractéristiques principales en mars lors de sa conférence GTC et cet été lors du Siggraph :

4+1 cores Cortex-A15 32-bit
GPU Kepler 192 "cores" (1 SMX)
Interface mémoire 64-bit

Grossièrement Tegra K1 est donc un SoC Tegra 4 dont le GPU de classe DirectX 9 à l'architecture vieillissante a été remplacé par un GPU Kepler de classe DirectX 11 qui correspond à une demi GeForce GT 740M. Une évolution attendue depuis longtemps qui permet à Nvidia, enfin de proposer pour son SoC une composante graphique à la hauteur de sa réputation sur PC.


Nvidia parle de 365 Gflops soit une puissance de calcul au niveau des pixels supérieure à celle des consoles PS3 et Xbox 360. De quoi afficher des performances qui seraient plus que doublées par rapport à celle du SoC Apple A7.

En dehors du nom commercial du SoC, l'autre grosse annonce concerne l'arrivée d'une seconde version de Tegra K1… équipée avec 2 cores Denver. Pour rappel il s'agit du premier core ARMv8 64-bit développé en interne par Nvidia, qui promet pour celui-ci des performances de premier plan tant en single thread qu'en multi thread.


Les premiers prototypes de cette version de Tegra K1 viennent tout juste de sortir des usines de TSMC et étaient déjà fonctionnel, ce que nous avons pu observer lors d'une démonstration très limitée qui n'incluait malheureusement aucun aperçu de ses performances. Il est encore trop tôt pour cela et Nvidia est probablement très optimiste en parlant de l'arrivée de premiers produits au second semestre. Nous tablons plutôt sur fin 2014 pour que ce Tegra K1 v2 débarque dans le commerce.


Nvidia en a profité pour dévoiler les grandes lignes de ses spécifications. Contrairement au Cortex-A15 qui est de type superscalaire 3 voies, Denver passe à 7 voies. Une architecture beaucoup plus large qui s'annonce effectivement bien plus performante en single thread. Pour le reste, Nvidia parle de fréquences jusqu'à 2.5 GHz, de caches L1D et L1I qui passent à 128 Ko et 64 Ko ainsi que d'un GPU Kepler identique à celui de Tegra K1 v1. Les deux versions de Tegra K1 seront compatibles pin-to-pin, ce qui permettra aux fabricants de passer assez facilement de l'un à l'autre, et ce qui indique que l'interface mémoire reste identique à 64-bit (double canal 32-bit).

Top articles