Les derniers contenus liés au tag Nvidia

Afficher sous forme de : Titre | Flux Filtrer avec un second tag : AMD; ASUS; Fermi; GeForce; GeForce 500; GeForce 600; GPGPU; GTC; Kepler; Pilotes GeForce;

Nvidia lance les Quadro K5200, K4200, K2200, K620, K420

Publié le 27/08/2014 à 08:00 par Damien Triolet
Commentaires (16) RéactionsEnvoyer Imprimer

Comme c'est souvent le cas lors du Siggraph, Nvidia a annoncé de nouvelles cartes graphiques professionnelles, dans la gamme Quadro. Pas de nouveauté majeure au menu, mais une augmentation de la puissance de traitement et de la mémoire vidéo à tous les niveaux tarifaires.

Commençons par ce qui ne change pas : le top de la gamme reste pour l'instant la Quadro K6000, dévoilée l'été passé. Nous nous attendions pourtant à du neuf puisque Nvidia a dans ses cartons un nouveau gros GPU Kepler, le GK210. Il n'y a aucune communication officielle à son sujet mais le kit de développement CUDA et divers documents y ont fait référence en parlant d'une hausse des performances par watts et de la quantité de mémoire partagée. Cette mémoire interne au GPU est exploitée lors du calcul intensif pour que les nombreux threads puissent communiquer entre eux.

Nous ne savons pas pourquoi une nouvelle Quadro basée sur ce GPU n'a pas été annoncée. Il est par exemple possible que Nvidia ait finalement décidé d'attendre un GPU de la génération Maxwell ou de réserver le GK210 à la gamme Tesla, pourquoi pas avec une annonce lors du salon SuperComputing 2014 (SC14) qui aura lieu au mois de novembre.

Ceci étant dit, tout le reste évolue et les Quadro K5000, K4000, K2000, K600 et 410 sont remplacées avantageusement par les Quadro K5200, K4200, K2200, K620 et K420 qui sont proposées à des tarifs similaires à ceux des anciens modèles.


De gauche à droite, les Quadro K420, K620, K2200, K4200, K5200 et K6000.

La Quadro K5000, à base de GPU GK104, laisse sa place à une Quadro K5200 basée sur un GPU GK110 plus musclé même si une partie de ses unités de calcul et de son interface mémoire a été désactivée. Une manière de laisser un net avantage à la Quadro K6000, basée sur le même GPU, mais également d'en réduire significativement la consommation. La Quadro K5200 se contente ainsi de 150W, soit seulement 25W de plus pour une puissance de calcul en hausse de 40%. Nvidia en a profité pour faire passer la mémoire embarquée de 4 à 8 Go de GDDR5.

Par rapport à la concurrence, elle se positionne en face de la FirePro W8100, également commercialisée à +/- 2200€ et qui affiche une puissance de calcul ainsi qu'une bande passante mémoire nettement plus élevée. Contrairement à AMD, Nvidia a fait le choix de ne pas activer le calcul rapide en double précision sur cette Quadro K5200. Cela s'explique en grande partie parce que Nvidia dispose d'une gamme d'accélérateurs Tesla dédiés à ce type de calcul.


Ensuite, la Quadro K4200 peut être vue comme un glissement vers le bas de la Quadro K5000. Les spécifications sont presque identiques entre les deux, cartes, l'une disposant de quelques unités de calcul de plus, l'autre d'une fréquence plus élevée. La consommation maximale baisse de 125 à 108W, le tarif chute de 2000 à 980€ et le format passe du double au simple slot. Par conséquent, elle doit se contenter d'une seule sortie DVI accompagnée de 2 sorties DisplayPort alors que la Quadro K5000 profitait d'une sortie DVI de plus. Un adaptateur est cependant fourni pour compenser cette différence.

Par rapport à la Quadro K4000, la puissance de calcul est en nette hausse : +67%. C'est la FirePro W7100, dont la disponibilité est attendue dans le courant de l'automne, qui devrait se positionner directement en face de cette Quadro K4200.

A noter que les Quadro K5200 et K4200 sont compatibles avec les modules SDI et Sync, elles sont d'ailleurs également proposées en kits avec ceux-ci. Un des connecteurs SLI de la carte est exploité pour connecter ces extensions. Le module Sync permet de synchroniser des entrées et sorties vidéos, par exemple pour mettre en place un mur d'écrans.


La Quadro K4200 associée au kit Sync.

Plus bas dans la gamme, les Quadro K2200 et K620 sont les premières Quadro basées sur l'architecture Maxwell (GPU GM107), plus efficace sur le plan énergétique que Kepler (68 et 45W) et capable de s'approcher plus facilement de ses débits bruts maximaux.

Par rapport à la Quadro K2000, grâce au gain d'efficacité, la K2200 double les performances pratiques en calcul et profite d'une mémoire en hausse de 2 à 4 Go. De son côté, la Quadro K620 double la puissance de calcul brute par rapport à la K600 et profite de 2 Go de mémoire au lieu de 1 Go. Les Quadro K2200 et K620 sont proposées respectivement à 520€ et 190€.

Enfin, la petite Quadro K420 revient sur l'architecture Kepler. Il s'agit à peu de choses près d'une Quadro K600 renommée, ses spécifications sont similaires si ce n'est que Nvidia autorise dorénavant le pilotage de 4 écrans (via hub DisplayPort), comme sur toutes ses autres Quadro, alors que précédemment les Quadro K600 et 410 étaient limitées à 2 écrans. La puissance de traitement de ce dernier modèle est très faible. Pour faire simple il faut le voir comme un ticket d'entrée pour pouvoir profiter des pilotes professionnels de Nvidia.

Nvidia met d'ailleurs en avant la qualité de ses pilotes en insistant sur leur fiabilité éprouvée et une certification pour un large panel d'applications. Alors que la concurrence est plutôt agressive sur le plan des spécifications et des performances brutes, Nvidia compte sur ses pilotes et leur réputation pour maintenir sa très large avance au niveau des parts de marché dans le monde graphique professionnel.

Baisse des ventes de cartes 3D en Q2

Tags : AMD; Intel; Nvidia;
Publié le 26/08/2014 à 12:10 par Guillaume Louel
Commentaires (19) RéactionsEnvoyer Imprimer

Jon Peddie Research vient de publier quelques chiffres sur le marché de la carte graphique additionnelle (hors GPU intégrés, qui inclus à la fois les PC fixes, portables et tablettes x86) pour le second trimestre 2014.


En ce qui concerne les parts de marché respectives, AMD et Nvidia reviennent à peu près au niveau de l'an passé avec 37.9 et 62% pour les deux constructeurs. Un chiffre en hausse pour AMD par rapport au premier trimestre ou sa part de marché était tombé à 35%.

Au-delà de ces chiffres, on retiendra surtout la baisse forte des ventes en volume sur ce trimestre, en baisse de 17.6% par rapport au second trimestre 2013 là où les ventes de PC desktop ne se sont contractées que de 1.7%. Plusieurs facteurs sont indiqués pour expliquer cette baisse forte, on notera surtout le pourcentage de PC desktop vendus avec une carte graphique additionnelle qui est en chute libre : de 63% au premier trimestre 2008, cette part était tombée au premier trimestre 2014 à 44% pour atteindre sur le second seulement 36%.

Au-delà de la percée des CPU avec partie graphique intégré qui contractent les volumes sur l'entrée de gamme, nous ajouterons également le relatif manque de nouveauté sur le marché de la carte graphique, qui n'aura pas stimulé les ventes auprès des joueurs.

Nvidia présente Denver

Publié le 13/08/2014 à 13:10 par Guillaume Louel
Commentaires (26) RéactionsEnvoyer Imprimer

Après une annonce quelque peu confuse au CES d'un Tegra K1 en deux versions, Nvidia a profité de la conférence Hotchips pour donner quelques petits détails sur son architecture processeur Denver.


Pour rappel, Denver est une implémentation customisée de l'architecture 64 bits ARMv8. Il s'agira des premiers cores ARM custom proposés par Nvidia qui utilisait jusqu'ici des cœurs génériques ARM (Cortex-A9 dans Tegra 3, Cortex-A15 dans Tegra 4, etc…) dans ses puces Tegra. Il s'agit de la seconde architecture ARMv8 custom présentée pour l'instant, la première étant celle d'Apple (Cyclone) utilisée dans les ses SoC A7. En pratique, une version spéciale des Tegra K1 sera disponible avec deux cœurs Denver (contre quatre cœurs Cortex-A15 pour la version 32 bits du Tegra K1).

La présentation de Nvidia ne rentre pas forcément dans un très haut niveau de détails, mais l'on y trouve quelques grandes lignes intéressantes. D'abord sur les unités d'exécution :


Nvidia présente ce slide qui met face à face les unités d'exécution d'un cœur Cortex-A15 et d'un cœur Denver. On retrouve certains changements liés à ARMv8 comme le passage des unités Neon/FP (les instructions SIMD d'ARM) de 64 à 128 bits, et d'autres plus intéressants. On retrouve sept ports qui incluent un plus grand nombre d'unités, par exemple au lieu d'un seul port pour les Load et les Stores, les deux ports sont capables d'effectuer les deux types d'opération, et aussi des instructions entières. Le détail le plus important concerne surement le décodeur qui indique une phase de « prédécodage ».

De manière classique sur les Cortex-A, les instructions ARM sont décodés, réordonnées, (le principe de l'OoO, Out of Order), les registres sont renommés, puis les instructions sont dispatchées aux unités d'exécution. A l'inverse chez Intel, le jeu d'instruction x86 étant très large, les instructions x86 sont traduites en micro opérations - une sorte de jeu d'instruction réduit, interne aux unités d'exécutions – avant de subir les mêmes opérations de changement d'ordre, renommage de registres et de dispatch. Le prédécodage laisse penser que Denver utilise lui aussi un jeu d'instruction interne différent. Plus surprenant, Denver pourrait être une architecture hardware in-order.

C'est en tout cas ce que laisse penser la fonctionnalité la plus originale de Denver, ce que Nvidia appelle « Dynamic Code Optimization ». En pratique, il s'agit d'une couche logicielle qui fonctionne dans un espace mémoire (128 Mo) protégé, géré directement par le firmware et qui n'est pas accessible au système d'exploitation. Ce code logiciel fait tourner des threads cachés du reste du système dans ce que Nvidia appelle des « hidden time slices », on suppose qu'il s'agit d'un contexte dédié à l'utilisation de DCO. Que fait donc cet optimiseur ?


La liste des opérations ne trompe pas, on retrouve ici toutes les opérations effectuées par les frontend des processeurs Out of Order modernes, comme le réordonnancement d'instructions ou le renommage de registre. On trouve même quelques fonctionnalités un peu plus avancées que l'on a déjà vues chez Intel et AMD comme le dépliage de boucles.


En pratique le fonctionnement est – d'après les informations que nous avons - ainsi : le code ARM est décodé en micro instructions puis envoyé directement aux unités d'exécution. En parallèle, ce code est envoyé aux threads cachés DCO qui vont effectuer un décodage « OoO » optimisé du code ARM en micro instructions (l'optimisation est effectuée en profitant d'informations de profilage statique récupérées par l'exécution du code). Ce code est ensuite stocké dans le cache en mémoire principale de 128 Mo que nous évoquions plus tôt. La prochaine fois que ce segment de code se représentera, le code optimisé en micro instructions est récupéré du cache mémoire et exécuté directement à la place du code décodé en hardware.

Pour résumer tout cela en une phrase, Denver implémente de manière logicielle l'OoO d'habitude implémentée de manière matérielle dans les autres processeurs. Si cela vous dit quelque chose, c'est probablement parce que ce type de design avait été utilisé par Transmeta pour ses Crusoe. Une différence notable avec les Crusoe est que Denver peut exécuter directement le code ARM via un décodeur matériel (de manière moins performante, et nous le supposons, in-order). En supprimant un frontend couteux en transistors, on peut sur le papier disposer d'une plus grande marge de transistors à placer ailleurs (unités d'exécution ou même GPU), ou réduire la consommation. A l'inverse, une architecture « in-order » n'est pas, lorsqu'elle est en fonctionnement, particulièrement efficace d'un point de vue énergétique lorsqu'elle doit attendre après des instructions mémoires.

Reste que si ce genre d'architecture peut être très efficace dans des benchmarks arithmétiques, en pratique tout dépendra de la variété de code utilisée et de l'efficacité de cet « OoO » logiciel. DCO semble capable de travailler sur des blocs de taille variables pouvant aller jusqu'à 1000 micro opérations. Nvidia a ajouté un cache d'instruction de niveau 1 de 128 Ko qui peut contenir les blocs les plus utilisés, tandis que les autres seront stockés en mémoire (beaucoup plus lente) en attente d'être exécutés de nouveau.


Nvidia donne un exemple du fonctionnement en pratique. Sur ce schéma, on peut voir en haut en vert le « type » d'exécutions qui ont lieu sur les cœurs Denver durant le début d'un benchmark SpecINT 2k. Malheureusement, il n'y a pas d'échelle de temps mais l'on note en vert les instructions optimisées, en vert pale les instructions décodées en hard, et en pourpre/violet les instructions exécutées par DCO. Leur nombre est non négligeable particulièrement en début de benchmark. La proportion d'instructions issues du décodeur matériel décroit au fur et à mesure, remplacées au fur et à mesure par des instructions « optimisées ». On peut voir l'augmentation de l'IPC au fur et à mesure en bas.

L'architecture de Denver est pour le moins originale et les quelques détails donnés durant la conférence Hot Chips ne permettent pas vraiment de se faire une idée des performances réelles de la puce. Nvidia avance quelques benchmarks ou il place, dans des tests arithmétiques (et donc répétitifs, le cas le plus avantageux pour ce type d'architecture), Denver au niveau d'un Celeron Haswell 2955U (1.4 GHz, 15 watts) sans préciser le TDP ou la fréquence du Denver utilisé. Les performances dans un environnement réel ou cohabitent de multiples applications dont le code n'est pas forcément fait de traitements répétitifs dépendront de l'efficacité de cet OoO logiciel. La taille du cache d'instruction et sa rapidité pouvant devenir une ressource critique pour les performances.

La disponibilité des K1 Denver n'a pas été précisée, indiquée simplement à « plus tard cette année » par le constructeur.

GTX 800 Gaming G1 pour Gigabyte à la rentrée

Publié le 04/08/2014 à 10:26 par Marc Prieur
Commentaires (32) RéactionsEnvoyer Imprimer

Dans une interview accordée à EXPreview, le directeur markerting carte graphique de Gigabyte a indiqué que le constructeur allait lancer en septembre une carte graphique au sein d'une nouvelle gamme Gaming G1.


Déjà présente côté carte mère, la gamme Gaming G1 en carte graphique devrait se distinguer notamment par la présence d'un backplate et de LED, et on l'imagine un code couleur identique aux cartes mères (rouge/noir).

Mais surtout, il a indiqué que cette carte se baserait sur un GPU de la gamme GTX 800 de Nvidia, confirmant donc au passage l'arrivée de nouveautés Nvidia pour la rentrée. Aux dernières rumeurs, ces nouvelles déclinaisons seront basées sur un GPU GM204. Toujours en 28nm, cette puce disposera à l'instar du GK104 d'un bus mémoire 256 bits mais devrait profiter d'un gain en puissance notable, à la faveur notamment du gain en efficacité énergétique introduit de l'architecture Maxwell déjà utilisé sur le GM107 des GTX 750 et 750 Ti.

Concernant la carte Gigabyte, il a été question d'une disponibilité prévue pour fin septembre ou octobre, la date dépendant bien entendu de celle fixée par Nvidia pour ses nouveaux GPU.

Dossier : Nvidia GeForce GTX Titan Z : la carte graphique à 3000€ en test

Publié le 01/08/2014 à 17:24 par Damien Triolet
Commentaires (229) RéactionsEnvoyer Imprimer

Nous avons enfin pu mettre la main sur la GeForce GTX Titan Z, la dernière carte bi-GPU de Nvidia, proposée à 3000€. Comment se comporte-t-elle face à la Radeon R9 295 X2 ? Sur le plan des performances ? Des nuisances sonores ?

[+] Lire la suite


Top articles