Actualités informatiques du 05-01-2017
- X370, B350, A320 : les chipsets AM4 détaillés
- Architecture Vega 10 : AMD lève le voile
- Intel montre Cannon Lake et mise sur la VR
- Nvidia Shield TV 2017 : 4K HDR et domotique
- Les cartes mères AM4 pour Ryzen se dévoilent
- Western Digital présente son Black PCIe SSD
- 1er moniteur 4K en 144 Hz G-SYNC pour Asus
- Nvidia annonce GeForce Now pour PC et Mac
Janvier 2017 | ||||||
---|---|---|---|---|---|---|
L | M | M | J | V | S | D |
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
X370, B350, A320 : les chipsets AM4 détaillés
A l'occasion du CES, AMD a dévoilé une partie des détails de sa gamme de chipset pour plate-forme AM4. Nous les avons combinés avec ce que nous savions par ailleurs ce qui permet d'avoir une vue complète de ce qui sera possible sur la plate-forme AM4 :
Pour rappel, Summit Ridge (Ryzen) et Bristol Ridge (l'APU AM4, pas encore basée sur Zen mais Excavator) sont des SoC et gèrent donc directement une partie des entrées/sorties, à savoir les lignes PCIe Gen3 bien entendu mais aussi une partie du stockage et de l'USB 3.0 Ils pourront ainsi être utilisés seuls sans être associé à un chipset ce qui correspond à la dénomination X300 ou A300 chez AMD, selon que l'overclocking soit ou non autorisé.
S'ils sont associés à un chipset, sous-traité pour rappel par AMD à ASMedia, on aura droit à des fonctionnalités supplémentaires. Ainsi, Ryzen associé à un X370 permettra de disposer de 16 lignes PCIe Gen3 et 8 lignes PCIe Gen2, ainsi qu'un maximum de 10 ports SATA ou par exemple 6 SATA et 2 ports M.2 PCIe x2.
Les lignes dédiés au stockage sont de type Gen3, qu'elles soient câblées au CPU ou au chipset, au contraire des lignes PCIe généralistes du chipset qui sont en Gen2 et offrent donc une bande passante deux fois inférieure. Elles ne sont pas communes avec les 16 ou 8 lignes Gen3 gérées par les CPU par ailleurs et on pourra donc disposer de toutes ces lignes en simultané. Il est possible d'associer les lignes du stockage et les lignes généralistes pour créer des ports x4, mais dans ce cas on sera donc en x4 Gen2. Il faut espérer que la combinaisons des 4 lignes PCIe Gen3 du stockage en un seul port est également possible mais elle n'est pas présente dans les documents AMD.
Avec le B350 on perd un peu en connectique PCIe Gen2, SATA et USB 3.0 mais on garde l'overclocking, alors que l'A320 fait encore perdre des E/S et ne permet plus l'overclocking. Comme pour l'overclocking, seuls les X3x0 permettent de débloquer sur Summit Ridge la possibilité d'avoir 2 ports PCIe x8 Gen3 et donc d'avoir du CrossFire (ou du SLI !).
Reste à voir comment tout ceci sera intégré par les fabricants de cartes mères notamment du fait de la différence entre Summit Ridge et Bristol Ridge côté stockage. Il est possible que l'alignement soit fait sur le plus petit dénominateur commun sur les cartes X370/B350/A320.
Architecture Vega 10 : AMD lève le voile
A l'occasion du CES, AMD nous en dit un petit peu plus sur le futur GPU Vega 10 et dévoile quelques points techniques de son architecture qui vont permettre d'améliorer le rendement en jeu et de monter en puissance dans le monde de l'intelligence artificielle.
Suivant la même formule que l'an passé avec Polaris, AMD a décidé de nous aider à patienter en dévoilant quelques éléments de sa nouvelle architecture GPU, dont le premier exemplaire, Vega 10, vise le haut de gamme et est annoncé pour le premier semestre 2017.
Au menu : une refonte du sous-système mémoire pour pouvoir prendre en charge une masse de données toujours plus imposantes, de nouveaux moteurs géométriques pour mieux traiter des décors plus riches, de nouveaux moteurs de rastérisation pour calculer moins de pixels inutiles et des unités de calcul plus efficaces pour donner un coup de boost à leurs performances.
A travers cette annonce, AMD explique avec quelques détails techniques comment ces évolutions ont été mises en place.
Avec Vega, AMD annonce avoir mis en place l'architecture mémoire pour GPU la plus avancée du marché, pour pouvoir répondre aux besoins actuels et futurs dans les domaines où la taille des data sets est en train d'exploser. Il serait déjà question de pétaoctets dans l'animation 3D voire même d'exaoctets dans le GPU computing et l'intelligence artificielle. Pour s'y attaquer, Vega est capable d'adresser jusqu'à 512 To grâce à un espace de mémoire virtuelle étendu (49-bit) qui va au-delà des 256 To du x64 (48-bit).
Bien entendu, le GPU Vega 10 ne recevra pas autant de mémoire dédiée. Il sera associé à 2 modules de mémoire HBM2 pour un bus combiné de 2048-bit. Sur base des premiers modules disponibles qui sont de type 4 Go (4-Hi), Vega 10 sera ainsi associé à 8 Go de HBM2, mais pourra passer à 16 Go quand les modules 8-Hi seront disponibles.
8 Go, voire 16 Go, c'est bien peu par rapport aux data sets auxquels AMD compte s'attaquer. Pour pouvoir s'y attaquer plus efficacement, AMD a revu le contrôleur mémoire qui s'appelle dorénavant High Bandwidth Cache Controller alors que la mémoire HBM2 est présentée comme un cache local (High Bandwidth Cache). Le HBCC a été conçu et optimisé pour piloter les mouvements de données à partir de l'énorme espace adressable. Qu'elles se situent dans la mémoire système, dans de la flash rattachée au GPU ou ailleurs sur le réseau, le but est faire en sorte qu'à chaque instant un maximum de données utiles se retrouvent dans la HBM2.
C'est évidemment principalement important dans le monde professionnel, mais AMD en parle également au niveau des jeux vidéo, probablement pour anticiper les critiques par rapport à une mémoire de "seulement" 8 Go contre 12 Go sur une Titan X de Nvidia. A ce sujet, AMD explique que pour chaque image générée moins de la moitié de la mémoire utilisée est réellement exploitée. Il y a donc des opportunités d'optimisation et le HBCC est annoncé comme capable de faire mieux que les contrôleurs et pilotes classiques.
Ensuite, ce sont évidemment les unités de calcul qui vont recevoir quelques améliorations. AMD explique tout d'abord les avoir retravaillées pour autoriser une montée en fréquence significative, et réduire l'écart avec Nvidia sur ce point. Mais ce n'est pas tout et le taux d'IPC devrait également progresser. AMD en dit peu à ce niveau et s'est contenté de nous indiquer avoir élargi le cache d'instructions, ce qui boosterait notamment le débit d'opérations sur 3 opérandes. Reste évidemment à voir à quel niveau se situeront les gains en pratique pour ces Next-Gen Compute Units (NCU).
L'autre grosse nouveauté concernant les unités de calcul est le packed math qui représente le support natif de la démi précision ou FP16. Pour rappel, les GPU GCN 3 (Tonga/Fiji) et GCN4 (Polaris), supportent déjà le FP16 mais uniquement pour gagner de la place au niveau des registres, les opérations étant traitées par les unités de calcul FP32 à débit identique.
Avec Vega, chaque SIMD d'unité de calcul FP32 pourra travailler sur des vecteurs 2-way en FP16. C'est identique à ce que fait Nvidia sur le GP100 ou sur Tegra et cela permet de doubler la puissance de calcul en demi précision si le compilateur arrive à extraire des paires d'opérations à traiter en parallèle. AMD précise que si ce n'est pas le cas, des gains pourront malgré tout ressortir au niveau de la consommation énergétique, et que son approche permet de gérer indépendamment les parties hautes et basses des registres pour plus d'efficacité.
Enfin, AMD a ajouté le support du calcul en 8-bit mais il est spécifique au deep learning, comme le fait Nvidia sur GP102/104/106/107). Contrairement au FP16 il ne s'agit donc pas d'un support généralisé mais d'une ou de quelques instructions spécifiques telles que DP4A (produit scalaire avec accumulation).
Au final, AMD parle donc par NCU de 128 ops 32-bit par cycle (= 64 FMA FP32 comme sur tous les GPU GCN), 256 ops 16-bit par cycle (= 128 FMA FP16) et de 512 ops 8-bit par cycle (= 64 DP4A). Aucune information concernant le débit en FP64 qui est juste annoncé comme configurable.
Plus spécifiquement pour le jeu vidéo cette fois, AMD a retravaillé ses moteurs géométriques sur 3 fronts. Tout d'abord leur débit va augmenter d'un facteur supérieur à 2x, AMD parle de 11 triangles par cycle avec 4 moteurs géométriques pour un GPU Vega, sans préciser s'il s'agit de Vega 10. Nous supposons qu'il s'agit ici du débit d'éjection des triangles qui tournent le dos à la caméra par exemple. Ce débit supérieur était jusqu'ici un des gros avantages des GPU Nvidia, qu'AMD devrait donc rattraper.
Ensuite, AMD proposera aux développeurs un nouveau type de shaders, les Primitive Shaders qui permettront de remplacer les Vertex Shaders et les Geometry Shaders. Nous ne savons pas exactement comment tout cela fonctionnera et sera exposé, mais cela devrait permettre de faciliter l'implémentation de pipelines de rendu personnalisés. AMD indique par ailleurs qu'ils permettront de booster le taux d'éjection des primitives mais nous ne savons pas si cela correspond au débit de 11 triangles par cycle noté ci-dessus ou si ce gain se fera en complément.
Enfin, suite à des retours constructifs de développeurs sur console, qui cherchaient à optimiser au maximum les performances, AMD s'est rendu compte que son algorithme de load balancing pouvait être amélioré pour mieux exploiter les ressources disponibles. Il a donc été revu.
Le dernier point mis en avant par AMD concerne les pixels. Avec tout d'abord des moteurs de rastérisation revus. AMD parle de draw stream binning rasterizer. Derrière ce charabia technique se cache une approche similaire à celle exploitée par Nvidia sur les GPU Maxwell et Pascal. Elle consiste à faire une exploitation opportuniste du principe du tile renderingpour éviter de calculer trop de pixels masqués.
Il ne s'agit pas d'avoir recours à un rendu en 2 passes comme le font certains GPU mobiles pour appliquer fermement la technique, mais plutôt d'utiliser un petit buffer interne avant la rastérisation qui permet de traiter celle-ci quand l'information de couverture de plus de triangles est connue. Si ces informations permettent d'éviter de générer des pixels masqués, c'est tout bonus, si ce n'est pas le cas le traitement se fait de manière classique. D'où le côté opportuniste de la technique qui ne souffre pas des désavantages des approches des GPU mobiles.
Les ROP ont eux aussi été revus. Leurs capacités exactes restent inconnues, mais au lieu d'exploiter de petits buffers spécifiques, ils deviennent des clients du gros cache L2. Selon AMD cela permet un gain appréciable dans les moteurs de type rendu différé qui sont devenus très courants dans les jeux vidéo.
Après ces quelques caractéristiques techniques de l'architecture Vega, intéressons-nous au GPU Vega 10 dans son ensemble. Physiquement tout d'abord puisque nous avons pu l'apercevoir brièvement dans les mains de Raja Koduri, responsable du groupe Radeon Technology (RTG) lors d'un évènement presse organisé par AMD le mois passé :
Nous pouvons apercevoir sur cette photo, prise rapidement au smartphone, un énorme die placé sur un interposer qui reçoit également 2 modules HBM2. Nous pouvons estimer la taille du die de Vega 10 entre 500 et 550 mm² (soit plus que les 471mm² du GP102, mais moins que les 610 mm² du GP100). C'est ce qui explique pourquoi AMD s'est contenté d'un bus 2048-bit, contrairement aux 4096-bit de Fiji dont les modules HBM1 prenaient beaucoup moins de place.
Pour pouvoir placer 4 modules HBM2 avec un gros die pour le GP100, Nvidia a de son côté recours à une double exposition très coûteuse, seule possibilité actuelle pour concevoir un interposer suffisamment grand pour recevoir l'ensemble. Avec Vega 10 AMD vise autant le marché professionnel que les joueurs et a donc opté pour une solution (un peu) plus raisonnable en termes de coûts de production.
Quelles pourraient être les spécifications complètes d'une Radeon basée sur le GPU Vega 10 ? Nous avons rassemblé dans le tableau qui suit nos suppositions actuelles basées sur les quelques éléments dévoilés par AMD, notamment lors de l'annonce de la Radeon Instinct MI25 :
Reste bien entendu que pour pouvoir réellement concurrencer le GP102 (Titan X), et pas seulement se contenter de battre le GP104 (GTX 1080), il faudra que les avancées dévoilées aujourd'hui par AMD portent réellement leurs fruits en pratique.
Est-ce que le HBCC sera efficace dans le cadre du jeu vidéo si 8 Go deviennent insuffisants ? Est-ce que le FP16 sera exploité par certains jeux ? Est-ce que les développeurs seront intéressés par les Primitive Shaders ? Est-ce que le boost au niveau du débit des moteurs géométrique se retrouvera en pratique ? Quel sera le gain réel en terme d'IPC ? La nouvelle approche pour la rastérisation permettra-t-elle de rattraper Nvidia en terme d'efficacité ?
A l'heure actuelle, AMD ne nous fournit aucune information ou donnée pour permettre de quantifier ou de se faire une idée de ce que tout cela va apporter. Nous ne pouvons pas oublier que les avancées dévoilées de la même manière pour Polaris ont au final produit des résultats mitigés par rapport aux espérances suscitées (nous avons noté 8% de mieux en jeu entre GCN3 et GCN4). Avec Vega, nous avons par contre l'impression qu'AMD a enfin pris le recul nécessaire pour observer ce que Nvidia a fait de bien pour rendre plus efficaces ses dernières générations de GPU. De quoi s'engager dans une voie similaire avec Vega, ce qui laisse augurer de bonnes choses. Nous sommes évidemment impatients d'en savoir plus !
Vous pourrez retrouver l'intégralité de la présentation d'AMD ci-dessous :
Intel montre Cannon Lake et mise sur la VR
Intel a fait la démonstration lors de sa conférence du CES 2017 d'un ordinateur portable 2-en-1 annoncé comme équipé d'une puce Cannon Lake. Intel cherche ainsi à rassurer quant à la tenue de son planning en ce qui concerne le 10nm qui reste prévu pour la fin de l'année.
Rappelons que Cannon Lake ne sera décliné que sur mobile et en version 2 coeurs, afin de de viser le segment qui profitera le plus du passage au 10nm côté consommation mais aussi d'essuyer les plâtres de la montée en puissance du 10nm sur une petite puce après un lancement du 14nm pour le moins problématique. Il faudra a priori attendre un an de plus que le 10nm soit étendu à d'autres usages.
Par ailleurs Intel s'est surtout concentré sur la VR lors de cette conférence, même si en parallèle il a notamment annoncé son modem 5G (fonctionnant en sub-6 GHz et mmWave). Il a notamment été question de la mise en production du projet Alloy, un concept de casque mêlant réalité virtuelle et réalité augmentée, en fin d'année mais aussi de l'arrivée de la technologie de VokeVR dans l'Oculus Rift, elle qui officie déjà dans le Gear VR de Samsung.
VokeVR est une entreprise qui a développé une plate-forme de diffusion d'événements en direct et en réalité virtuelle, en s'appuyant sur un procédé de capture vidéo stéréoscopique propriétaire. Intel a fait l'acquisition de cette société il y a deux mois.
Alors que AMD fourbit ses armes autour de Ryzen, Intel semble donc négliger ce qui a fait sa force jusqu'ici, préférant se tourner vers ce qu'il considère comme l'avenir. Après avoir loupé le coche de la mobilité, Intel n'a sans doute envie d'être distancé également dans le secteur de la réalité virtuelle qu'il considère comme prometteur, mais il faudra plus qu'une conférence dédiée pour y parvenir !
Nvidia Shield TV 2017 : 4K HDR et domotique
Lors de sa conférence de presse tenue à l'occasion du CES, Nvidia a dévoilé sa "nouvelle" box Shield Android TV, qui prend désormais en charge les flux 4K en HDR (H.265/HEVC @ 60 Hz).
Nul besoin pour autant de changer sa Shield actuelle. Nvidia s'est globalement contenté de recycler son précédent boîtier, avec de légères modifications, et de lui appliquer une mise à jour logicielle. Mise à jour qui sera également déployée courant janvier sur les boîtiers déjà vendus, rassure le caméléon.
Design et composants (Tegra X1, 3 Go de RAM et stockage de 16 Go) restent donc identiques, Nvidia ayant préféré jouer la carte des services sur cette "version" 2017. Molotov TV, Amazon Prime Video ou Google Play Films viennent en effet compléter l'offre de VOD / SVOD déjà composée de Netflix et YouTube.
Désormais pourvue par défaut d'Android 7.0, la Shield Android TV est accompagnée d'une nouvelle manette, qui avait déjà fait l'objet de fuites il y a quelques jours. Débarrassée de son pavé tactile, cette manette sera vendue 69,95 euros en France et est déjà disponible en précommande.
Elle est en revanche inclue par défaut à partir du 16 janvier dans le pack Shield Android TV, au même titre que la télécommande. Nvidia semble donc avoir fait l'effort attendu de ce point de vue. L'ensemble est disponible en précommande aux Etats-Unis au prix de 199 dollars, alors qu'en France, certains marchands le proposent à 229,99 euros. Notez qu'une version Pro, incluant un stockage de 500 Go, reste au programme (au prix de 299,99 dollars).
En plus du jeux et de la vidéo, la box de Nvidia veut également aller explorer le domaine de la maison connectée. Elle sera en effet la première à intégrer le Google Assistant, en dehors des produits Google (Home et Pixel). La Shield TV pourra ainsi servir d'interface entre vos périphériques domotiques compatibles et votre voix, afin de contrôler ces éléments d'un mot.
Nvidia compte sur ce domaine pour compléter sa proposition en matière d'accessoires, puisque le caméléon proposera dans les prochains mois le Shield Spot, sorte de relais à disposer n'importe où dans votre habitation afin d'étendre la portée de la commande vocale. Il sera commercialisé au tarif de 49,99 dollars.
Les cartes mères AM4 pour Ryzen se dévoilent
Après la conférence New Horizon il y a trois semaines la communication d'AMD autour de son Ryzen franchit une nouvelle étape.
Alors que ses prochains processeurs Ryzen sont attendus pour la fin de ce trimestre, AMD profite en effet du CES et de son exposition médiatique pour annoncer, avec les constructeurs partenaires, pas moins de 16 cartes mères AM4 compatibles avec les chipsets X370, B350 et A320.
ASRock, Asus, Biostar, Gigabyte et MSI sont donc de la partie, avec pour certains plusieurs modèles. Sont en effet annoncées les :
- ASRock X370 Taichi, X370 Gaming K4, AB350 Gaming K4 et A320M Pro4 ;
- Asus B350M-C
- Biostar X370GT7, X350GT5 et X350GT3 ;
- Gigabyte GA-AX370-Gaming K5, GA-AX370-Gaming 5, AB350-Gaming 3 et A320M-HD3 ;
- MSI A320M Pro-VD, X370 Xpower Gaming Titanium, B350 Tomahawk et B350M Mortar.
Pour rappel, le X370 se tourne davantage vers les utilisateurs dits "enthousiastes", avec notamment des dispositions en matière en overclocking dont ne dispose les B350 et A320, plus modeste également en matière de connectique même si les détails restent à être connus.
Ces chipsets sont bien évidemment compatibles avec le socket AM4 spécifiques aux futures puces Ryzen mais aussi au APU Bristol Ridge. AMD met en avant la prise en charge de la DDR4 en mode double canal, de l'interface NVMe, des supports de stockage au format M.2, du PCIe 3.0 et de l'USB 3 et 3.1 Gen2, une partie de ces fonctions étant en fait dévolues non pas au chipset mais au CPU.
En plus de ces cartes mères conçus par cinq partenaires différents, AMD annonce avoir placé son Ryzen dans les PC de dix-sept intégrateurs à travers le monde, de la Corée du Sud à la France en passant par la Russie.
Enfin, AMD assure avoir travaillé avec une quinzaine de constructeurs pour apporter à son socket un large choix de solutions de refroidissement (à air ou liquide), mettant notamment en avant les NH-D15 et NH-U12S de Noctua pour lesquels le constructeur fournira pour rappel gratuitement l'adaptateur nécessaire.
Tous ces produits arriveront naturellement sur le marché au moment de la sortie de Ryzen, avant la fin du trimestre promet AMD.
A défaut de lancement des Ryzen la firme de Sunnyvale cherche donc à rassurer quant à l'existence d'un écosystème déjà opérationnel autour de son Ryzen. Une puce à propos de laquelle les attentes sont importantes, qu'elles émanent des utilisateurs ou des investisseurs.
Western Digital présente son Black PCIe SSD
Western Digital a profité du CES pour annoncer sa nouvelle gamme de SSD, les WD Black. Deux modèles au format M2-2280 connecté en PCIe Gen3 x4 qui profite naturellement de l'interface NVMe.
Après des WD Green et Blue qui n'étaient que des mises à jour modestes de SSD SanDisk déjà sur le marché depuis longtemps, la firme présente aujourd'hui un nouveau modèle (en version 512 et 256 Go) qui ne vient clairement pas révolutionner le marché.
En effet, les débits offerts ici sont assez loin de ceux des meilleurs modèles du marché. Le WD Black ne dépasse pas les 2 050 Mo/s en lecture séquentielle, et les 800 Mo/s (et même 700 Mo/s pour la version 256 Go) en écriture. En comparaison, le 960 Pro de Samsung atteint respectivement 3,2 Go/s et 1,2 Go/s en lecture et écriture, respectivement (et même 1,9 Go/s grâce au TurboWrite).
Même constat sur les opérations aléatoires : là où le 960 Pro affiche 330 000 IOPS (lecture et écriture), il faut se contenter ici de 170 000 et 134 000 IOPS, au maximum.
Western Digital se prive-t-il des artifices dont a pu user SanDisk (comme la plupart des constructeurs) pour améliorer les performances ? Difficile de le dire, puisque la marque reste muette sur le contrôleur ou les puces de mémoire utilisées (même si l'on peut supposer l'usage du Marvell 88SS1093 et de la NAND TLC 15 nm de SanDisk).
Autre déception concernant l'endurance annoncée de ces SSD : là où un Samsung 960 Pro affiche 400 TBW, le WD Black se limite à 160 TBW (et même 80 TBW pour le modèle 256 Go).
Enfin, Western Digital précise que ses SSD disposent d'un système évitant la surchauffe des puces, indiquant que la température maximale de fonctionnement se situe autour des 70°C, ce qui semble plus faible que d'autres M.2. Comme souvent avec les SSD M.2 en cas de charge soutenue et continue les performances pourront donc baisser afin de rester sous cette valeur.
Seules véritables satisfactions, une garantie 5 ans mais surtout un prix particulièrement agressif : Western Digital compte en effet commercialiser au milieu du mois prochain ces SSD pour 110 et 200 dollars, pour les modèle 256 et 512 Go, respectivement.
1er moniteur 4K en 144 Hz G-SYNC pour Asus
Déjà aperçu lors du dernier Computex, le ROG Swift PG27UQ d'Asus est désormais officialisé . Le constructeur s'offre avec ce modèle le premier moniteur 4K (3840 x 2160 pixels) disposant d'un taux de rafraîchissement de 144 Hz, avec en sus le support de G-SYNC
Pourvu de deux DisplayPort 1.4 (et d'un troisième au format HDMI), cet écran de 27 pouces (pour une densité de pixels de 163 ppp, donc) offre également le support de la HDR 10-bit et gère l'espace colorimétrique DCI-P3 permettant d'afficher 25% de couleurs en plus par rapport au standard sRGB. Asus a également introduit dans son moniteur la technologie quantum dots : derrière ce nom très marketing se cache une amélioration du rétroéclairage des écrans LCD LED qui est censé parfaire la qualité des couleurs produites.
Le constructeur annonce par ailleurs une luminance de 1 000 cd/m². Avec une telle valeur, difficile d'offrir des noirs profonds. Asus a ainsi divisé sa dalle en 384 zones distinctes, afin de jouer sur l'intensité du rétroéclairage et d'éviter que l'ensemble de la dalle soit baignée de cette lumière.
Ce moniteur dispose enfin d'un pied pivotant et ajustable en hauteur, alors que l'écran s'incline et peut passer en mode portrait. Son prix est, forcément, très élevé : il sera disponible outre Atlantique au troisième trimestre pour près de... 2 000 dollars.
Nvidia annonce GeForce Now pour PC et Mac
Depuis un peu plus de 2 ans maintenant, Nvidia développe son propre système de streaming de jeux vidéo. Initialement connu sous la marque GRID, avant de devenir GeForce Now, il était jusqu'ici réservé aux tablettes et consoles Shield. Il débarquera bientôt sur PC et Mac.
En proposant dans un premier temps GeForce Now sur les périphériques Shield, Nvidia a pu profiter d'un écosystème plus restreint pour peaufiner sa plateforme de streaming avant de la proposer plus largement aux joueurs. Arrivée à maturité, ses serveurs initialement équipés en GPU Kepler sont en train d'être multipliés et mis à jour pour recevoir des GPU Pascal plus performants et moins gourmands.
Le moment est donc venu pour Nvidia de proposer une variante de GeForce Now sur PC (et sur Mac) via une application client qui permettra l'accès au streaming à partir du cloud, que la machine soit équipée ou pas de GPU Nvidia. Grossièrement il s'agit pour Nvidia de proposer un PC de jeu GeForce GTX à la demande.
Un environnement Windows 10 sera alors accessible en streaming et donnera accès aux plateformes les plus courantes, telles que Steam, Origin ou Uplay. Il suffira de s'y connecter avec son propre compte pour avoir accès à ses jeux ou en acheter de nouveaux, comme avec n'importe quel PC. L'infrastructure mise en place par Nvidia conservera les jeux en cache (tout du moins les plus courants), ce qui permettra une installation très rapide. Nvidia parle d'un objectif de moins d'une minute pour les plus gros jeux.
Les spécifications exactes des systèmes qui seront ainsi mis à disposition n'ont pas encore été communiquées, mais du côté graphique, Nvidia indique qu'il proposera soit une GeForce GTX 1060 (6 Go ? 3 Go ?), soit une GeForce GTX 1080.
L'approche est similaire à ce que propose la start-up française Blade avec le Shadow PC, mais pas identique. D'une part Blade propose sa solution à base de GeForce GTX 1070 à travers un mini-PC et d'autre part offre un espace de stockage dédié de 256 Go. Ce n'est pas le cas de GeForce Now qui est strictement dédié à l'exécution de jeux vidéo, Nvidia proposant un autre service pour les utilisations professionnelles.
Le business model est également différent. Le Shadow PC est proposé à travers un abonnement de 45€ par mois, réduit à 30€ avec un engagement annuel. Du côté de GeForce Now, le tarif aux Etats-Unis sera de 25$ soit pour 20 heures de jeu avec une GeForce GTX 1060, soit pour 10 heures de jeu avec une GeForce GTX 1080, ce qui reviendra donc sensiblement plus cher pour celui qui compte jouer régulièrement en streaming. Du côté de GeForce Now sur Shield, c'est dorénavant une GeForce GTX 1080 qui permettra de profiter des derniers jeux alors que le tarif de l'abonnement reste inchangé à 10€ par mois.
GeForce Now pour PC sera disponible début mars pour un nombre limité d'utilisateurs et uniquement aux Etats-Unis avant d'être proposé plus globalement au printemps. Dès l'ouverture d'un compte, Nvidia proposera alors un essai gratuit de 8 heures en GTX 1060 ou de 4 heures en GTX 1080.
Avec ses différentes plateformes GeForce Now, Nvidia compte toucher un plus grand nombre de joueurs, mais également permettre à ses clients actuels de profiter d'un PC de jeu GeForce lorsqu'ils sont en déplacement par exemple.