Actualités informatiques du 02-04-2013
- 3DMark et GLBenchmark 2.7 pour Android sont là
- GeForce 700M : de qui se moque Nvidia ?
- Un ARM Cortex-A57 16nm chez TSMC
- L'IEEE se lance sur le réseau 400 Gbit/s
- GDC: AMD, Intel, Nvidia, Qualcomm... à la GDC
| Avril 2013 | ||||||
|---|---|---|---|---|---|---|
| L | M | M | J | V | S | D |
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
| 29 | 30 | |||||
3DMark et GLBenchmark 2.7 pour Android sont là
Annoncé il y a 2 mois, le nouveau 3DMark est enfin disponible sous Android. Par rapport à la présentation que nous avions faite du benchmark, il y a une petite nouveauté.
Pour rappel, dans un premier temps, seul le test Ice Storm de niveau 9_x est disponible sous Android et OpenGL ES 2.0. Ce test est relativement léger, peut-être trop léger pour les SoC à venir compte tenu du retard qui a été accumulé par Futuremark sur la sortie de ce nouveau 3DMark. Du coup Futuremark a ajouté un nouveau preset : Ice Storm Extreme. Celui fait passer la résolution du rendu de 720p à 1080p, augmente la qualité des textures et des effets de post processing. D'ici quelques semaines, la version PC de 3DMark sera mise à jour pour intégrer ce nouveau test.

Nous avons pu tester brièvement ce premier 3DMark pour Android sur une tablette Nexus 7 et découvrir le Device Channel. Cet agrégateur de scores et de spécifications permet de générer un score moyen pour chaque périphérique et de comparer son résultat très rapidement à de nombreux autres produits. Voici quelques scores sous Ice Storm (score classique / FPS Test 1) reportés sur des périphériques actuellement populaires présents dans la base de données de 3DMark :
Nexus 4 (Snapdragon S4 Pro APQ 8064) : 10663 / 49.4 fps
Nexus 10 (Exynos 5 Dual 5250) : 7830 / 35.2 fps
Nexus 7 (Tegra 3 T30L) : 3492 / 12.1 fps
Galaxy S III (Exynos 4 Quad 4412) : 2828 / 7.5 fps
De notre côté nous avons obtenu un score de 3544 / 12.2 fps sur Nexus 7. A titre de comparaison grossière, les cores graphiques intégrés d'Ivy Bridge et de Trinity (dans leurs versions mobiles les plus performantes), obtiennent des scores supérieurs à 40000, alors qu'une Radeon HD 7750 atteint un score de près de 85000 / 500 fps.
Futuremark n'est pas le seul présent sur le créneau des benchmark 3D dédiés aux périphériques mobiles, qui semble représenter un business plus intéressant que du côté PC, compte tenu de nombreux acteurs qui sont prêts à cotiser pour intégrer le processus de développement. Rightware proposer ainsi Basemark X d'ici quelques jours alors que Kishonti vient de mettre à jour GLBenchmark en version 2.7.

GLBenchmark 2.7 intègre une nouvelle scène de test, T-Rex HD, plus lourde et bien plus intéressante graphiquement que la précédente Egypt HD ou que la scène Ice Storm de 3DMark. Par ailleurs, les tests synthétiques ont été mis à jour, il faut dire que le test de fillrate de GLBenchmark 2.5, par exemple, était plutôt mal conçu et avait tendance à être limité au niveau du setup et du débit de triangles plus qu'au niveau du fillrate.
Tout comme Futuremark, Kishonti vise le multiplateforme et en plus d'Android et d'iOS (plus tard dans la semaine), des versions Windows Phone 8, Windows 8 et Windows RT sont disponibles sur Windows Phone Store et Windows Store (il n'y a donc pas de support pour Windows 7). Ces versions Windows se prénomment logiquement DXBenchmark 2.7 puisqu'elles reposent sur DirectX 11.1 (niveau 9_x).
Vous pourrez retrouver 3DMark et GLBenchmark 2.7 sur la Play Store Android, et très prochainement sur l'App Store Apple.
GeForce 700M : de qui se moque Nvidia ?
Ce n'était pas un poisson d'avril, Nvidia a annoncé hier de nouvelles déclinaisons de GeForce 700M qui viennent s'ajouter aux GeForce GT 730M et GT 710M introduites il y a peu. Nvidia met en avant le support de la technologie Optimus, qui permet de profiter de l'IGP Intel pour réduire la consommation au repos, de GeForce Experience pour faciliter la configuration des jeux et de GPU Boost 2.0 pour optimiser les performances.
Sont ainsi introduites des GeForce GT 750M, GT 745M, GT 740M, GT 735M et GT 720M. La dernière est basée sur un GPU de la génération Fermi et représente de l'ultra bas de gamme, comme la GT 710M. Des GPU qui n'ont selon nous aucune utilité si ce n'est de permettre d'ajouter un logo de plus sur les portables. Les 4 autres GeForce GT 700 sont basées sur un GPU Kepler d'entrée de gamme, comme la GeForce 730M. Il s'agit du GK107 ou de son successeur, le GK208, aux performances identiques en dehors du bus mémoire limité à 64-bit, mais qui dispose d'un processeur de commandes plus flexibles pour CUDA.
De nouvelles cartes graphiques mobiles intéressantes ? Impossible à dire tant Nvidia joue de l'opacité sur les spécificités réelles de ces produits : l'occasion d'un petit, voire long, coup de gueule !
Commençons par GPU Boost 2.0. Si vous suivez l'actualité graphique desktop, vous savez probablement que Nvidia a toujours refusé d'expliquer clairement le fonctionnement de sa technologie GPU Boost, se contentant de donner des bribes d'informations qui se sont dans certains cas avérées incorrectes. La définition officielle de la version 2.0 de GPU Boost desktop est un non-sens et est probablement simplement le fruit d'un commercial en manque d'arguments à inscrire dans son PowerPoint. Qu'en est-il du côté mobile ? Voici ce que Nvidia communique à la presse spécialisée :

Très peu de concret et beaucoup d'arguments bateaux. En réalité, bien que pour une raison étrange Nvidia ait toujours refusé de communiquer officiellement sur le sujet, les GeForce 600M disposaient déjà d'un GPU Boost. Quelle est la différence avec le GPU Boost 2.0 des GeForce 700M ? Nous ne le saurons pas. Quelle différence avec la version desktop ? Nous ne le saurons pas.
Nvidia nous rassure cependant, inutile de creuser le sujet, il suffit de lui faire confiance : GPU Boost 2.0 va apporter un gain de performances (jusqu'à 15%) et n'a aucune influence sur les nuisances. Parce que bien entendu, maximiser l'utilisation d'une enveloppe thermique sur base de limites de consommation et de température ne va pas justement revenir à maximiser la température et la vitesse du ventilateur. Nvidia joue sur les mots : les nuisances maximales ne vont pas augmenter, c'est vrai, mais les nuisances pratiques vont s'en approcher plus souvent… Bien entendu, le fabricant peut décider de calibrer son système de refroidissement de manière à contenir agressivement les nuisances, mais les performances seront alors dans certains cas inférieures avec GPU Boost 2.0 que sans cette technologie. Par rapport aux GeForce 600M et à leur GPU Boost fantôme, quelle différence ? Nuisances mieux limitées ou gain de performances de 15% ? Impossible à dire.
Ce point étant traité, passons aux spécifications ou plutôt à leur absence. Avec les GeForce 700M, Nvidia a décidé de réduire sa communication sur les spécifications, pourtant déjà très vague auparavant. A la place, un indice de performances par rapport au HD 4000 d'Intel dans Crysis 2. Nvidia se justifie en expliquant que les cartes graphiques mobiles sont personnalisées pour chaque portable et qu'il n'y a donc pas de spécifications fixes. Par contre, les performances, elles, seraient bien toujours similaires ! Fréquences revues à la baisse ? DDR3 vs GDDR5 ? 64-bit vs 128-bit ? Un impact sur les performances ? Pas du tout, faites confiance à l'indice !
Voici les spécifications que nous avons pu observer en général pour les GeForce 600M en GK107 et les bribes d'informations communiquées par Nvidia pour les nouvelles GeForce GT 750M, GT 745M, GT 740M, GT 735M et GT 730M :

Toutes les GeForce 600M disposent d'un mode turbo, bien que quelques portables ne l'exploitent pas. Les GT 650M et GT 640 existent en version GDDR5 ou DDR3 (plus courante), la première variante se contentant d'une fréquence GPU réduite en version GDDR5 compte tenu de la limitation au niveau du TDP. Ces spécifications se retrouvent dans la majorité des portables équipés de ces cartes. Officiellement, il n'y a pas de version 64-bit et nous n'avons pas pu en observer.

Avec les GeForce 700M, ça se complique. Dans un document dédié à la presse spécialisée, Nvidia donne une fréquence de base maximale pour chaque GPU. Correspond-elle la fréquence habituelle de la carte graphique ou à un cas extrême ? A la version GDDR5 ou DDR3 ? Car en dehors des GT 735M et GT 730 qui seront toujours en DDR3 64-bit, les GT 750M, GT 745M et GT 740M peuvent exister soit avec de la GDDR5 très rapide soit avec de la DDR3 ainsi qu'en versions 64-bit et 128-bit. Nous pouvons supposer que 980 MHz pour la GT 740M n'est possible qu'en version DDR3 et que les versions 64-bit seront toujours en GDDR5, mais Nvidia ne dispose d'aucune information supplémentaire à communiquer à la presse à ce sujet.
Nvidia annonce par contre une GT 750M 50% plus performante que la GT 650M, une GT 745M 75% plus performante que la GT 645M et une GT 740M 40% plus performante que la GT 640M. Dans les deux premiers cas nous pouvons supposer que Nvidia compare la variante la plus véloce (GDDR5) des GT 750M et GT 745M aux variantes les moins véloces (DDR3) des GT 600M correspondantes.
Soyons honnête, sur base des informations officielles et de la communication à la presse spécialisée, il est impossible de juger de l'intérêt de ces nouvelles solutions graphiques. Cette situation n'est pas réellement nouvelle dans le monde des GPU mobiles, AMD et Nvidia ayant pris l'habitude d'y faire tout et n'importe quoi. Le lancement des GeForce 700M pousse cependant cette mauvaise habitude un pas plus loin dans la mauvaise direction.
Nvidia part du principe qu'il s'agit de produits grand public et qu'une communication sérieuse n'est pas nécessaire. Après tout, par rapport à ces produits, la presse spécialisée est en général plus que complaisante ou ne prend pas le temps de s'y intéresser et de réellement les tester. Et puis bon, au fond, le grand public n'y connaît pas grand-chose... DDR3 ou GDDR5 ? Ils ne verront pas la différence. GT 750M ou GT 740M ? Du moment qu'ils acceptent de payer un peu plus cher le portable équipé de la première…
Pourquoi s'embêter avec une communication détaillée qui empêcherait d'annoncer des gains fantaisistes par rapport à la génération précédente tout en profitant d'une hyper segmentation ridicule de l'entrée de gamme ? Ou qui ne permettrait pas par exemple de commercialiser plus cher une GT 750M sous-cadencée aux fréquences d'une GT 740M ? Après tout, le client est roi, sauf que le client bien entendu est le fabricant de portable. Si ce dernier voit de la valeur dans la confusion qui règne autour des GPU mobiles ou dans la possibilité de tromper le consommateur final, autant aller dans ce sens.
Ce manque de respect vis-à-vis du client final est désolant. De notre point de vue, l'approche commerciale de Nvidia fait que vous ne pouvez pas faire confiance à ces GeForce 700M ni trouver de la valeur dans le fait qu'un portable affiche la marque GeForce GT 750M dans ses spécifications. Il faudra attendre des retours d'utilisateurs de portables qui en sont équipés pour savoir quelles sont les spécifications de leur GPU et à quel niveau de performances vous pouvez vous attendre.
Sans nous faire d'illusions, nous continuons d'espérer que les fabricants de GPU et les fabricants de portables finiront par faire preuve de plus de transparence au niveau des cartes graphiques mobiles, qui représentent un composant déterminant lorsqu'un portable est utilisé pour le jeu.
Notez que les premiers portables équipés en GeForce GT 730M (Acer M3/V3 et Gigabyte U2442) affichent des fréquences GPU/mémoire de 725/900 MHz, mais sans supporter GPU Boost. Quant à la GT 740 intégrée dans l'Asus A56CB, elle est, selon nos confrères de Noteboocheck , cadencée à 810 MHz pour le GPU, 895 MHz pour son mode turbo et 900 MHz pour sa mémoire DDR3.
Correction du 01/07/2013: le nom du GPU que nous pensions être GK117 est en réalité GK208.
Un ARM Cortex-A57 16nm chez TSMC
TSMC vient de publier un communiqué de presse indiquant le premier tape-out d'un design d'ARM Cortex-A57. Pour rappel, le Cortex-A57 est le futur SoC d'ARM basé sur l'architecture ARMv8 et qui supportera pour la première fois le 64 bits. Nous avions détaillés ici l'annonce en octobre dernier par ARM de ces architectures, indiquant que la société proposait à ses partenaires des designs pour les process 20nm, des puces prévues pour 2014 pour rappel.

On se souvient cependant qu'ARM et TSMC avaient indiqués vouloir travailler sur l'après 20nm dès l'été dernier, et c'est dans ce cadre qu'il faut lire l'arrivée de ce tape-out (une puce qui sort de la chaine de fabrication, rien ne dit qu'elle est pleinement fonctionnelle) sur le process 16nm FinFET de TSMC qui est encore en cours de mise au point. Le fabricant taïwanais indique que le portage du design d'ARM vers son process 16nm a été réalisé en moins de six mois. En octobre dernier, TSMC avait effectivement indiqué (voir ici chez nos confrères de EE Times) qu'il utiliserait un ARMv8 comme puce de test pour la mise au point de son process 16nm.
Bien entendu, si ce portage et ce premier tape-out sont intéressants, il ne dit pas grand-chose sur l'état réel d'avancement du 16nm chez TSMC, ni même du 20nm. Pour rappel, TSMC utilisera pour le 20nm un design planaire basé sur un double patterning, à l'image de GlobalFoundries et des membres de la Common Platform. Et tout comme GlobalFoundries, TSMC semble vouloir accélérer la cadence pour passer le plus vite possible à la génération suivante (16nm chez TSMC, 14 chez GloFo) qui utiliseront les FinFET. Le 20nm devrait décidément avoir une durée de vie assez courte chez la plupart des constructeurs…
L'IEEE se lance sur le réseau 400 Gbit/s
Le comité de standardisation IEEE vient d'annoncer la création d'un groupe de travail dénommé "IEEE 802.3 400 Gb/s Ethernet Study Group". Comme son nom l'indique, son but est de travailler à l'élaboration de la nouvelle norme 400 GbE, qui fera suite au 100 GbE ratifié en 2010.
L'an passé une étude menée au sein de l'IEEE avait déjà indiqué que si les besoins débit réseau continuaient de croitre sur le même rythme annuel, une norme à 1 terabit par seconde serait nécessaire en 2015 alors qu'il faudrait atteindre les 10 terabits par seconde en 2020.
Le 400 GbE reposera bien entendu sur la fibre optique. Pour l'interconnexion en cuivre, un autre groupe travaille pour rappel à l'élaboration du NGBASE-T qui permettra d'atteindre 40 Gb/s, contre 10 Gb/s pour le 10GBASE-T.
GDC: AMD, Intel, Nvidia, Qualcomm... à la GDC
Lors de la GDC, dont l'édition 2013 s'est terminée vendredi dernier à San Francisco, les plus importants fournisseurs de technologies graphiques (les GPU Radeon, Mali, PowerVR, HD Graphics, GeForce, Adreno) étaient présents avec notamment pour but de convaincre les développeurs de jeux vidéo d'exploiter toutes les possibilités de leurs produits récents à travers des techniques de rendu toujours plus évoluées que ce soit sur PC ou dans le monde mobile, qui progresse à vive allure.



En plus de diverses présentations, AMD, ARM, Imagination, Intel, Nvidia et Qualcomm étaient présents à travers des stands principalement exploités pour mettre en avant leurs outils maisons : AMD GPU PerfStudio, ARM Mali Graphics Debugger, Imagination PVRTune, Intel Graphics Performance Analyzers, Nvidia Nsight, Qualcomm Adreno Profiler…

Ici en exemple, l'Adreno Profiler de Qualcomm qui permet d'observer assez facilement le comportement des GPU Adreno et d'appliquer des modifications à la volée pour identifier des bugs ou des goulots d'étranglement (bottlenecks). Il est ainsi possible de modifier un shader, de désactiver la synchronisation verticale, de réduire la taille de toutes les textures, etc., et d'observer l'impact en temps réel sur le smartphone ou sur la tablette.
Les outils de tous les acteurs cités proposent des possibilités similaires, chacun ayant des petits avantages ou inconvénients par rapport à la concurrence. Ils sont en général autant adapté au débogage et à l'optimisation de la partie graphique que de la partie "compute" éventuellement exposée pour les GPU.
Lors de plusieurs rencontres avec des développeurs, nous avons voulu savoir quels outils ils préféraient et pourquoi. La réponse de nos interlocuteurs a été unanime : aucun ! Pourquoi ? Tout simplement parce que la multiplication de ces outils devient problématique et que peu importe leurs qualités ou leurs défauts, devoir utiliser un outil spécifique à chaque marque de GPU est tout sauf pratique, d'autant plus quand il faut en supporter bon nombre comme c'est le cas sous Android.

Même avec seulement 3 acteurs, c'est un problème dans le monde PC comme le rappelle Crytek en parlant des opportunités et défis à venir. Il serait ainsi intéressant que Microsoft et Google proposent des outils de développement plus évolués qu'actuellement et dans lesquels les concepteurs de GPU pourraient venir s'interfacer pour proposer autant de détails que dans leurs propres outils mais d'une manière plus ou moins unifiée.
Notez au passage que Crytek en profite pour rappeler à Microsoft qu'il serait peut-être bon de travailler sur la documentation de DirectX !


