Nvidia mise sur le computing avec Bill Dally

Publié le 18/06/2009 à 00:49 par
Imprimer

Hier, nous avons pu nous entretenir avec Bill Dally, le nouveau Chief Scientist de Nvidia qui a remplacé David Kirk à ce poste il y a quelques mois. Spécialiste du calcul massivement parallèle, Bill Dally apporte une expertise importante à Nvidia dans ce domaine. Il a ainsi contribué à mettre au point de nombreuses technologies nécessaires à la structure des serveurs massivement parallèle et lancé quelques startups dans ce domaine telles que Stream Processors, Inc. Qui plus est, avant de rejoindre Nvidia, il dirigeait le département Computer Science de l’université de Stanford où bien entendu il était de plus en plus question du calcul massivement parallèle.


L’arrivée de Bill Dally à la tête de la recherche chez Nvidia met donc clairement en évidence les objectifs de la société : évoluer de spécialiste de la 3D vers spécialiste du calcul massivement parallèle, la 3D devenant « simplement » une utilisation courante de cette capacité. Une transition qui pourrait permettre à Nvidia de se positionner au cœur des futures architectures, et non plus comme fournisseur de « complément » optionnel. Plus qu’une envie de faire changer les choses en sa faveur, il s’agit en réalité plutôt de la préparation de Nvidia face à une évolution inévitable. Bill Dally sera donc chargé de s’assurer que Nvidia dispose des bonnes technologies d’ici 5 à 10 ans.

De notre discussion avec Bill Dally, nous n’avons rien appris de concret sur les plans de Nvidia ou sur ses produits à venir. Par ailleurs il vient d’intégrer la société et n’a qu’une connaissance partielle des produits et stratégies actuelles pour lesquels il se contente de répéter le discours officiel classique de Nvidia. Il n’y a donc rien d’intéressant à apprendre de ce côté.

Plus en avant par contre, nous avons pu aborder d’autres sujets. Ainsi Bill Dally table sur une puissance de calcul de 20 teraflops pour les GPUs de 2015, ce qui correspond grossièrement à un doublement de leur puissance de calcul tous les 2 ans. Bill Dally indique également que les GPUs devront évoluer pour être plus efficaces dans l’exécution des tâches moins multi-threadées, c’est-à-dire pouvoir exploiter le parallélisme au niveau des instructions en plus du parallélisme au niveau des données ou des threads (identiques) auquel sont limité les GPUs actuels, contrairement au futur Larrabee d’Intel.

Interrogé sur l’éventuel avantage compétitif d’Intel, puisque le numéro 1 du CPU possède ses propres usines et peut donc potentiellement exploiter plus rapidement les nouvelle technologies de fabrication, Bill Dally estime qu’il s’agit là d’un détail et que c’est celui qui disposera de l’architecture la plus efficace qui l’emportera. Toujours à ce sujet et par rapport à la possibilité d’utiliser les services de GlobalFoundries au lieu de TSMC, Bill Dally a précisé ne pas être intéressé par la technologie SOI, qu’il juge bien trop chère par rapport au faible avantage qu’elle apporte. Pour le reste tout est possible mais bien entendu tant Nvidia qu’AMD ne veulent pas se brouiller avec TSMC tant qu’il est leur partenaire exclusif et préfèrent donc éviter le sujet.

Détail intéressant, Bill Dally nous a indiqué que plusieurs projets au sein de Nvidia concernaient le portage de C pour CUDA vers d’autres plateformes. Par contre, dans l’autre sens Nvidia n’envisage pas de supporter le langage Ct d’Intel, Bill Dally précisant que C pour CUDA est actuellement la référence. Nous pouvons en déduire que la stratégie de Nvidia sera d’ouvrir C pour CUDA à d’autres architectures pour maintenir cette position. Contrôler, tout du moins en partie, le côté logiciel des futures architectures aiderait bien entendu Nvidia à mieux se positionner et serait plus utile à long terme que de limiter ce langage à ses produits pour en protéger le petit marché actuel.

Bill Dally semble donc être très pragmatique sur ces sujets, tout comme, pour l’anecdote, il l’est sur l’intérêt réel porté à certains projets spécifiques. Ainsi, interrogé sur des évolutions possibles à apporter à l’accélération de Folding@home et des applications similaires, il a répondu que cela n’était pas prioritaire, celles-ci n’étant pas génératrices de revenus supplémentaires pour Nvidia.

Vos réactions

Top articles