Actualités informatiques du 18-06-2009

Flux XML des news Flux XML avec la liste des 20 dernières actualités.

Barrettes 32 Go chez Samsung

Publié le 18/06/2009 à 12:39 par / source: MarketWatch
Imprimer

Samsung a montré la première barrette de mémoire d'une capacité de 32 Go. Il s'agit de DDR3 au format RDIMM fonctionnant en basse consommation (1.35V au lieu de 1.5V). Chaque barrette est composée de 72 puces de 4 Gbits gravées en 50 nm. Deux rangées de modules Quad Die Package sont montées sur les deux côtés des barrettes, chaque module comprenant 16 Gbits de DDR3. Cette capacité inédite ainsi que l'aspect basse consommation prédestinent particulièrement ces mémoires au marché des serveurs et des centre de données.



Dans son communiqué, Samsung mentionne une étude sur le futur du marché de la mémoire réalisée par IDC. Cette projection prévoit que la DDR3 occupera 29% du marché total de la mémoire en 2009 et 75% en 2011. Egalement, IDC indique que les puces 2Gbits et + occuperont cette année 3% du marché total de la DRAM mais que cette part devrait monter à 33% en 2011.

Super Talent MasterDrive SX SSD

Publié le 18/06/2009 à 12:17 par / source: SuperTalent
Imprimer

Super Talent a annoncé la gamme de disques SSD MasterDrive SX. Celle-ci est composée de trois produits SATA II dont la particularité est d'accueillir 128 Mo de cache. Ils sont composés d'un contrôleur Samsung (a priori PB22-J) et de puces mémoire MLC. L'entrée de gamme offre 64 Go avec des débits de 200 Mo/s en lecture et 120 Mo/s en écriture. Les deux autres disques de 128 et 256 Go proposent des débits de 220 Mo/s en lecture et 200 Mo/s en écriture.



On note la consommation annoncée qui est plutôt basse : 0.5 watts en lecture et 0.15 watts en idle. Des chiffres très "green" qu'il faudra vérifier sur pièce bien entendu. On trouve dores et déjà la version 128 Go sur le net pour un prix de 335.99$.

Intel Core i5 et Core i3

Publié le 18/06/2009 à 11:10 par
Imprimer

Intel vient d’annoncer ses marques Intel Core i5 et Core i3. A terme, elles remplaceront les gammes Core 2 et seules survivront en parallèle les dénominations Celeron, Pentium et Atom. Intel précise que selon leurs fonctionnalités, les prochains Lynnfield seront vendus sous les marques Core i7 ou Core i5. Selon nos informations, les Lynnfield avec hyperthreading activés (4 core et 8 thread donc) seront vendus en tant que Core i7, ceux sans (4 core et 4 thread) en tant que Core i5. Les Core i3 seront en sus dépourvus du mode Turbo.


Intel compte également mettre en avant la dénomination Intel Core en lieu et place des plates-formes vPro et Centrino. vPro continuera d’exister mais sera accolé au nom des processeurs ("Intel Core i7 vPro", "Intel Core i5 vPro" …) alors que Centrino ne sera plus utilisé en 2010 que pour la dénomination des produits Wi-Fi et WiMAX.

Nvidia mise sur le computing avec Bill Dally

Publié le 18/06/2009 à 00:49 par
Imprimer

Hier, nous avons pu nous entretenir avec Bill Dally, le nouveau Chief Scientist de Nvidia qui a remplacé David Kirk à ce poste il y a quelques mois. Spécialiste du calcul massivement parallèle, Bill Dally apporte une expertise importante à Nvidia dans ce domaine. Il a ainsi contribué à mettre au point de nombreuses technologies nécessaires à la structure des serveurs massivement parallèle et lancé quelques startups dans ce domaine telles que Stream Processors, Inc. Qui plus est, avant de rejoindre Nvidia, il dirigeait le département Computer Science de l’université de Stanford où bien entendu il était de plus en plus question du calcul massivement parallèle.


L’arrivée de Bill Dally à la tête de la recherche chez Nvidia met donc clairement en évidence les objectifs de la société : évoluer de spécialiste de la 3D vers spécialiste du calcul massivement parallèle, la 3D devenant « simplement » une utilisation courante de cette capacité. Une transition qui pourrait permettre à Nvidia de se positionner au cœur des futures architectures, et non plus comme fournisseur de « complément » optionnel. Plus qu’une envie de faire changer les choses en sa faveur, il s’agit en réalité plutôt de la préparation de Nvidia face à une évolution inévitable. Bill Dally sera donc chargé de s’assurer que Nvidia dispose des bonnes technologies d’ici 5 à 10 ans.

De notre discussion avec Bill Dally, nous n’avons rien appris de concret sur les plans de Nvidia ou sur ses produits à venir. Par ailleurs il vient d’intégrer la société et n’a qu’une connaissance partielle des produits et stratégies actuelles pour lesquels il se contente de répéter le discours officiel classique de Nvidia. Il n’y a donc rien d’intéressant à apprendre de ce côté.

Plus en avant par contre, nous avons pu aborder d’autres sujets. Ainsi Bill Dally table sur une puissance de calcul de 20 teraflops pour les GPUs de 2015, ce qui correspond grossièrement à un doublement de leur puissance de calcul tous les 2 ans. Bill Dally indique également que les GPUs devront évoluer pour être plus efficaces dans l’exécution des tâches moins multi-threadées, c’est-à-dire pouvoir exploiter le parallélisme au niveau des instructions en plus du parallélisme au niveau des données ou des threads (identiques) auquel sont limité les GPUs actuels, contrairement au futur Larrabee d’Intel.

Interrogé sur l’éventuel avantage compétitif d’Intel, puisque le numéro 1 du CPU possède ses propres usines et peut donc potentiellement exploiter plus rapidement les nouvelle technologies de fabrication, Bill Dally estime qu’il s’agit là d’un détail et que c’est celui qui disposera de l’architecture la plus efficace qui l’emportera. Toujours à ce sujet et par rapport à la possibilité d’utiliser les services de GlobalFoundries au lieu de TSMC, Bill Dally a précisé ne pas être intéressé par la technologie SOI, qu’il juge bien trop chère par rapport au faible avantage qu’elle apporte. Pour le reste tout est possible mais bien entendu tant Nvidia qu’AMD ne veulent pas se brouiller avec TSMC tant qu’il est leur partenaire exclusif et préfèrent donc éviter le sujet.

Détail intéressant, Bill Dally nous a indiqué que plusieurs projets au sein de Nvidia concernaient le portage de C pour CUDA vers d’autres plateformes. Par contre, dans l’autre sens Nvidia n’envisage pas de supporter le langage Ct d’Intel, Bill Dally précisant que C pour CUDA est actuellement la référence. Nous pouvons en déduire que la stratégie de Nvidia sera d’ouvrir C pour CUDA à d’autres architectures pour maintenir cette position. Contrôler, tout du moins en partie, le côté logiciel des futures architectures aiderait bien entendu Nvidia à mieux se positionner et serait plus utile à long terme que de limiter ce langage à ses produits pour en protéger le petit marché actuel.

Bill Dally semble donc être très pragmatique sur ces sujets, tout comme, pour l’anecdote, il l’est sur l’intérêt réel porté à certains projets spécifiques. Ainsi, interrogé sur des évolutions possibles à apporter à l’accélération de Folding@home et des applications similaires, il a répondu que cela n’était pas prioritaire, celles-ci n’étant pas génératrices de revenus supplémentaires pour Nvidia.

Top articles