Nvidia, champion du programme de recherche Folding@Home avec Cuda

Cloud

En développant un client propre aux GeForce, l’Université de Stanford optimise l’exploitation des ressources des GPU Nvidia.

Travaillé au corps par le retour en force sur le marché des cartes graphiques de son éternel rival AMD/ATI, Nvidia multiplie les opérations de communication à l’occasion de son forum NVISION 08 (25 au 27 août à San Jose en Californie). Pas tant sur de nouveaux produits que sur les performances de ses solutions. Et même si une nouvelle GeForce 9 fait son apparition (voir encadré en bas de l’article).

La dernière en date concerne le projet scientifique Folding@Home. Opéré par l’Université de Stanford aux Etats-Unis, Folding@Home est un programme de recherches pour lutter contre les maladies dégénérescentes (Alzheimer, Parkinson, cancers, fibrose cystique…) à travers l’étude comportementale des protéines (et plus précisément de leur repliement). L’étude de ces comportements nécessite de gigantesques ressources en calcul.

Pour y répondre, Stanford s’appuie sur une solution de calculs distribués à partir des ordinateurs de particuliers, voire d’entreprises ou d’organisations associatives ou gouvernementale. L’université met ainsi un client, développé par ses soins, à la disposition des utilisateurs prêts à participer au projet. Le client exploite les ressources de la machine lorsque celles-ci ne sont pas utilisées (en mode veille essentiellement).

42 % de la puissance de calcul du projet Folding@Home

Récemment, Stanford a développé un client dédié aux puces graphiques (GPU) Nvidia à partir de Cuda, l’environnement de programmation en langage C pour des architectures parallèles multi-coeur proposé par le constructeur au « Caméléon ». En d’autres termes, Cuda permet d’exploiter les GPU Nvidia pour des calculs étrangers aux rendus graphiques purs.

Le résultat ne s’est pas fait attendre. Grâce à la version « Cuda » du client Folding@Home, les GeForce et autres Nforce ont généré plus de 1250 Téraflops (1 250 milliards d’opérations à la seconde) à partir de 11 370 GPU actifs, selon des résultats établis le 19 août dernier. Soit 42 % de la puissance totale générée pour le projet scientifique. A titre d’exemple, les 208 000 GPU sous Windows (à partir d’un GPU intégré au chipset) n’ont émis que 198 Téraflops.

Du coup, Nvidia dépasse largement le record du précédent détenteur de la plate-forme la plus généreuse en ressources de calcul, la PlayStation 3 de Sony, avec à peine 1080 téraflops pour plus de 38 000 GPU actifs. Quant au concurrent AMD/ATI, il n’apporte que 334 Téraflops. Mais à partir seulement de 3032 puces graphiques. Soit, proportionnellement, 0,11 Téraflops par GPU. Exactement le même résultat que celui obtenu par les puces Nvidia.

Conclusion, si Cuda facilite le travail des développeurs pour tirer parti de l’architecture des GeForce, le programme n’apporte visiblement pas plus de puissance de calcul face à son concurrent. Du moins, dans le programme Folding@Home. Un projet pour lequel l’important est avant tout de participer plus que de gagner.

Nvidia introduit Cuda sur le terrain de l’entrée de gamme
Nvidia vient d’annoncer l’arrivée de la GeForce 9400 GT. Une carte d’entrée de gamme PCI Express 16x avec sortie DVI et VGA. Doté d’un GPU à 550 MHz avec 16 processeurs de flux cadencés à 1400 MHz et renforcé par 512 Mo de mémoire vive, la nouvelle carte supporte le DirectX 10. Son format relativement compact lui permet d’être accueillie par tous (ou presque) les PC au format tour, même les plus modestes. Nvidia en profite pour rappeler que les « GeForce 9 peuvent également faire tourner des applications qui tirent parti du GPU pour des tâches informatiques non graphiques« . Une manière de rappeler que Cuda s’applique aussi aux cartes d’entrée de gamme. La GeForce 9400 GT devrait être commercialisée autour d’une cinquantaine d’euros par les partenaires habituels (MSI, Asus, PNY…).