Les supercalculs en quête d’étalon

Cloud

Superordinateur ou cluster, qui est le meilleur ? En tout cas, devant la prolifération des calculs distribués, le benchmark Linpack monstre ses limites et ne semble plus adapté aux mesures des performances des superordinateurs.

En France, les clusters intéressent beaucoup de monde. Xerox et EDF notamment, qui selon MacGeneration étaient présents à la conférence organisée dernièrement par Apple France sur le sujet. La firme rebondit sur l’intérêt suscité par Big Mac, le plus grand cluster de G5 au monde. En attendant qu’un Xserve doté de la puce soit proposé. Reste que la demande est là : en avril dernier 1 000 projets pour ce type de machines étaient prévus en France pour 2003 (voir édition du 28 avril 2003). L’un des derniers en date – une sorte de « Little Big Mac » – est un cluster de quinze PowerMac G5 biprocesseurs à 2 GHz, installés dans les laboratoires de l’Inserm à Nantes, ainsi que l’a révélé le site francophone MacPlus. Physique médicale, médecine nucléaire, imagerie, dosimétrie, les domaines de recherche de cette unité de biophysique et de cancérologie ne manquent pas. Selon les responsables d’Apple, il s’agit du premier cluster de G5 en France.

Des superordinateurs à bas prix

Engouement pour les grilles de calcul (voir édition du 22 octobre 2003), montée en puissance de la demande, multiplication des projets scientifiques, arrivée de l’informatique 64 bits à faible coût, baisse des budgets…, toutes les conditions sont réunies pour lancer le marché des superordinateurs à bas prix, censé atteindre 2,3 milliards de dollars d’ici 2006 (voir édition du 19 mars 2003). Mais une question reste en suspens : vaut-il mieux utiliser une machine conçue spécifiquement ou un cluster ? « Cette question sur la conception des superordinateurs est réapparue il y a un an et demi. Je ne pense pas qu’il y ait une seule réponse. Des machines différentes donnent un rapport coût/bénéfice différent en fonction des applications », a indiqué Jim McGraw, l’un des directeurs du centre de recherche de calculs scientifiques Lawrence Livermore, à EETimes.

En effet, un cluster ne résout pas certains problèmes. L’Agence pour les projets de recherche avancés de la Défense américaine (DARPA) s’intéresse de près à ces questions depuis août dernier. Au coeur du débat : le coût de développement logiciel, énorme selon les spécialistes. Le prochain standard de tests devrait ainsi évaluer les configurations apportant le meilleur rapport coût/ performances/ développement global. Une sorte de coût total d’exploitation qui pourrait bien avoir un impact sur la façon dont les prochaines machines seront conçues. Le test Linpack, qui détermine quelle machine traite le plus d’opérations par secondes, est en ligne de mire. C’est lui qui a ainsi permis de mesurer les 10,28 téraflops de puissance de Big Mac (voir encadré). Pour l’instant c’est un modèle. Mais ce test ne s’intéresse pas à certaines questions liées aux calculs à hautes performances. Plus complet, un autre test, HPCchallenge, a ainsi fait ses débuts à la conférence SC2003 consacrée aux superordinateurs en novembre dernier.