NVIDIA transforme un GPU en supercalculateur

ComposantsMobilitéPoste de travail

NVIDIA a levé le voile sur sa nouvelle architecture Fermi, qui transformera son prochain processeur graphique GT300 en GPU Computing, destiné aux applications HPC (High Performance Computing).

Lors de sa première GPU Technology Conference qui s’est tenue San Jose en Californie, NVIDIA a dévoilé sa nouvelle architecture GPU Cuda GT300, connue sous le nom de code Fermi, qui transformera les prochains processeurs graphiques du fondeur en GPU Computing, en permettant d’accélérer les performances des applications de calcul.

La première puce graphique GT300 devrait arriver sur le marché au début de l’année 2010, et aura pour mission de rendre sa présence indispensable aux côtés d’un processeur, en prenant en charge le traitement de données comme le calcul, parallèlement au travail effectué par le processeur.

“Il est parfaitement évident que les GPU sont désormais des processeurs de calcul parallèle généralistes ayant des capacités graphiques incroyables, et plus seulement des processeurs graphiques”, a déclaré Jen-Hsun Huang, co-fondateur et P-DG de NVIDIA, dans un communiqué de presse.

Ce nouveau processeur graphique basé sur l’architecture Fermi sera gravé en 40 nm par TSMC, se dotera de 3 milliards de transistors, contre “seulement” 1,4 milliard pour la version précédente, le GT200. Le GT300 embarquera également 512 processeurs de flux (steam processors), décomposés en 32 Streaming Multiprocessors intégrant chacun 32 cœurs Cuda.

En outre, chaque Streaming Multiprocessors va disposer de 64 Ko de mémoire cache, et 768 Ko de mémoire cache de type L2 seront disponibles pour l’ensemble des cœurs Cuda.

Par ailleurs, le GT300 prendra en charge le langage C++, en plus des langages C, Fortran, Java, Python, OpenCL et DirectCompute.

Egalement compatible avec la technologie DirectX 11, l’architecture Fermi de NVIDIA exécutera la technologie maison GigaThread Engine qui offre la prise en charge simultanée de l’exécution du noyau, où différents noyaux de la même application peuvent s’exécuter sur le GPU au même moment.


Lire la biographie de l´auteur  Masquer la biographie de l´auteur