Les conséquences de la fin du CMOS

Mobilité

Les limites de la technologie CMOS des processeurs ne constituent pas un problème uniquement pour les fondeurs. Elles vont également obliger les développeurs à optimiser davantage leurs lignes de code.

L’annonce faite par le directeur des technologies d’IBM Bernard Meyerson jette un pavé dans la mare de l’industrie des semi-conducteurs (voir édition du 11 mai 2004). Cela dit, ses propos sont sans doute un peu exagérés puisque IBM s’est déjà engagée dans la livraison de composants gravés à 65 nanomètres courant 2005/2006, et que Texas Instrument se prépare également à ce niveau de gravure. Toutefois, tout indique que les méthodes atteignent leurs limites. Pour Intel, celles-ci sont multiples : mobilisation sur le Pentium Mobile, abandon du Pentium 4 et développement de processeurs bi-core. Ces changements de trajectoire sont des indices évidents des barrières que rencontre le plus grand fondeur mondial et de ses méthodes pour les minimiser. IBM est dans le même cas, même si ses chercheurs ont signalé à leurs dirigeants le mur auquel ils allaient se heurter depuis le milieu des années 90. Reste que les implications d’une telle annonce sont majeures : les améliorations de performances actuelles, tout autant que les modèles de développement adoptés par l’industrie, ne sont plus valables. Les effets induits vont de la fin de l’augmentation des performances à l’adoption de technologies radicalement différentes, en passant par l’optimisation des architectures logicielles.

L’impact le plus visible des obstacles rencontrés par le CMOS est la fin de la prédictibilité de la loi de Moore, qui veut que la puissance et le nombre de transistors dans les processeurs doublent tous les 18 à 24 mois. Intel se heurte à ce problème depuis l’année dernière. Conséquence directe : pour planifier leurs développements, les acteurs de l’industrie informatique ne peuvent plus compter sur la croissance constante de la puissance des processeurs. Différentes techniques devraient permettre au CMOS d’être encore utilisé pendant un certain temps : on parle de lithographie à immersion, une méthodologie qui devrait étendre l’usage du CMOS jusqu’à 45 nanomètres, de nano-fabrication ou d’électronique moléculaire organique. Le problème principal reste la quasi-impossibilité de modifier désormais la taille des portes logiques, qui devrait stagner autour d’une demi-douzaine d’atomes. De leur côté, les fondeurs devraient s’orienter vers l’intégration d’un maximum de composants supplémentaires de manière à proposer des « systèmes sur puces » sur lesquels on trouverait aussi bien le processeur que les mémoires Rom et Ram, ainsi que d’autres composants… Motorola s’engage déjà dans cette voie pour la fabrication d’un processeur ARM avec Philips et STMicroelectronics sur le site de Crolles 2, dans l’Isère, selon notre confrère Silicon Strategies. Mais d’autres voies sont explorées par IBM, Sun et Intel. Par exemple, doubler le nombre d’unités de calculs (ou cores) dans les processeurs tout en abaissant la puissance demandée.

Optimiser les systèmes et les applications

L’introduction de « systèmes sur puces » et de processeurs bi-core signifie surtout l’obligation d’utiliser des systèmes d’exploitation et des programmes optimisés. Pire encore : si les fondeurs ne suivent plus la loi de Moore, ainsi qu’ils ont commencé à le faire, les applications vont devoir pallier l’absence d’augmentation de puissance des composants électroniques. Si ces optimisations ne sont pas faites, le marché informatique risque de devenir amorphe. Du coup, les gains de performances pourraient se faire sur les systèmes d’exploitation et les applications, pour donner aux utilisateurs l’impression que l’industrie continue à fournir de la valeur. Outre la nécessité d’opter pour des systèmes d’exploitation 64 bits aptes au multiprocessing, c’est bien vers des efforts de réduction du code qu’il faudra s’orienter. Déjà, les tenants des différentes versions d’Unix commencent à souligner les atouts de ces systèmes comparés à la lourdeur de Windows. Et Apple, qui a commencé à optimiser son système d’exploitation pour ses processeurs quand ceux-ci ne parvenaient plus à monter en fréquence, est en bonne position face à Longhorn. Microsoft a en effet déjà prévu l’utilisation de processeurs tournant au minimum entre 4 et 6 GHz ! Outre les OS, les logiciels devront également tôt ou tard suivre cette voie pour ne pas réclamer des configurations trop puissantes. Certains critiques se frottent déjà les mains : la course à la puissance de l’industrie se traduit désormais par des efforts dans la conception des processeurs et des logiciels. Ce à quoi les utilisateurs ont tout à gagner.