Pour gérer vos consentements :
Categories: Mobilité

Les conséquences de la fin du CMOS

L’annonce faite par le directeur des technologies d’IBM Bernard Meyerson jette un pavé dans la mare de l’industrie des semi-conducteurs (voir édition du 11 mai 2004). Cela dit, ses propos sont sans doute un peu exagérés puisque IBM s’est déjà engagée dans la livraison de composants gravés à 65 nanomètres courant 2005/2006, et que Texas Instrument se prépare également à ce niveau de gravure. Toutefois, tout indique que les méthodes atteignent leurs limites. Pour Intel, celles-ci sont multiples : mobilisation sur le Pentium Mobile, abandon du Pentium 4 et développement de processeurs bi-core. Ces changements de trajectoire sont des indices évidents des barrières que rencontre le plus grand fondeur mondial et de ses méthodes pour les minimiser. IBM est dans le même cas, même si ses chercheurs ont signalé à leurs dirigeants le mur auquel ils allaient se heurter depuis le milieu des années 90. Reste que les implications d’une telle annonce sont majeures : les améliorations de performances actuelles, tout autant que les modèles de développement adoptés par l’industrie, ne sont plus valables. Les effets induits vont de la fin de l’augmentation des performances à l’adoption de technologies radicalement différentes, en passant par l’optimisation des architectures logicielles.

L’impact le plus visible des obstacles rencontrés par le CMOS est la fin de la prédictibilité de la loi de Moore, qui veut que la puissance et le nombre de transistors dans les processeurs doublent tous les 18 à 24 mois. Intel se heurte à ce problème depuis l’année dernière. Conséquence directe : pour planifier leurs développements, les acteurs de l’industrie informatique ne peuvent plus compter sur la croissance constante de la puissance des processeurs. Différentes techniques devraient permettre au CMOS d’être encore utilisé pendant un certain temps : on parle de lithographie à immersion, une méthodologie qui devrait étendre l’usage du CMOS jusqu’à 45 nanomètres, de nano-fabrication ou d’électronique moléculaire organique. Le problème principal reste la quasi-impossibilité de modifier désormais la taille des portes logiques, qui devrait stagner autour d’une demi-douzaine d’atomes. De leur côté, les fondeurs devraient s’orienter vers l’intégration d’un maximum de composants supplémentaires de manière à proposer des « systèmes sur puces » sur lesquels on trouverait aussi bien le processeur que les mémoires Rom et Ram, ainsi que d’autres composants… Motorola s’engage déjà dans cette voie pour la fabrication d’un processeur ARM avec Philips et STMicroelectronics sur le site de Crolles 2, dans l’Isère, selon notre confrère Silicon Strategies. Mais d’autres voies sont explorées par IBM, Sun et Intel. Par exemple, doubler le nombre d’unités de calculs (ou cores) dans les processeurs tout en abaissant la puissance demandée.

Optimiser les systèmes et les applications

L’introduction de « systèmes sur puces » et de processeurs bi-core signifie surtout l’obligation d’utiliser des systèmes d’exploitation et des programmes optimisés. Pire encore : si les fondeurs ne suivent plus la loi de Moore, ainsi qu’ils ont commencé à le faire, les applications vont devoir pallier l’absence d’augmentation de puissance des composants électroniques. Si ces optimisations ne sont pas faites, le marché informatique risque de devenir amorphe. Du coup, les gains de performances pourraient se faire sur les systèmes d’exploitation et les applications, pour donner aux utilisateurs l’impression que l’industrie continue à fournir de la valeur. Outre la nécessité d’opter pour des systèmes d’exploitation 64 bits aptes au multiprocessing, c’est bien vers des efforts de réduction du code qu’il faudra s’orienter. Déjà, les tenants des différentes versions d’Unix commencent à souligner les atouts de ces systèmes comparés à la lourdeur de Windows. Et Apple, qui a commencé à optimiser son système d’exploitation pour ses processeurs quand ceux-ci ne parvenaient plus à monter en fréquence, est en bonne position face à Longhorn. Microsoft a en effet déjà prévu l’utilisation de processeurs tournant au minimum entre 4 et 6 GHz ! Outre les OS, les logiciels devront également tôt ou tard suivre cette voie pour ne pas réclamer des configurations trop puissantes. Certains critiques se frottent déjà les mains : la course à la puissance de l’industrie se traduit désormais par des efforts dans la conception des processeurs et des logiciels. Ce à quoi les utilisateurs ont tout à gagner.

Recent Posts

Avec Phi-3-mini, Microsoft va-t-il convertir les PME à la GenAI ?

Microsoft lance Phi-3-mini, un petit modèle de langage (SLM) qui s'adresse aux entreprises ne disposant…

4 heures ago

IA et RGPD : sont-ils compatibles ?

Quelle part d’incertitude faut-il accepter dans la mise en conformité des IA avec le RGPD…

3 semaines ago

Windows 10 : quel coût pour le support étendu ?

Microsoft a dévoilé les prix des mises à jour de sécurité étendues pour Windows 10.…

4 semaines ago

Cybersécurité : la plan de Docaposte pour convaincre les PME

Docaposte a sélectionné une douzaine de spécialistes français pour créer un Pack cybersécurité spécialement étudié…

1 mois ago

Surface Pro 10 : plus autonome et un peu plus réparable

La Surface Pro 10 sera disponible le 9 avril en France. Passage en revue de…

1 mois ago

Office 2024 : ce qu’on sait de la prochaine version

Que réserve Office 2024 ? Une première version de test officielle sera disponible en avril.…

1 mois ago