Pour gérer vos consentements :
Categories: Cloud

IBM dévoile un moteur de virtualisation

Le 28 avril, IBM a présenté ce qu’il appelle un moteur de virtualisation (virtualization engine ou VE), qui combine plusieurs technologies logicielles et matérielles. VE comporte en premier lieu une technique de partitionnement ? IBM parle de micro-partitionnement – permettant d’exécuter dix systèmes d’exploitation sur un seul microprocesseur. A cela s’ajoutent des modifications de certains logiciels d’IBM, comme le serveur d’applications J2EE WebSphere, la console d’administration Tivoli ou la base de données DB2. C’est cet ensemble qui constitue le moteur de virtualisation. Résultat de trois années de recherche, VE sera intégré sur certains serveurs de la gamme iSeries dès le mois prochain. La gamme pSeries et les équipements de stockage en bénéficieront également alors que les logiciels de partitionnement d’un éditeur tiers – VMware d’EMC (voir édition du 8 janvier 2004) – seront utilisés pour les serveurs Intel xSeries.

Optimiser l’utilisation des serveurs

Le plus souvent appliquée aux mondes du stockage et des mainframes, la virtualisation vise à fournir une vue d’ensemble des ressources disponibles sur un réseau et d’en faciliter l’accès, indépendamment de leur emplacement physique. Précisons que, de plus en plus, la virtualisation concerne non seulement les ressources matérielles mais aussi les données et les applications, afin d’en donner un accès unifié. Prenons l’exemple d’un serveur quadriprocesseur : il peut être décomposé grâce à VE en quarante partitions logiques, chacune ayant son propre système d’exploitation, ses propres applications et sa propre mémoire. Une couche logicielle permet de faire fonctionner l’ensemble, l’administration de ces serveurs virtuels et des serveurs constituant l’infrastructure matérielle, notamment ceux d’autres constructeurs qu’IBM, étant gérée de façon dynamique au niveau de la console d’administration Tivoli. Les serveurs virtuels peuvent ainsi être affectés à l’exécution d’une tâche, en fonction des besoins. L’enjeu est in fine d’optimiser l’utilisation de la capacité de calcul des serveurs, en appliquant une technologie communément utilisée sur les mainframes. Les serveurs sont en effet en moyenne utilisés à 15 % de leurs capacités alors que cette proportion atteint 80 % dans le cas des mainframes.

Recent Posts

IA et RGPD : sont-ils compatibles ?

Quelle part d’incertitude faut-il accepter dans la mise en conformité des IA avec le RGPD…

2 semaines ago

Windows 10 : quel coût pour le support étendu ?

Microsoft a dévoilé les prix des mises à jour de sécurité étendues pour Windows 10.…

3 semaines ago

Cybersécurité : la plan de Docaposte pour convaincre les PME

Docaposte a sélectionné une douzaine de spécialistes français pour créer un Pack cybersécurité spécialement étudié…

1 mois ago

Surface Pro 10 : plus autonome et un peu plus réparable

La Surface Pro 10 sera disponible le 9 avril en France. Passage en revue de…

1 mois ago

Office 2024 : ce qu’on sait de la prochaine version

Que réserve Office 2024 ? Une première version de test officielle sera disponible en avril.…

1 mois ago

Microsoft Teams : comment fonctionne le double usage « pro-perso »

Microsoft Teams évolue dans une version « unifiée » qui permet de combiner les usages…

1 mois ago