Pour gérer vos consentements :
Categories: Mobilité

Premiers succès pour le ‘computing on demand’

Il y a à peine deux mois, le récent patron d’IBM, Sam Palmisano, annonçait son intention de faire de l' »utility computing » ? également appelé « computing on demand » ? son cheval de bataille, dégageant dans la foulée une ligne de crédit de 10 milliards de dollars. Comme son nom l’indique, le computing on demand vise à attribuer à la puissance de calcul fournie par les ordinateurs le même statut que celui de l’électricité, l’eau ou encore le téléphone, c’est-à-dire celui d’une prestation banalisée fournie par un prestataire et surtout facturée en fonction de la consommation.

Cette approche radicalise la notion d’infogérance puisque l’infrastructure informatique n’y est plus la propriété du client, ni même physiquement présente dans ses locaux, mais louée auprès d’un data center distant. Et il semble que le concept trouve un écho favorable du côté des entreprises puisque l’entité service d’IBM, IBM Global Services (IGS), a annoncé à quelques jours d’intervalle deux contrats d’infogérance, l’un avec Deutsche Bank, l’autre avec la banque américaine J.P. Morgan Chase, pour des montants respectifs de 2,5 et 5 milliards de dollars. Deux contrats remportés par IGS précisément grâce à sa capacité à « variabiliser » les coûts informatiques en fonction des besoins. Deutsche Bank a ainsi évalué à 1 milliard de dollars le montant des économies qu’il compte réaliser, et ce sur une durée de 10 ans.

Si le concept est indéniablement pertinent d’un point de vue économique, il n’est pas certain qu’il soit aisé à mettre en oeuvre techniquement. De son côté, IBM a mis au point une collection d’outils et de logiciels, baptisée Blue Typhon, permettant de gérer les équipements de réseau et de stockage des data centers. En particulier, il s’agit de mettre en commun des ressources disparates et d’en optimiser l’utilisation afin de les mobiliser pour, par exemple, faire face à un pic de consommation de tel ou tel client. C’est le domaine de la virtualisation des éléments de calcul, réseau et de stockage. A noter que tous les grands constructeurs informatiques ont une stratégie dans ce domaine : Hewlett-Packard avec « Utility data center » ou Sun Microsystems avec N1. Mais ces projets n’ont pas encore abouti ; il reste probablement bien des problèmes techniques à résoudre.

ASP et services Web

On ne peut s’empêcher de rapprocher le computing on demand d’une autre tendance forte de l’informatique, qui elle concerne les applications. Il s’agit de la location d’applications ou ASP et surtout des services Web, composants logiciels standardisés, loués auprès d’un prestataire. Dans les deux cas, l’enjeu est de simplifier l’informatique, d’en réduire les coûts sans en sacrifier la performance. Alors que l’ASP n’a pas rencontré le succès escompté et que les services Web en sont à leurs balbutiements, il semble, au vu des contrats remportés par IBM, que l’accès distant et à la demande aux ressources matérielles soit plus proche d’une large adoption par les entreprises.

Recent Posts

Avec Phi-3-mini, Microsoft va-t-il convertir les PME à la GenAI ?

Microsoft lance Phi-3-mini, un petit modèle de langage (SLM) qui s'adresse aux entreprises ne disposant…

2 jours ago

IA et RGPD : sont-ils compatibles ?

Quelle part d’incertitude faut-il accepter dans la mise en conformité des IA avec le RGPD…

3 semaines ago

Windows 10 : quel coût pour le support étendu ?

Microsoft a dévoilé les prix des mises à jour de sécurité étendues pour Windows 10.…

4 semaines ago

Cybersécurité : la plan de Docaposte pour convaincre les PME

Docaposte a sélectionné une douzaine de spécialistes français pour créer un Pack cybersécurité spécialement étudié…

1 mois ago

Surface Pro 10 : plus autonome et un peu plus réparable

La Surface Pro 10 sera disponible le 9 avril en France. Passage en revue de…

1 mois ago

Office 2024 : ce qu’on sait de la prochaine version

Que réserve Office 2024 ? Une première version de test officielle sera disponible en avril.…

1 mois ago