S.Duproz (Redbus) : “Nous voulons nous prémunir d’une panne similaire”

Cloud

Le centre serveurs parisien de Redbus n’est plus affecté par la panne d’électricité. Son directeur général s’explique.

C’est presque la fin du cauchemar de Redbus Interhouse France. Le centre serveurs de Courbevoie (Hauts-de-Seine), qui est affecté par une panne d’électricité depuis dimanche dernier, retrouve un fonctionnement normal, à la suite d’une dernière intervention dans le courant de la nuit de mardi à mercredi (voir édition du 28 mars 2006).

Dans un flash d’information par mail adressé à ces clients directs (clients finaux et les hébergeurs comme Amen ou OVH) diffusée mercredi en fin de matinée, Redbus Interhouse France indique que “le site est normalement alimenté par EDF, la charge Clients est sur UPS et les process de secours générateurs ont été testés positivement”.

Stéphane Duproz, Directeur général de Redbus Interhouse France, revient sur cette panne qui a affecté l’activité du centre serveurs depuis quatre jours et, par répercussion, des milliers de sites Web. (Interview réalisée le 28 mars 2006)

Vnunet.fr : Avez-vous déterminé en profondeur les causes de la panne?

Stéphane Duproz: Nous ne disposons pas de toutes les précisions nécessaires pour communiquer sur ce sujet en l’état actuel. Ce serait une version partielle. Il y a encore des éléments que nous devons approfondir.

Lors de la première alerte dimanche matin, pourquoi les systèmes secours d’électricité n’ont pas pris le relais?

A l’origine, nous avons deux sources principales de courant électrique sur le site : EDF et les groupes électrogènes (“générateurs”) qui servent de secours en cas de défaillance. Si EDF tombe, les systèmes de secours font passer la charge client sur les batteries UPS. Ils ont besoin d’un court instant pour s’activer compte tenu de la montée en charge et de la synchronisation entre les générateurs. Normalement, il s’agit d’un laps de temps de 45 secondes. Pendant cette courte période, la charge client est assurée par les batteries UPS. Ces dernières jouent le rôle de zones tampons avant le relais des groupes électrogènes. Lorsque le courant EDF revient, la charge client repasse sur les batteries UPS puis elle est transférée vers le système d’EDF. La succession d’évènements de dimanche matin a abouti à une situation où ni EDF ni les groupes électrogènes ont pris la charge. Les batteries UPS se sont alors vidées, créant la coupure électrique. Nous avons pu remettre manuellement la charge sur les groupes électrogènes. Mais l’objectif restait de revenir à une situation normale en rebasculant vers EDF.

Quelles procédures avez-vous mis en place pour la bascule des groupes électrogènes vers EDF ?

Nous voulions d’abord nous assurer que le disjoncteur EDF fonctionne correctement. C’est important pour que la dernière manoeuvre de la bascule soit correctement accomplie. Pour cela, nous devons recharger les batteries UPS et donc les connecter aux groupes électrogènes. Nos clients nous ont informé qu’ils souhaitaient que cette opération ne se fasse pas en journée et nous en avons tenu compte en la programmant pour lundi 20h00 et en les prévenant quatre heures à l’avance. L’opération s’est déroulée sans problème mais, dans la mesure où nous avions prévenu de l’existence d’un risque au cours du processus, un bon nombre de nos clients ont choisi d’arrêter leurs machines par mesure de sécurité, ce qui a pu donner l’impression à l’extérieur que nous vivions une nouvelle coupure, ce qui n’était pas le cas. Une fois les batteries UPS connectées aux groupes électrogènes, elles doivent être chargées à plein. Ce qui nécessite un délai de 24 heures. L’objectif final étant de rebasculer sur EDF en toute sécurité. Ce sera fait mercredi matin vers 4h00 du matin. En cas de soucis, cela nous laissera du temps pour réagir avant le début de la journée de travail. Nous ferons plusieurs tests pour vérifier. Nous reviendrons à ce moment-là en configuration normale.

A ce stade [c’est à dire mardi en fin d’après-midi, NLDR], considérez-vous que vous avez accompli la plus grande partie du transfert ?

Nous considérons que les éléments périlleux étaient principalement identifiés lors de la procédure de lundi soir. Dans la nuit de mardi à mercredi, le transfert sera moins risqué. Nous sommes confiants. Mais je ne peux rien garantir à 100%. En cas de nouvelle défaillance, nous disposons dorénavant de tampons qui nous permettront de basculer vers les groupes électrogènes. [NLDR, Nous savons désormais que cette opération a été réalisée sans soucis].

Comment allez-vous annoncer la nouvelle à vos clients demain?

Nous leur dirons que la configuration de l’infrastructure est redevenue normale. Nous procéderons ensuite à des analyses pour savoir ce qui sest réellement passé. A court terme, l’objectif sera de se prémunir d’un incident similaire.

Allez-vous vérifier l’état des serveurs?

Les serveurs appartiennent aux clients. Nous n’y touchons pas. Nous nous concentrons sur nos propres installations.

Que se passe-t-il si des serveurs ont été affectés gravement à cause de l’incident ?

En tant que data center, nous avons des responsabilités délimitées. En ce qui concerne les serveurs des clients hébergeurs, il existe des clauses clairement établies dans les contrats d’assurance. Mais les compagnies d’assurance ne vont pas couvrir des éléments indirects…

Quel est l’impact de sites Internet touchés par cet incident?

Nous sommes incapables d’en avoir une idée précise. Toutefois, l’ampleur des réactions indique que nous en avons une proportion de sites Internet importante. Seule certitude : notre data center affiche un total de 130 clients et abritent plusieurs centaines de baies de serveurs. Redbus a des clients finaux comme des PME mais aussi des hébergeurs qui disposent également de leurs propres clientèles. Cette partie de la clientèle, nous ne pouvons pas l’évaluer. Comment savoir si tel client d’un hébergeur donné exploite un serveur unique ou une baie de serveurs ?

Avez-vous une idée du préjudice financier que vous avez subi?

Non. Ce qui m’occupe pour le moment, c’est le client.

Votre politique de sécurité peut-elle être mise en cause?

Je ne le pense pas. Maintenant, nous pouvons toujours apporter des points à améliorer. Cest un souci partagé par l’ensemble des data centers.

Sur un forum, un contributeur assure que vous n’avez jamais réalisé de “tests d’électricité en provoquant des coupures EDF” pour prévenir d’éventuelles pannes…

C’est faux. Je vous affirme que nous coupons régulièrement EDF pour réaliser ce type de tests.

Dans quelle mesure la sécurité est une problématique partagée par tous les acteurs du secteur?

De manière plus générale, je voudrais évoquer un problème à plus grande échelle : en Europe, les deux métropoles dans lesquelles il reste le moins de disponibilités dans les data centers sont Londres et Paris. Avec la forte croissance du marché, nous risquons de ne plus pouvoir répondre à la demande si nous ne procédons pas à des investissements lourds. La création d’un data center coûte entre 15 et 20 millions d’euros. Or notre gamme de prix est un héritage de l’éclatement de la bulle Internet. A l’époque, nous avons perdu beaucoup de clients et tous les acteurs avaient tendance à tirer les tarifs vers le bas. Les prix pratiqués aujourd’hui ne correspondent plus à la situation actuelle du marché qui explose. Autre constat : les équipements informatiques de nos clients consomment deux à quatre fois plus. Les capacités des data centers, créés il y a quatre ou cinq ans, ne correspondent plus aux besoins du marché actuel. Des investissement pour moderniser les infrastructures des data centers, ou en créer de nouveaux, sont nécessaires. Mais, pour cela, il faut revenir à une situation normale de prix raisonnables. Il est grand temps que la chaîne entière du secteur de l’hébergement en débatte.

Un cas intéressant en termes de communication de crise
“Je ne comprend pas les critiques à notre encontre concernant la communication. Nous avons sans cesse tenu au courant nos clients finaux de l’évolution de la situation et nous les avons toujours avertis des opérations à venir.”, commente Stéphane Duproz, Directeur général de Redbus France, interrogé sur les raisons des vives réactions observées sur les forums. Les clients finaux de Redbus et les hébergeurs comme OVH ou Amen ont été tenus informés de l’évolution de la situation mais pas forcément les webmasters clients des services d’hébergement à prix réduits. Dimanche, le manager a même effectué des réunions sur le parking du data center pour tenir informés les clients qui s’étaient déplacés physiquement. Preuve à l’appui avec la photo 1 et cliché 2 trouvés sur les forums de discussion sur le sujet. Mardi prochain, Mike Tobin, CEO de Redbus, et Stéphane Duproz feront un point presse sur le sujet de la panne et du marché de l’hébergement en France.

Lire la biographie de l´auteur  Masquer la biographie de l´auteur