Pagaille dans une partie du Web français suite à une panne de Level3

Une panne dans le datacenter Level3 à Nanterre a provoqué hier la pagaille dans une partie du Web français. Les sites hébergés dans ce datacenter tournaient au mieux au ralenti ou étaient indisponibles.

Une panne dans le datacenter Level3 à Nanterre a provoqué hier la pagaille dans une partie du Web français. Les sites hébergés dans ce datacenter tournaient au mieux au ralenti ou étaient indisponibles. En effet, le système de climatisation du datacenter est tombé en panne au milieu de la nuit et cela a entrainé une hausse de température importante dans la salle des serveurs.

C’est plus précisément une canalisation d’eau qui alimentait le circuit de refroidissement des serveurs qui a lâché au milieu de la nuit. Cet incident a immédiatement fait monter la température dans la salle des serveurs : elle était au dessus de 40°C alors que la température optimale est plutôt autour de 16°C.

Il est vivement recommandé que la température ambiante soit assez fraîche dans un datacenter afin de garantir la fiabilité des serveurs et de leurs disques durs.

Source : Greg

Il s’agit ci-dessous de l’évolution de la température du serveur dans le datacenter Level3 au cours de la journée. On arrive à plusieurs conclusions :

  • La température est normale (autour de 45°C) jusqu’à environ 2h30 / 3h du matin (certainement l’heure de la panne de climatisation ?) ;
  • Le pic de température a presque atteint les 80°C vers 6h ;
  • Une chute de température entre 9 et 10h (un certain nombre de serveurs ont été coupés ou sont tombés ?) ;
  • Puis la température qui descend petit à petit à partir de 12h.

Durant toute la matinée, les équipes de Level3 ont tenté de refroidir (au mieux) les serveurs avec les moyens du bord et, en même temps, de remettre la climatisation en place le plus rapidement possible. La situation est revenue à la normale vers 15h.

Plusieurs sites ont été touchés par cette panne, je pense particulièrement aux blogs de plusieurs médias (20minutes, LeParisien, etc.) mais aussi à Overblog ou Ooprint.

Tout au long de la journée, j’ai suivi l’évolution de la situation sur Twitter. C’était intéressant de savoir ce qui se passait là-bas, presque minute par minute par moment, sans être sur place. C’est à ce moment que l’on se rend vraiment compte que les réseaux sociaux sont très utiles dans ce genre de cas.


Nos dernières vidéos

20 commentaires

  1. Pingback: Pagaille dans une partie du Web français suite à une panne de Level3 | Veille & Culture numérique | Scoop.it

  2. @Création de sites internet Rennes : le datacenter appartient à la société Level3 qui loue des « emplacements » à divers clients (dont des hébergeurs, des sites et des services).

  3. Pingback: Pagaille dans une partie du Web français suite à une panne de Level3 | Datacenters | Scoop.it

  4. une petite compil des « astuces » utilisées dans ce cas serait rigolote. Ca nous est arrivé (il y a longtemps, et pour qqes heures bien sur) de ramener un frigo dans la salle machine avec la porte ouverte 😉

  5. LOL un frigo porte ouverte… >_<

    Juste comme ca, vous savez comment ca marche un frigo ? Effet peltier, toussa…
    Refroidir l'intérieur du frigo pour réchauffer son cul, le tout dans un même endroit, vachement efficace comme refroidissement au final !

  6. mouais…ça m’étonnerait que la température de la salle soit montée à 80°C…sinon à part des pompiers en combinaison, je défie quiconque d’y pénétrer. Le graphe que l’on voit c’est la courbe de température d’un CPU sur une machine qu’on suppose être dans la cette salle…
    l’explication est légère : les clims sont toujours redondées, et si toutes les clim de la salle sont alimentées par une unique canalisation c’est qu’il y a une énorme erreur de conception…
    16°c, ça sert à rien à part réchauffer la planète et payer des factures d’électricité énorme. Une salle à 190° fonctionne parfaitement et coûte beaucoup beaucoup moins chère… sans que cela nuise à la durée de vie des composants

  7. @paskal : c’est exactement ce que je dis, le graphique de température correspond bien à la température du serveur (celle de son disque dur ou CPU). Heureusement que la température n’a pas atteint les 80°C dans la salle des serveurs. 😀

  8. @Camille,
    A propos de ta remarque
    C’est à ce moment que l’on se rend vraiment compte que les réseaux sociaux sont très utiles dans ce genre de cas
    Je ne suis pas du tout d’accord, cela ne montre pas que les réseaux sociaux sont très utiles, ils ne servent qu’a assouvir notre curiosité dans ce genre de situation, mais en aucun cas à résoudre le problème de base.
    Les réseaux sociaux peuvent par contre être très utile pour faire circuler de l’information, comme ce fut le cas pendant les révolutions en Tunisie ou en Egypte au printemps dernier.

  9. @Thierry : pas faux, c’est vrai que ça permet d’obtenir plus d’informations sur un sujet bien précis et de voir l’évolution en temps réel. Dans le cas présent, c’est sûr que tout le monde est impuissant mais il y a des gens sur place qui donnent des informations pertinentes. C’est de ça dont je parlais.

  10. @Loko : Utiliser un frigo pour refroidir une pièce est impossible : un frigo dégage plus de chaleur (via son condensateur à l’arrière) qu’il ne produit de froid.. Donc si dans une pièce tu mets un frigo en marche et tu ouvres la porte, la température de la pièce va monter !

  11. Il faut voir les brochures commerciale de ces centres d’hébergement. Tout est doublé, triplé, quadruplé.

    Là une arrivée d’eau saute, et bien sur, il n’y a pas de secours.

    Vraiment n’importe quoi.

  12. Je note que sur la météo de Nanterre il fait 1°C la nuit. Ils pouvaient pas ouvrir les fenêtres tout simplement ? 😀

    (comment ça y’a pas de fenêtres ?!)

  13. Alors pour être beaucoup plus factuel. J’étais dans la fameuse salle à 10h du matin chez L3. Depuis je suis la news au gré des publications. J’ai lu de tout. Il a fait jusqu’à 42 dans la salle. Il y a 4 unité de clim pour ce datacenter mais erreur de construction : un seul circuit de refroidissement. Heureusement pour L3, il faisait froid dehors. Ils ont tout ouvert, porte et fenêtre et ont loué des gros ventilos industriels (kiloutou et consor) pour essayer de faire circuler l’air d’un fenêtre à l’autre. Pb, le batiment (le capitole à Nanterre) est un batiment tout en verre, et les fenêtres ne s’ouvrent pas beaucoup. L3 est avant tout un gros fournisseur Internet qui avait de la place dans cette salle et qui l’a finalement transformer en datacenter avec des baies en location.
    Pour la petite histoire, on voit sur certains sites deux photos : un thermomètre infrarouge et un ventilateur de bureau. Le thermomètre affiche 55 degrés, c’est le PDG de dromadaire.com qui l’a pris en photo, il pointait l’intérieur d’une baie fermée pleine de serveurs et de baies de disque alors forcément c’était chaud mais la salle n’a jamais dépassé 42 degrés. Ensuite le ventilo, c’est toujours la même personne. Ils avaient amené des ventilos pour faire circuler l’air dans leur baie (ils en ont une chez L3) mais ce n’était pas les ventilos de L3…

  14. De rien ! Au fait, normalement dans la salle, il fait 22 degrés. 16 degrés c’était y a 20 ans quand on pensait moins au green IT.

  15. Je suis choqué par la façon de lire un graphique !
    Surtout qu’il est en contradiction avec le paragraphe le précédent !

Répondre