Auteur Sujet: Incendie OVH à Strasbourg: SBG2 complétement détruit. SBG1 détruit à 42%.  (Lu 123449 fois)

0 Membres et 1 Invité sur ce sujet

mmickael

  • Client FAI autre
  • *
  • Messages: 27
  • Liège (Belgique)
Il y a des raisons pour que l'allumage de SBG3 soit si long ?
Ok pour allumer rack par rack toutes les 10-15 minutes, pic de consommation à l'allumage on le sait tous, mais là, j'ai la nette impression qu'ils vont beaucoup plus lentement.
Et pourquoi des allumages si irréguliers ? un rack par ci, un rack par là... ça fait désordre...

vivien

  • Administrateur
  • *
  • Messages: 38 162
    • Twitter LaFibre.info
Il faut nettoyer un par un les serveurs pour les 4 premiers étages de SBG3.
60 personnes font ce nettoyage 24h/24.

Pour les 5ème étage de SBG3, il est possible qu'il soit nécessaire de changer les serveurs, comme pour deux salles de SBG1.
Le disque doit subir un nettoyage particulier.

J'avais loupé la nécessité de remplacement des cartes mères sur deux salles de SBG1 :



J’espère qu'on aura la vidéo d'Octave ce soir. Elle était prévue et probablement déjà tournée vendredi quand il y a eu le début d'un nouvel incendie sur SBG1.

aplufr

  • Client Orange Fibre
  • *
  • Messages: 12
    • APLU
Il y a des raisons pour que l'allumage de SBG3 soit si long ?
Ok pour allumer rack par rack toutes les 10-15 minutes, pic de consommation à l'allumage on le sait tous, mais là, j'ai la nette impression qu'ils vont beaucoup plus lentement.
Et pourquoi des allumages si irréguliers ? un rack par ci, un rack par là... ça fait désordre...
Pour compléter la réponse de vivien, il faut aussi voir le nombre de personne sur site.
J’ai un peu la flemme de remonter le fil sur twitter, mais il me semble me souvenir que Octave avait dit qu’il y avait 60 techniciens en 24/24. On peu parfaitement supposer que ce chiffre correspondent à 3 shift de 20 personnes, en 3x8 pour faire les 60 techniciens en 24/24.
Et dans ce cas 20 techniciens dans 4 étages ça ne fait plus que 5 tech par étages.. donc par exemple 2 par baie pour nettoyer/tester/changer + 1 qui fait le suivi avec le stock.

Et il y'en a peut être moins parce que d’autres sont dans SBG4 à faire des trancher ;-)

Douks

  • Client Orange Fibre
  • *
  • Messages: 160
SBG1 et SBG4 devaient être démantelés en 2017

Ah ? Tu aurais quelques sources à ce sujet ?

Hugues

  • AS57199 MilkyWan
  • Expert
  • *
  • Messages: 9 204
  • Paris (19ème)
    • Twitter
OVH, com de l'incident de 2017, on l'a déjà mentionnée plusieurs fois ici et sur le sujet dédié

e-TE

  • Client Free fibre
  • *
  • Messages: 987
  • Déville-les-Rouen (76)
Ah ? Tu aurais quelques sources à ce sujet ?
c'est dans la réponse d'Octave suite à la panne de 2017

Citer
À long terme
------------
La technologie basée sur les containers maritimes ne sera plus utilisée par OVH. En effet, elle n’a été utilisée que pour construire SBG1 et SBG4, et hérite des imperfections de design liées à la faible ambition initialement prévue pour le site. Aujourd’hui, nous réalisons qu’elle n’est plus adaptée aux exigences de notre métier et aux normes OVH. Nous allons donc démanteler SBG1 et SBG4.

Pour cela, une migration de l’ensemble des services de nos clients hébergés sur SBG1 et SBG4 sera opérée vers SBG2 et SBG3 ou sur d’autres datacentres OVH.


Nous sommes sincèrement désolés pour cette panne et nous faisons le nécessaire afin que ce type d'incident ne se reproduise plus.

Amicalement
Octave
http://travaux.ovh.net/?do=details&id=28247


donc c'était pas un démantèlement pour 2017, mais en 2017 ils ont annoncés que ca serait démantelés, sans donner de date précise.

vivien

  • Administrateur
  • *
  • Messages: 38 162
    • Twitter LaFibre.info
Le message en question : SBG3 n'était pas encore en service, c'est pour cela qu'il n'est pas impacté (il était vide).
Saluons le message d'Octave, qui donne une partie des piéces du puzzle pour comprendre comment l'impossible est arrivé.

Je le reprend ici pour mémoire :

Bonjour,
Ce matin à 7h23, nous avons eu une panne majeure sur notre site de Strasbourg (SBG) : une coupure électrique qui a mis dans le noir nos 3 datacentres SBG1, SBG2 et SBG4 durant 3h30. Le pire scénario qui puisse nous arriver.

Le site de SBG est alimenté par une ligne électrique de 20KVA composée de 2 câbles qui délivrent chacun 10MVA. Les 2 câbles fonctionnent ensemble, et sont connectés à la même source et sur le même disjoncteur chez ELD (Strasbourg Électricité Réseaux). Ce matin, l’un des 2 câbles a été endommagé et le disjoncteur a coupé l’alimentation des datacentres.

Le site SBG est prévu pour fonctionner, sans limite de temps, sur les groupes électrogènes. Pour SBG1 et SBG4, nous avons mis en place, un premier système de 2 groupes électrogènes de 2MVA chacun, configurés en N+1 et en 20KV. Pour SBG2, nous avons mis en place 3 groupes en N+1 de 1.4MVA chacun. En cas de coupure de la source externe, les cellules haute tension sont reconfigurées automatiquement par un système de bascule motorisé. En moins de 30 secondes, les datacentres SBG1, SBG2 et SBG4 sont ré-alimentés en 20KV. Pour permettre toutes ces bascules sans couper l’alimentation électrique des serveurs, nous disposons d’onduleurs (UPS) sachant fonctionner sans aucune alimentation durant 8 minutes.

Ce matin, le système de basculement motorisé n’a pas fonctionné. L’ordre de démarrage des groupes n’a pas été donné par l’automate. Il s’agit d’un automate NSM (Normal Secours Motorisé), fournit par l’équipementier des cellules haute-tension 20KV. Nous sommes en contact avec lui, afin de comprendre l’origine de ce dysfonctionnement. C’est toutefois un défaut qui aurait dû être détecté lors des tests périodiques de simulation de défaut sur la source externe. Le dernier test de reprise de SBG sur les groupes date de la fin du mois mai 2017. Durant ce dernier test, nous avons alimenté SBG uniquement à partir des groupes électrogènes durant 8H sans aucun souci et chaque mois nous testons les groupes à vide. Et malgré tout, l’ensemble de ce dispositif n’a pas suffi aujourd’hui pour éviter cette panne.

Vers 10h, nous avons réussi à basculer les cellules manuellement et nous avons recommencé à alimenter le datacentre à partir des groupes électrogènes. Nous avons demandé à ELD de bien vouloir déconnecter le câble défectueux des cellules haute tension et remettre le disjoncteur en marche avec 1 seul des 2 câbles, et donc limité à 10MVA. La manipulation a été effectuée par ELD et le site a été ré-alimenté vers 10h30. Les routeurs de SBG ont été joignables à partir de 10h58.

Depuis, nous travaillons, sur la remise en route des services. Alimenter le site en énergie permet de faire redémarrer les serveurs, mais il reste à remettre en marche les services qui tournent sur les serveurs. C’est pourquoi chaque service revient progressivement depuis 10h58. Notre système de monitoring nous permet de connaitre la liste de serveurs qui ont démarré avec succès et ceux qui ont encore un problème. Nous intervenons sur chacun de ces serveurs pour identifier et résoudre le problème qui l’empêche de redémarrer.

A 7h50, nous avons mis en place une cellule de crise à RBX, où nous avons centralisé les informations et les actions de l’ensemble des équipes. Un camion en partance de RBX a été chargé de pièces de rechange pour SBG. Il est arrivé à destination vers 17h30. Nos équipes locales ont été renforcées par des équipes du datacentre de LIM en Allemagne et de RBX, ils sont tous mobilisés sur place depuis 16H00. Actuellement, plus de 50 techniciens travaillent à SBG pour remettre tous les services en route. Nous préparons les travaux de cette nuit et, si cela était nécessaire, de demain matin.

Prenons du recul. Pour éviter un scénario catastrophe de ce type, durant ces 18 dernières années, OVH a développé des architectures électriques capables de résister à toutes sortes d’incidents électriques. Chaque test, chaque petit défaut, chaque nouvelle idée a enrichi notre expérience, ce qui nous permet de bâtir aujourd’hui des datacentres fiables.

Alors pourquoi cette panne ? Pourquoi SBG n’a pas résisté à une simple coupure électrique d’ELD ? Pourquoi toute l’intelligence que nous avons développée chez OVH, n’a pas permis d’éviter cette panne ?

La réponse rapide : le réseau électrique de SBG a hérité des imperfections de design liées à la faible ambition initialement prévue pour le site.

La réponse longue :
En 2011, nous avons planifié le déploiement de nouveaux datacentres en Europe. Pour tester l’appétence de chaque marché, avec de nouvelles villes et de nouveaux pays, nous avons imaginé une nouvelle technologie de déploiement de datacentres, basée sur les containers maritimes. Grâce à cette technologie, développée en interne, nous avons voulu avoir la souplesse de déployer un datacentre sans les contraintes de temps liées aux permis de construire. A l’origine, nous voulions avoir la possibilité de valider nos hypothèses avant d’investir durablement dans un site.

C’est comme ça que début 2012, nous avons lancé SBG avec un datacentre en containers maritimes : SBG1. Nous avons déployé 8 containers maritimes et SBG1 a été opérationnel en seulement 2 mois. Grâce à ce déploiement ultra rapide, en moins de 6 mois nous avons pu valider que SBG est effectivement un site stratégique pour OVH. Fin 2012, nous avons décidé de construire SBG2 et en 2016, nous avons lancé la construction de SBG3. Ces 2 constructions n’ont pas été faites en containers, mais ont été basées sur notre technologie de « Tour » : la construction de SBG2 a pris 9 mois et SBG3 sera mis en production dans 1 mois. Pour pallier aux problèmes de place début 2013, nous avons construit très rapidement SBG4, l’extension basée encore sur les fameux containers maritimes.

Le problème est qu’en déployant SBG1 avec la technologie basée sur les containers maritimes, nous n’avons pas préparé le site au large scale. Nous avons fait 2 erreurs :
1) nous n’avons pas remis le site SBG aux normes internes qui prévoient 2 arrivées électriques indépendantes de 20KV, comme tous nos sites de DCs qui possèdent plusieurs doubles arrivées électriques. Il s’agit d’un investissement important d’environ 2 à 3 millions d’euros par arrivée électrique, mais nous estimons que cela fait partie de notre norme interne.
2) nous avons construit le réseau électrique de SBG2 en le posant sur le réseau électrique de SBG1, au lieu de les rendre indépendant l’un de l’autre, comme dans tous nos datacentres. Chez OVH, chaque numéro de datacentre veut dire que le réseau électrique est indépendant d’un autre datacentre. Partout sauf sur le site de SBG.

La technologie basée sur les containers maritimes n’a été utilisée que pour construire SBG1 et SBG4. En effet, nous avons réalisé que le datacentre en containers n’est pas adapté aux exigences de notre métier. Avec la vitesse de croissance de SBG, la taille minimale d’un site est forcèment de plusieurs datacentres, et donc d’une capacité totale de 200.000 serveurs. C’est pourquoi, aujourd’hui, pour déployer un nouveau datacenter, nous n’utilisons plus que 2 types de conceptions largement éprouvées et prévues pour le large scale avec de la fiabilité :
1) la construction de tours de 5 à 6 étages (RBX4, SBG2-3, BHS1-2), pour 40.000 serveurs.
2) l’achat des bâtiments (RBX1-3,5-7, P19, GRA1-2, LIM1, ERI1, WAW1, BHS3-7, VIH1, HIL1) pour 40.000 ou 80.000 serveurs.

Même si l’incident de ce matin a été causé par un automate tiers, nous ne pouvons nous dédouaner de la responsabilité de la panne. A cause du déploiement initial basé sur les containers maritimes, nous avons un historique à rattraper sur SBG pour atteindre le même niveau de normes que sur les autres sites d’OVH.

Cet après-midi, nous avons décidé du plan d’actions suivant :
1) la mise en place de la 2ème arrivée électrique, totalement séparée, de 20MVA ;
2) la séparation du réseau électrique de SBG2 vis-à-vis de SBG1/SBG4, ainsi que la séparation du futur SBG3 vis-à-vis de SBG2 et SBG1/SBG4;
3) la migration des clients de SBG1/SBG4 vers SBG3 ;
4) la fermeture de SBG1/SBG4 et la désinstallation des containers maritimes.


Il s’agit d’un plan d’investissement de 4-5 millions d’euros, que nous mettons en route dès demain, et qui, nous l’espérons, nous permettra de restaurer la confiance de nos clients envers SBG et plus largement OVH.

Les équipes sont toujours en train de travailler sur la remise en route des derniers clients impactés. Une fois l’incident clos, nous appliquerons les SLA prévus dans nos contrats.

Nous sommes profondèment désolés pour la panne générée et nous vous remercions des encouragements que vous nous témoignez durant cet incident.

Amicalement
Octave


fmermoz

  • Client Bbox adsl
  • *
  • Messages: 8
  • Forges les bains (91)
Avec la coupure éclectique brutale, la chaleur, la fumé et peut être un peu d'eau, je peux comprendre que le redémarrage soit laborieux et prenne du temps.

Je vois du monde sur les réseaux qui se félicitent de voir leur site revenir. Si j'avais un serveur sur SBG3 qui redevient accessible (et pas backup...), je commencerais mes sauvegardes sans délai et préparerais un serveur sur un autre datacenter. Je pense qu'Il y a également un risque que le taux de pannes s'envole dans les jours / semaines avenir.

aplufr

  • Client Orange Fibre
  • *
  • Messages: 12
    • APLU

vivien

  • Administrateur
  • *
  • Messages: 38 162
    • Twitter LaFibre.info
Point journalier.

A noter que peu de photos ont été diffusée dans la 3ème vidéo, c'est une déception de même que les causes possible de l'origine de l'incendie de SBG2 (selon la 2ème vidéo, cela pourrait venir de l'onduleur ou des batteries)



Les bulletins précédents :
- 21 mars 2021
- 20 mars 2021
- 19 mars 2021
- 18 mars 2021
- 17 mars 2021
- 16 mars 2021
- 15 mars 2021
- 14 mars 2021
- 13 mars 2021
- 12 mars 2021
- 11 mars 2021
- 10 mars 2021

Vidéos :
- Vidéo du 11 mars 2021
- Vidéo du 16 mars 2021
- Vidéo du 22 mars 2021

underground78

  • Expert
  • Client Free fibre
  • *
  • Messages: 7 402
  • Orsay (91)
    • FreePON : suivi géographique du déploiement fibre EPON chez Free
A noter que peu de photos ont été diffusée dans la 3ème vidéo, c'est une déception de même que les causes possible de l'origine de l'incendie de SBG2 (selon la 2ème vidéo, cela pourrait venir de l'onduleur ou des batteries)
Il faut dire qu'Octave s'était un peu emballé en voulant parler des causes avant la fin de l'enquête officielle. J'imagine qu'il a été rappelé à l'ordre par son service juridique ou une des parties prenantes.

buddy

  • Expert
  • Client Bbox fibre FTTH
  • *
  • Messages: 13 010
  • Alpes Maritimes (06)
Extrait du journal d’événement d'un serveur Windows à SBG3:


D'après la timeline d'OVH, ce serveur est resté allumé 9H après le début de l'incendie ...
Je ne comprends pas, tu pourrais expliquer ?
Le feu c'est déclaré à 00h47 le 10 Mars et l'électricité aurait été coupé sur le site entre 2h30 et 3h00 (estimation au pif disant que les pompiers ont du attendre 1h15 ou 30 de mémoire + le temps qu'ils arrivent).

 

Mobile View