Auteur Sujet: Incendie OVH à Strasbourg: SBG2 complètement détruit. SBG1 détruit à 42%.  (Lu 307209 fois)

0 Membres et 3 Invités sur ce sujet

willemijns

  • Abonné FreeMobile
  • *
  • Messages: 2 691
En tout cas, même si c'est un peu provoc de la part de Scaleway comme article, je le trouve bien fait.

Infomaniak a fait pareil de mémoire. c'est de bonne guerre.

alf084

  • Abonné Starlink
  • *
  • Messages: 391
  • Paris 75
Avez-vous des retours client qui souhaitent partir chez un autre hébergeur ?

cali

  • Officiel Ukrainian Resilient Data Network
  • Fédération FDN
  • *
  • Messages: 2 400
    • Ukrainian Resilient Data Network
Mais "on va faire évoluer les standards du marché", du point de vue des clients qui connaissent un peu OVH, d'un point de vue marketing, ça ne peut pas passer, c'est trop gros. Beaucoup de clients savent qu'OVH n'est pas du genre à respecter "les standards du marché".

D'une certaine façon il va faire évoluer les standards du marché puisque ceux qui pouvaient avoir l'idée de faire comme lui vont peut-être y réfléchir à deux fois. :-)

Elssar

  • AS30781 Jaguar Network
  • Professionnel des télécoms
  • *
  • Messages: 2
En tout cas, même si c'est un peu provoc de la part de Scaleway comme article, je le trouve bien fait.
C'est une incitation pour OVH et les concurrents à dévoiler quel niveau de sécurité incendie ils ont vraiment.
Mais je suis quasi certain que OVH ne les suivra pas.
+1, il faudra qu'OVH explique à quoi correspond ces "salles watercoolées". Si c'est des clim individuelles directement dans les baies, alors c'est totalement idiot d'appeler ça des "salles watercoolées".

Leon.

C'est simple, ça veut dire exactement ce que ça veut dire.. Il n'y a pas de clim dans leurs salles. Chaque serveur est sous watercooling(refroidissement à l'eau en circuit fermé), c'est ce qui le refroidis. Donc pas de clim au sens soufflerie.

Pour ce qui est des protections incendie. Ici ça n'aurait rien changé, il s'agit d'un feu de type métallique(classe d) qui génère de l'hydrogène. C'est très difficile à atteindre, et du fm200 n'aurait pas changé grand chose. Donc scaleway, ovh, orange, aws qu'importe le dc ça aurait été très compliqué à atteindre même avec des systèmes très performants. D'ailleurs c'est pour ça que les consignes en interne chez plusieurs autres hébergeurs c'est "taisez vous, ça pourrait nous arriver". (confirmer par plusieurs connaissances)
ça n'excuse pas le fait que tout autre type de feu aurait probablement causé les mêmes dommages. Et ça c'est bien sûr pas normal.

Pour ce qui est du reste les backup sur le même dc etc, pour info, quand vous faites des backup s3, par défaut c'est dans la même AZ que le serveur source.
C'est quoi une AZ chez aws ? Un groupement de DC dans une même zone géographique. Je connais pas trop comment c'est géré de leur côté, mais je mettrais pas ma main à couper que ça soit différent chez eux. Probable que ça soit des backups éclatés un peu partout et qui peuvent se retrouver sur le même dc que le serveur. Et je vois très mal aws faire des backup croisés de s3 entre des AZ sous le manteau pour être sur de rien perdre.

C'est tout le côté problématique de ces hébergeurs. Faut lire les petites lignes pour comprendre de quoi on parle, et c'est souvent flou. On promet le mot magique du "backup" mais bon en creusant on se rend compte que c'est pas si magique.

D'ailleurs pour rappel ces hébergeurs n'ont pas de clauses sur la perte de données, uniquement sur l'accessibilité des données. Et ça c'est une subtilité qui veut tout dire juridiquement parlant :))

chtitux

  • Abonné Orange Fibre
  • *
  • Messages: 8
  • La Possession (974)
Pour ce qui est du reste les backup sur le même dc etc, pour info, quand vous faites des backup s3, par défaut c'est dans la même AZ que le serveur source.

https://aws.amazon.com/s3/storage-classes/

AWS indique que sur du S3 standard, c'est répliqué sur au moins 3 AZ:
Citer
S3 Standard: Resilient against events that impact an entire Availability Zone. […]  Unlike other S3 Storage Classes which store data in a minimum of three Availability Zones (AZs), S3 One Zone-IA stores data in a single AZ and costs 20% less than S3 Standard-IA.

Et la distance entre plusieurs AZ chez AWS, c'est « plusieurs kilomètres » : https://wikileaks.org/amazon-atlas/map/

OVH a pêché par orgueil : quand on a plusieurs bâtiments accolés, le « standard du marché », c'est de parler de un datacentre et de plusieurs salles.

J'espère qu'ils feront évoluer leur vocabulaire, parce que sur leur carte, il y a encore Gravelines, Beauharnois et Roubaix qui sont considérés comme « plusieurs datacentres », alors qu'en pratique, ce sont parfois des bâtiments avec des murs communs.




Leon

  • Client SFR sur réseau Numericable
  • Modérateur
  • *
  • Messages: 6 125
C'est simple, ça veut dire exactement ce que ça veut dire.. Il n'y a pas de clim dans leurs salles. Chaque serveur est sous watercooling(refroidissement à l'eau en circuit fermé), c'est ce qui le refroidis. Donc pas de clim au sens soufflerie.
OK, OVH refroidit CPU et GPU sous Watercooling. Depuis très longtemps.
Mais ça ne refroidira jamais 100% de la dissipation thermique d'un serveurs. D'autres éléments chauffent : alimentation, RAM, disque dur, etc... Tout ça n'est pas refroidi par WaterCooling. Et quand tu parles de plusieurs dizaines de serveurs par baie, cette puissance résiduelle devient importante. Toutes ces calories, il faut les évacuer aussi. Avec une salle 100% étanche à l'air, sans circulation d'air, ni autre dispositif de refroidissement, ça ne peut pas fonctionner, c'est évident.

De plus, ces dernières années, on a vu apparaitre chez OVH des sorte de radiateur ou évaporateurs à l'arrière des serveurs. Ca ressemble beaucoup à des clim intégrées aux baies.

Donc le "watercooling de salles", dont parle Octave Klaba dans sa dernière vidéo, et qui serait applique depuis 2016, on ne sait toujours pas exactement ce que c'est.
https://x.com/olesovhcom/status/1374038409707188231

Leon.
« Modifié: 24 mars 2021 à 08:40:19 par Leon »

vivien

  • Administrateur
  • *
  • Messages: 47 671
    • Twitter LaFibre.info
C'est simple, ça veut dire exactement ce que ça veut dire.. Il n'y a pas de clim dans leurs salles. Chaque serveur est sous watercooling(refroidissement à l'eau en circuit fermé), c'est ce qui le refroidis. Donc pas de clim au sens soufflerie.

SBG2 : CPU en watercooling, les autres composant d'un serveur sont refroidit en freecooling direct. Si il fait froid dehors le serveur sera au frais, si il fait chaud, il aura très chaud.
Je pense que c'est pas limité à Gravelines, car j'ai un serveur à Roubaix où la température monte bien aussi.
Graphique de la sonde du disque dur également, entre le 26 juin et aujourd'hui.

La problématique, c'est qu'en cas de canicule, de nombreux serveurs tombent en panne.

SBG3 : CPU en watercooling, les autres composant je n'ai pas compris ce que c'est que des "salles watercoolées".

Je pense que le but est d'éviter les problèmes en cas de fortes pluies quand il fait chaud ou la canicule...

Leon

  • Client SFR sur réseau Numericable
  • Modérateur
  • *
  • Messages: 6 125
Pour ce qui est des protections incendie. Ici ça n'aurait rien changé, il s'agit d'un feu de type métallique(classe d) qui génère de l'hydrogène. C'est très difficile à atteindre, et du fm200 n'aurait pas changé grand chose.
Qu'est-ce qui te fait dire que c'est un feu métallique de classe D?

Des batteries au plomb peuvent générer des feu de classe D?
Je sais que c'est le cas pour les batterie Li-Ion. Mais pour les batteries au plomb, je ne sais pas.

Leon.

Leon

  • Client SFR sur réseau Numericable
  • Modérateur
  • *
  • Messages: 6 125
Modération : J'ai déplacé le hors sujet (intéressant) sur le housing OVH : https://lafibre.info/ovh-datacenter/incendie-ovh-a-strasbourg-sbg2-completement-detruit-sbg1-detruit-a-50/

Sur ce fil de discussion (déjà très long), on essaye de se concentrer sur le sujet de l'incendie OVH, svp.

vivien

  • Administrateur
  • *
  • Messages: 47 671
    • Twitter LaFibre.info
Point journalier.

SBG4 est relancé une seconde fois. Toutes les baies ne sont pas allumées, mais cela sera fait demain.

La communication fait l'impasse que le 5ème étage de SBG3 : Tous les serveurs sont down à cet étage qui a été plus que les autres impactés par l'incendie de SBG2.

Depuis plusieurs jours, le "Public Cloud Instance" est redémarré (86% aujourd'hui) mais est-il utilisable sans le "Public Cloud Storage" qui lui ne redémarre que samedi ?



Les bulletins précédents :
- 23 mars 2021
- 22 mars 2021
- 21 mars 2021
- 20 mars 2021
- 19 mars 2021
- 18 mars 2021
- 17 mars 2021
- 16 mars 2021
- 15 mars 2021
- 14 mars 2021
- 13 mars 2021
- 12 mars 2021
- 11 mars 2021
- 10 mars 2021

Vidéos :
- Vidéo du 11 mars 2021
- Vidéo du 16 mars 2021
- Vidéo du 22 mars 2021

py92

  • Abonné Free fibre
  • *
  • Messages: 62
  • Connected city
La remise en route (d'après le suivi VMS d'OVH) est tout de même très très poussif sur SBG3 et bcp plus long qu'anticipé par OVH....
Sans parler du 5ème étage il reste une quantité phénoménale de baie pas encore up.

Ils doivent avoir de sacrés mauvaises surprises sur l'état des baies.

vivien

  • Administrateur
  • *
  • Messages: 47 671
    • Twitter LaFibre.info
Octave répond à ta question :

Le nettoyage prend du temps. Nous avons 80 personnes (SBG3) + 20 personnes (Croix).

Ci-dessous une carte mère avec la pollution par la fumée sur le socket du CPU.
C'est très corrosif! Si on se met sous tension, c'est mort.
Identique au disque.



Ci-dessous, le même appareil 24h après le nettoyage