Auteur Sujet: Data center DC3 de Scaleway: reportage photo de la visite  (Lu 177059 fois)

0 Membres et 1 Invité sur ce sujet

mikmak

  • AS12876 Expert Scaleway
  • Expert
  • *
  • Messages: 177
    • @mmarcha
Data center DC3 d'Iliad: reportage photo de la visite
« Réponse #108 le: 25 octobre 2015 à 11:23:00 »
oui ça doit être ça

Mik

Leon

  • Client SFR sur réseau Numericable
  • Modérateur
  • *
  • Messages: 6 004
Data center DC3 d'Iliad: reportage photo de la visite
« Réponse #109 le: 25 octobre 2015 à 18:12:33 »
Ok, je comprend, c'est l'espace pris par la clim qui fait que à cet endroit là, on doit être dans un cold-corridor de 2x21 baies

Face au tableau électrique, cela doit être 2x22baies et là où il n'y a ni clim ni tableau électrique, c'est 2x23 baies.

J'ai bon ?
Oui, bien vu Vivien, ça a l'air bon. Voici une vue 3D d'une salle privative de DC3, prise sur le site web:
http://iliad-datacenter.fr/nos-services/datacenter-privatif

Leon.

ut0mt8

  • AS49477 e-TF1
  • Expert
  • *
  • Messages: 145
  • Boulognes(92)
    • (ex AS49477) Senior Engineering Manager
Data center DC3 d'Iliad: reportage photo de la visite
« Réponse #110 le: 26 octobre 2015 à 11:10:46 »
C'est la config de notre salle :)

dj54

  • Abonné Free fibre
  • *
  • Messages: 921
  • Nancy (54)
    • La passion des ondes
Data center DC3 d'Iliad: reportage photo de la visite
« Réponse #111 le: 26 octobre 2015 à 13:26:26 »
Sauf erreur de ma part
comment font il pour enlever la poussière coté serveur?

vivien

  • Administrateur
  • *
  • Messages: 47 255
    • Twitter LaFibre.info
Data center DC3 d'Iliad: reportage photo de la visite
« Réponse #112 le: 26 octobre 2015 à 13:35:22 »
Il n'y a pas de poussière  ;D

Les sur-chaussures limitent la poussière.

Les clim ont des filtres qui doivent être changées de temps en temps.


abermingham

  • AS12876 Officiel Scaleway
  • Expert
  • *
  • Messages: 112
  • Paris (75)
Data center DC3 d'Iliad: reportage photo de la visite
« Réponse #113 le: 27 octobre 2015 à 18:53:39 »
Tout pareil, merci Viven, et merci Online. Vous avez vraiment vu beaucoup plus de choses que notre groupe pendant la visite! Je rappelle que nous ne sommes rentré dans aucune cage!

Online-DC3 reste un datacenter très propre, mais j'ai été surpris par plusieurs choses pendant la visite, et en regardant les photos, je vois d'autres choses étranges. 

* une seule salle technique "climatisation" (déjà mentionné dans le reportage). Avoir des climatisations redondantes, mais espacées de quelques mètres seulement, ça ne permet pas de se protéger sereinement des incendies . Pour bien faire il aurait fallu isoler dans des pièces différentes, avec des murs anti-feu.

* la proximité entre les différents transformateurs et aussi avec les groupes. Pareil, si un équipement explose (transformateur qui explose, ça existe), est-on certain de ne pas amocher les autres? Et comment des hommes pourront-ils lutter sereinement contre un incendie tenace dans un espace aussi peu dégagé, si un groupe brule par exemple (là aussi, ça existe).

* le faible espace dans les couloirs des salles, entre les grille et le mur. Comment transporter sereinement des équipements imposants, des baies avec un espace aussi étroit? Surtout qu'il y a des équipements très sensibles sur le côté mur, qu'il ne faut surtout pas abimer : baie optique, distribution électrique, etc...

* Le dimensionnement du "RPN". Le réseau RPN est beaucoup plus petit que le réseau "Internet". L'uplink des switches de baie du RPN est visiblement à 1Gb/s seulement, c'est quand même peu pour proposer du 1Gb/s par serveur (certes en option payante).   

* Non redondance des switches de collecte (ou switches de rangée de baie) du réseau "internet". OK, Online n'est pas le seul à appliquer ça, mais ça me surprend. Certes, l'uplink de ces switches vers les routeurs est redondé, mais pas les switches eux-mêmes. Or, la perte d'un switch unique, d'un seul équipement, fera perdre la connexion à des milliers de serveurs. Le plus surprenant c'est que les switches de rangée du RPN, eux, semblent redondés.

Leon.

Pour répondre à tes questions purement DC (mikmak t'a déjà répondu sur la partie réseau)

1- Oui, nous avons fait le choix de regrouper la production frigorifique pour plusieurs raisons.
La première est le risque très faible, nous avons des pompes, des moteurs, des tuyauteries remplies d'eau et un gaz/compresseurs ininflammable, et le tout dans un local protégé avec un système de détection précoce d'incendie (VESDA) et extinction incendie (HIFOG). Le risque est infiniment inférieur à des groupes froids en extérieur, sans détection ou extinction incendie.
La deuxième est la quantité de gaz. Nous avons près de 18 tonnes de gaz R134A dans nos groupes froids, et pour des raisons de sécurité nous avons préféré les regrouper dans une grande salle, ayant un gros volume (900m2 au sol, 8 mètres de hauteur sous plafond) pour éviter les risques de déflagration par surpression en cas de fuite. Concrètement on avait largement la place de faire deux locaux, mais le volume de chaque local n'aurait pas permis de contenir la quantité totale de gaz sans porter atteinte gravement à la structure du bâtiment.
Donc choix pragmatique : moins de risques, mais recalé en tier3 avec quasiment un niveau tier4 de conception.

2- Les transformateurs sont équipés de : 1- un DMCR (http://mt.schneider-electric.be/Main/tfo/catalogue/DMCR_FR.PDF) permettant d'isoler au niveau HT et BT le transformateur en cas de sur-chauffe ou dégagement de gaz 2- d'un bac à rétention étouffeur de feu (http://www.gmtinternational.fr/fr/nos-produits-et-accessoires/gamme-anti-feu/bacs-de-r%C3%A9tention-anti-feu-modulaires-bafx) 3- de murs en béton vibré capable de résister à une explosion jusqu'à 18 tonnes par m2, évitant les effets domino 4- Ils sont équipés d'extinction incendie et de détection incendie (détecteurs de flamme infrarouge).
Une nouvelle fois, on est les seuls à les placer en extérieurs. Un transformateur à l'intérieur d'un bâtiment c'est tout de même un risque considérable d'incendie, surtout que je ne connais personne qui les placent sous extinction incendie d'ailleurs ...

3- Notre densité moyenne sur DC2/DC3 est de 1 baie 600x1000 tous les 2,3m2. Oui, c'est "dense" ...

Arnaud

abermingham

  • AS12876 Officiel Scaleway
  • Expert
  • *
  • Messages: 112
  • Paris (75)
Data center DC3 d'Iliad: reportage photo de la visite
« Réponse #114 le: 27 octobre 2015 à 18:56:03 »
Il n'y a pas de poussière  ;D
Les sur-chaussures limitent la poussière.
Les clim ont des filtres qui doivent être changées de temps en temps.

Oui, surtout la salle est mise en sur-pression en permanence via une CTA dédiée pour ça, avec une série de filtres G4 et F7 (filtres à poches)
On maintiens toujours environs 100hPA de différence de pression entre la salle et l'extérieur de la salle. Ca aide énormèment.

vivien

  • Administrateur
  • *
  • Messages: 47 255
    • Twitter LaFibre.info
Data center DC3 d'Iliad: reportage photo de la visite
« Réponse #115 le: 27 octobre 2015 à 19:12:57 »
3- Notre densité moyenne sur DC2/DC3 est de 1 baie 600x1000 tous les 2,3m2. Oui, c'est "dense" ...

Bonsoir Arnaud, merci pour les informations. je me demande comment est réalisé ce calcul :

- Sans compter les 100m² de couloir de chaque salle : 132 baies par espace de 250m² (densité moyenne de 1 baie 600x1000 tous les 1,89m²)

- Avec les couloirs de la salle : 792 baies par salle de 1600m² (densité moyenne de 1 baie 600x1000 tous les 2,02m²)

abermingham

  • AS12876 Officiel Scaleway
  • Expert
  • *
  • Messages: 112
  • Paris (75)
Data center DC3 d'Iliad: reportage photo de la visite
« Réponse #116 le: 27 octobre 2015 à 21:21:22 »
Bonsoir Arnaud, merci pour les informations. je me demande comment est réalisé ce calcul :

- Sans compter les 100m² de couloir de chaque salle : 132 baies par espace de 250m² (densité moyenne de 1 baie 600x1000 tous les 1,89m²)

- Avec les couloirs de la salle : 792 baies par salle de 1600m² (densité moyenne de 1 baie 600x1000 tous les 2,02m²)

C'est bien ça.
Le 2.3m2/baie comprends également les salles opérateur qui sont nettement moins dense avec des baies au format 800x1200 et la MMR

s3phy

  • Abonné FreeMobile
  • *
  • Messages: 375
  • St Laurent des Hommes (24)
Data center DC3 d'Iliad: reportage photo de la visite
« Réponse #117 le: 28 octobre 2015 à 04:19:46 »
Superbe dossier !

Quelques petites coquilles de français que j'ai repéré dans les premiers messages (j'ai plus fait gaffe par la suite…)

Premier message : https://lafibre.info/datacenter/dc3-iliad/msg269034/#msg269034
"Au passage Online cherchait à se faire certifier tiers IV mais la redondance des 2N de la climatisation ne suffit pas : il faut que les deux unités soient dans des salles différentes. Un seul à réussi le challenge en France : le data center du Crédit Agricole !"
> Un seul a réussi

Juste plus bas, même message
"Un grand parking, utilisé également par le service client FreeMobile qui à un petit centre d'appel sur le site."
> qui a un petit centre d'appel

Deuxième message : https://lafibre.info/datacenter/dc3-iliad/msg269036/#msg269036
"Après avoir passé un SAS, on a accès a de grands couloirs comme celui-ci"
> On a accès à de grands couloirs

Message 8 : https://lafibre.info/datacenter/dc3-iliad/msg269042/#msg269042
"On repéré les fibres à leur couleur jaune sur la photo"
> On repère les fibres

Message 9 : https://lafibre.info/datacenter/dc3-iliad/msg269043/#msg269043
"Cela limite le risque de déclenchement par erreur mais rend pus difficile un arrêt d'urgence."
> rend plus difficile

vivien

  • Administrateur
  • *
  • Messages: 47 255
    • Twitter LaFibre.info
Data center DC3 d'Iliad: reportage photo de la visite
« Réponse #118 le: 28 octobre 2015 à 07:59:47 »
Merci, c'est corrigé.

Je suis fâché avec les "a", il faut que je réalise une relecture centré sur ça uniquement.

Branco

  • Expert
  • Abonné CanalBox
  • *
  • Messages: 80
Data center DC3 d'Iliad: reportage photo de la visite
« Réponse #119 le: 30 octobre 2015 à 10:32:51 »
Très bon reportage Vivien, cela permet aux néophytes de mieux comprendre les enjeux d'un datacenter, la pierre angulaire du monde numérique  8)

"Celui qui détient le plus gros datacenter gagnera la guerre" Atch Tzu arrière-arrière...etc petit-fils de Sun Tzu