Auteur Sujet: Data center DC3 d'Iliad: reportage photo de la visite  (Lu 92213 fois)

0 Membres et 1 Invité sur ce sujet

vivien

  • Administrateur
  • *
  • Messages: 29 657
    • Twitter LaFibre.info
Data center DC3 d'Iliad: Climatisation
« Réponse #24 le: 23 octobre 2015 à 13:10:40 »
Mission N°3 d'un data center : Climatisation

Petit rappel des quatre principales missions d'un data center :
- Sécurité (contrôle d'accès, extinction des incendies, protections des agressions extérieures tels que foudre ou inondations)
- Interconnexion (Offrir une possibilité de se connecter à des réseaux de manière sécurisée)
- Climatisation (garantir une température constante)
- Énergie (garantir une alimentation en énergie sans aucune coupure, même en cas d'incendie)


La climatisation pour DC 3 :
- 35 armoires de 200 kWf en formation N+2 (utilisation d'eau pure non glycolée)
- Température dans les allées froides : 21°c (+/- 2°c)
- Température dans les allées chaudes : 33°c (en fonction des serveurs utilisés)
- Air en surpression dans les salles informatiques, afin d'éviter l'entrée de poussière quand on ouvre la porte
- 2 chaînes de production frigorifique (redondance 2N) de 10,2 MW (double réseau bouclé)
- Gaz frigorifique R134A, sans impact sur l'environnement
- Refroidisseurs de type dry coolers ne consommant pas d'eau (contrairement à beaucoup d'autres)
- 13 centrales de traitement d'air de 125 kW en formation 2N
- Refroidissement indirect (freechilling) sans utilisation de climatisation plus de la moitié de l'année :

  • Température < 8°c : Free cooling indirect total (groupes froids à l’arrêt)
  • Température entre 8°c et 17°c : Free cooling indirect partiel + Free cooling direct des locaux technique total
  • Température entre 17°c et 19°c : Climatisation traditionnelle pour les serveurs + Free cooling direct des locaux techniques
  • Température > 19°c : Climatisation traditionnelle pour les serveurs et les locaux techniques
Freecooling direct : du vrai freecooling avec de l'air venant de l'extérieur
Freecooling indirect : l'air refroidit de l'eau qui via un échangeur, refroidit le circuit d'eau, qui a son tour refroidit l'air des salles.

J'ai interrogé Arnaud sur le Free cooling direct pour les serveurs, utilisés par Maxnod : L'air doit être propre dans une salle serveur, et cela coûterait cher en filtres à Paris, mais qu'en province c'est possible pour des petites salles (la place occupée est une autre raison de sa non-utilisation pour DC3)

Le PUE (Power Usage Effectiveness), c'est l'indicateur d'efficacité énergétique. Plus il est proche de 1, mieux c'est.

Les DataCenter datant de 1990 ont un PUE proche de 2 (pour 100w consommé par les serveurs, le data-center consomme 200w). Un PUE de 2 signifie que quand les serveurs consomment 1w, le data center consomme 2w (climatisation, onduleurs,...)



Pour DC3, il est de 1,3 la moitié chaude de l'année et descend à 1,2 quand il fait moins de 8°c à l'extérieur (Free cooling). Il est possible de vérifier en temps réel le PUE sur https://pue.online.net/

Voici la répartition de la consommation l'été, avec un PUE de 1,3 :


Les chiffres ci-dessous intègrent l'extension de DC3 avec les salles 1 et 2, qui sont en cours de construction actuellement.

Consommation maximum de l'ensemble des serveurs : 7425 kW (chiffre calculé à partir de la capacité des onduleurs, expliqué plus bas)
=> Consommation totale maximum du site : 9770 kW
=> Consommation maximum de la production de froid : 1075 kW
=> Consommation maximum des servitudes : 977 kW
=> Consommation maximum des pertes électriques : 293 kW

Consommation moyenne des équipements informatiques, par salle de 250m² : 325 kW (hypothèse d'un site ou 100% de l'énergie dispo est consommée)
=> Consommation moyenne par salle de 250m² (total avec clim ect..) : 428 kW
=> Consommation moyenne par salle de 250m² pour la production de froid : 47 kW
=> Consommation moyenne par salle de 250m² pour les servitudes : 43 kW
=> Consommation moyenne par salle de 250m² pour les pertes électriques : 13 kW

Consommation moyenne des équipements informatiques, par baie : 2462 W (hypothèse d'un site ou 100% de l'énergie dispo est consommée)
=> Consommation moyenne par baie (total avec clim ect..) : 3239 W
=> Consommation moyenne par baie pour la production de froid : 356 W
=> Consommation moyenne par baie pour les servitudes : 324 W
=> Consommation moyenne par baie pour les pertes électriques : 97 W

Densité électrique : 1300 W par m²
=> Consommation moyenne par m² (total avec clim ect...) : 1710 W
=> Consommation moyenne par m² pour la production de froid : 188 W
=> Consommation moyenne par m² pour les servitudes : 171 W
=> Consommation moyenne par m² pour les pertes électriques : 51 W
« Modifié: 23 octobre 2015 à 21:31:56 par BadMax »

vivien

  • Administrateur
  • *
  • Messages: 29 657
    • Twitter LaFibre.info
Data center DC3 d'Iliad: Climatisation
« Réponse #25 le: 23 octobre 2015 à 13:11:33 »
Armoires de climatisation de 200kWf :


L'air ambiant à 33° est aspiré par le haut et injecté dans le faux plancher :

vivien

  • Administrateur
  • *
  • Messages: 29 657
    • Twitter LaFibre.info
Data center DC3 d'Iliad: Climatisation
« Réponse #26 le: 23 octobre 2015 à 13:11:46 »
Aéro-refroidisseur / Dry coolers

Les 10 aérorefroidisseurs (drycoolers) utilisent un échangeur avec l'air sur-dimensionné afin de faire tourner les ventilateurs lentement pour limiter la nuisances sonores pour les voisins (un immeuble est juste à coté). 18MW de capacité par 42C extérieurs.

Le dimensionnement est à 42°C extérieurs pour la certification tiers-III (Uptime institute nécessite de dimensionner à la température maximale atteinte sur les 20 dernières années).
Suite à cet été (record dépassé), l’installation va être redimensionné pour que le datacenter conserve sa certification Uptime institute tiers-III.

Le tout est mis dans une enceinte de 7 mètres de haut insonorisée. L’arrivée d'air se fait par des tunnels insonorisés au niveau du sol. Le système est extrêmement silencieux.

Le silence presque total à un coût à la construction, mais cela permet d'éviter les procès. Telehouse2, implanté en plein Paris, en serait a son 5ème procès et ce n'est pas gagné d'avance :

Le data center Interxion PAR7 va devoir être arrêté pour trouble au voisinage !

C'est une plainte d'un collectif de riverains du datacenter, rassemblé dans l’association Urbaxion’93 qui a demandé et obtenu l'annulation de l'arrêté d'exploitation.

En cause : Le bruit pour le refroidissement 24h/24 et les tests mensuels des groupes
« Il fait du bruit en permanence et a été implanté sans concertation suffisante avec la population, presqu’à notre insu en fait », dénonce Matilda Mijajlovic, l’une des habitantes de la rue Rateau à l’initiative de la création du collectif.

Aspect green : L'eau utilisée pour le circuit de refroidissement est composée à 30% de Propylène Glycol (et non de l’éthylène glycol), c’est du glycol alimentaire, non polluant et non toxique mais extrêmement coûteux. Le circuit d'eau dans le Datacenter lui ne comporte pas de Propylène Glycol (pas de risque de gel).

Les Aéro-refroidisseur de DC3, vu aérienne il y a 3 ans :


Aujourd'hui : (peu de choses ont changé)


vivien

  • Administrateur
  • *
  • Messages: 29 657
    • Twitter LaFibre.info
Data center DC3 d'Iliad: Climatisation
« Réponse #27 le: 23 octobre 2015 à 13:11:53 »
En haut des Aéro-refroidisseur il y a des ventilateurs qui extraient l'air vers le haut, surmonté par un silencieux pour que le système soit presque inaudible (il y a des voisins).


L'eau chaude est envoyée dans le circuit intérieur (en suivant la fleche) et va jusqu'au bout puis revient par le circuit extérieur. La chute de température par ce long chemin est impressionnante : l'eau est vraiment froide, à température ambiante.


vivien

  • Administrateur
  • *
  • Messages: 29 657
    • Twitter LaFibre.info
Data center DC3 d'Iliad: Climatisation
« Réponse #28 le: 23 octobre 2015 à 13:15:29 »
Afin de piéger le bruit, il y a en haut des murs avec une matière qui piège le son.
En bas, il y a des silencieux qui permettent à l'air extérieur de rentrer (on voit au fond du silencieux, le jardin d'un immeuble voisin)




vivien

  • Administrateur
  • *
  • Messages: 29 657
    • Twitter LaFibre.info
Data center DC3 d'Iliad: Climatisation
« Réponse #29 le: 23 octobre 2015 à 13:15:46 »
Vue aérienne du data center DC3 et de l'immeuble voisin : (c'est pour lui que Iliad a dépensé autant en insonorisation)


On retrouve les mêmes silencieux pour le NRO de Free :

Pour mieux comprendre l’insonorisation, voici un exemple d'insonorisation avec un silencieux d’entrée d’air horizontal et un silencieux de sortie d’air vertical (pour Free les deux silencieux sont horizontaux).

Avant l'insonorisation :


Après le passage de la société Française AKUSTIKE (installée à Villejuif, dans le 94)

vivien

  • Administrateur
  • *
  • Messages: 29 657
    • Twitter LaFibre.info
Data center DC3 d'Iliad: Climatisation
« Réponse #30 le: 23 octobre 2015 à 13:16:14 »
A gauche : Les vannes de purge (il ne doit pas y avoir d'air, car des bactéries pourraient se développer car c'est juste de l'eau avec un anti-gel)

Au centre : le moteur surplombé d'un silencieux


Les armoires techniques qui cachent un inverseur de source (on peut voir l’inverseur SOCOMEC au travers de la vitre)
Certification uptime institute oblige, même les dry-coolers doivent être double alimentés depuis deux circuits électriques différents… qui contrôlent les moteurs :


vivien

  • Administrateur
  • *
  • Messages: 29 657
    • Twitter LaFibre.info
Data center DC3 d'Iliad: Climatisation
« Réponse #31 le: 23 octobre 2015 à 13:16:43 »
La production frigorifique

5 groupes froids Carrier sont installés pour l'informatique (serveurs) et une extension avec un 6ème groupe froid va être réalisée.
Deux plus petits carrier sont dédiés pour refroidir les locaux techniques (onduleurs), les deux salles telecom et les couloirs. Au total la production frigorifique atteint 11,8 MW. Le gaz frigorifique utilisé est le R134A, sans impact sur l'environnement.

Il y a 4 chaînes de froid : 2 chaînes en configuration 2N pour l’informatique et 2 chaînes en configuration 2N pour les locaux techniques.
Configuration 2N : une seule chaîne est capable de refroidir l'intégralité des installation.

C'est un principe de base pour les datacenters Iliad : tout ce qui est informatique est séparé du technique. Les chaînes électrique de la clim sont par exemple dissociés des chaines informatiques (2 chaînes électriques avec 2 transformateurs de 2,5 MW et 4 groupes électrogènes sont dédiées à la climatisation).
La climatisation des locaux techniques est dissociée de l’informatique.
La séparation des locaux entre l’informatique et la technique est au moins coupe-feu 4 heures
etc…


vivien

  • Administrateur
  • *
  • Messages: 29 657
    • Twitter LaFibre.info
Data center DC3 d'Iliad: Climatisation
« Réponse #32 le: 23 octobre 2015 à 13:17:23 »
L’armoire de contrôle de la chaîne de froid "A" avec les interrupteurs pour gérer les 7 Aéro-refroidisseurs que nous venons de voir :


L'écran de l'automate, prise il y a 3 ans :


vivien

  • Administrateur
  • *
  • Messages: 29 657
    • Twitter LaFibre.info
Data center DC3 d'Iliad: Climatisation
« Réponse #33 le: 23 octobre 2015 à 13:19:01 »
Les échangeurs (en bleu) pour le free-cooling indirect : L'eau qui passe dans les Aéro-refroidisseurs n'est pas celle qui va dans les armoires dans les salles : il y a donc 2 échangeurs (un par chaîne de froid) qui permet de récupérer les calories de l'eau.


vivien

  • Administrateur
  • *
  • Messages: 29 657
    • Twitter LaFibre.info
Data center DC3 d'Iliad: Climatisation
« Réponse #34 le: 23 octobre 2015 à 13:19:05 »
Toutes les installations sont doublées (il y a deux chaînes de froid, en configuration 2N : une seule chaîne de froid est nécessaire pour climatiser un data center plein) mais les deux chaînes sont côte à côte dans la même salle.

En cas de sinistre dans cette salle, le data center peut perdre ses deux chaînes : C'est ce qui a fait perdre à Online la Certification Uptime Institute Tiers IV (DC3 est certifié Uptime Institute Tiers III)



vivien

  • Administrateur
  • *
  • Messages: 29 657
    • Twitter LaFibre.info
Data center DC3 d'Iliad: Climatisation
« Réponse #35 le: 23 octobre 2015 à 13:19:09 »
Les 5 groupes froid de marque Carrier pour refroidir les serveurs (il y a de la place pour rajouter un 6ème groupe, pour l'extension du data center avec l'ouverture prochaine de la salle 1 et 2)

Ils ont chacun deux compresseurs de 1,7MWf (3.4MW chacun)



Le deux plus petits carrier pour refroidir les deux salles telecom, les onduleurs et les couloirs :

Ce sont des groupes froids de 850kW chacun (deux compresseurs de 425kW)


 

Mobile View