La Fibre

Datacenter et équipements réseaux => Datacenter => Opcore Opcore / Scaleway Datacenter => Discussion démarrée par: vivien le 08 août 2018 à 13:30:20

Titre: Scaleway innove pour le refroidissement de DC5
Posté par: vivien le 08 août 2018 à 13:30:20
Online innove pour le refroidissement de son nouveau data center : DC5 utilise du free cooling direct sans aucune climatisation, mais avec une température stable de 30°c en allée froide,...

À Saint-Ouen-l'Aumône (95), petite ville du nord-ouest de l’Île-de-France, la première salle du data center DC5 d’Online est en train d’être mis en service. C’est un data center à free cooling direct : c’est l’air extérieur qui refroidit directement les serveurs.

(https://lafibre.info/images/online/201807_scaleway_dc5_presentation_01.jpg)

Le data center est construit dans un ancien centre de tri postal. Comme presque tous les centres de tri postaux, il y a une antenne 4G SFR sur le site, cela ne fait exception ici.

(https://lafibre.info/images/online/201807_scaleway_dc5_presentation_02.jpg)

Seul un étage sur deux abrite des salles serveurs : un étage sur deux est dédié à la circulation de l’air. Les immenses grilles du 1er et 3ème étage sont des "vantelles pare-pluie" et servent à faire entrer l’air extérieur dans le bâtiment, tout en bloquant la pluie et les oiseaux :


(https://lafibre.info/images/online/201807_scaleway_dc5_presentation_03.jpg)
Titre: Scaleway innove pour le refroidissement de DC5
Posté par: vivien le 08 août 2018 à 13:30:48
Voici la vue depuis l’intérieur du data center :
(https://lafibre.info/images/online/201807_scaleway_dc5_presentation_04.jpg)

Bien sûr il faut filtrer l’air, les serveurs n’apprécient pas les poussières :
(https://lafibre.info/images/online/201807_scaleway_dc5_presentation_05.jpg)

Faute « d’effet cheminée » pour une convection naturelle, il faut mettre de gros ventilateurs pour aspirer l’air extérieur :

(https://lafibre.info/images/online/201807_scaleway_dc5_presentation_06.jpg)
Titre: Scaleway innove pour le refroidissement de DC5
Posté par: vivien le 08 août 2018 à 13:30:59
L’ai est injecté par des trappes dans le plafond des allées froides, situées ci-dessous :
(https://lafibre.info/images/online/201807_scaleway_dc5_presentation_07.jpg)

Voici la salle serveur, coté allée froide. Faute de serveurs, des radiateurs électriques programmables ont étés installés dans les baies : un de 7kw et un de 6kw, pour reproduire la charge moyenne de 6kw par baie : On est sur un data center taillé pour de la très haute densité.
(https://lafibre.info/images/online/201807_scaleway_dc5_presentation_08.jpg)

L’air chaud est évacuée par des grilles et registres disposés dans les gaines chaudes des corridors :

(https://lafibre.info/images/online/201807_scaleway_dc5_presentation_09.jpg)
Titre: Scaleway innove pour le refroidissement de DC5
Posté par: vivien le 08 août 2018 à 13:31:12
À l’étage supérieur, outre l’alimentation électrique, on trouve de gros ventilateurs pour aspirer l’air de l’allée chaude et le faire sortir du bâtiment :
(https://lafibre.info/images/online/201807_scaleway_dc5_presentation_10.jpg)

Voici les grilles pour la sortie de l’air, de l’autre côté du data center :
(https://lafibre.info/images/online/201807_scaleway_dc5_presentation_11.jpg)

Les groupes électrogènes sont là pour palier aux pannes du réseau ENEDIS. Ils ont également la capacité de fonctionner en production et se coupler au réseau Enedis pour effectuer de l’effacement de puissance en cas de besoin en hiver par exemple, ou pour effectuer les essais en charge du site :

(https://lafibre.info/images/online/201807_scaleway_dc5_presentation_12.jpg)
Titre: Scaleway innove pour le refroidissement de DC5
Posté par: vivien le 08 août 2018 à 13:31:23
Ce que vous voyez de voir montre le fonctionnement d’un data center free cooling direct comme il en existe plusieurs, mais DC5 a un secret.

L’avantage d’une telle architecture est un data center très économe en électricité, avec un PUE (Power Usage Effectiveness) de 1,1 avec des onduleurs line-interactive qui ont un rendement > 99,9 % en "éco mode".

L’inconvénient majeur, c’est qu’il ne permet pas d’avoir un air frais l’été : s’il fait 40°c l’été, l’air qui rentre dans l’allée froide est déjà à 40°c. Pire il y a de forte variation de températures entre le jour et la nuit, ce qui dégrade fortement la durée de vie des serveurs. Certains appellent ce type de data center « cabane au fond du jardin » pour leur manque de fiabilité.

Voici le témoignage d’un client d’un data center free cooling concurrent sans aucune climatisation, lors d’un épisode de canicule : « Ça chauffe à xxxxxx, nos machines claquent les unes après les autres, on commence à en avoir un peu ras le bol. Selon xxxxxx, aucun incident de leur côté, on a juste "pas de chance", prenez nous pour des cons. Le support nous dit 'Toutes les barrettes de ram sont tombées en panne en même temps'. »

Le secret de DC5 consiste à permettre une température stable de 30°c en moyenne en allée froide, de jour comme de nuit, même quand il fait 40°c à l’extérieur, sans aucune climatisation !

La technologie utilisée par DC5, mise au point par les équipes d'Arnaud de Bermingham est inédite eu Europe pour une telle puissance.

(Pour être complet, de petits groupes froids sont présents sur le site, ils sont utilisés uniquement pour les salles techniques et la salle opérateur)

Arnaud nous dévoile son secret le 1er septembre...


(https://lafibre.info/images/online/201807_scaleway_dc5_presentation_13.jpg)
Titre: Scaleway innove pour le refroidissement de DC5
Posté par: Hugues le 08 août 2018 à 13:47:57
Arnaud nous dévoile son secret le 1er septembre...

http://www.novalair.com/ref/adiabatique.html

Titre: Scaleway innove pour le refroidissement de DC5
Posté par: tivoli le 08 août 2018 à 13:50:36
J'ai l'impression que le client cité est présent dans le topic :-)
Titre: Scaleway innove pour le refroidissement de DC5
Posté par: K-L le 08 août 2018 à 13:51:17
Ben j'y crois pas vraiment que ça va fonctionner en France cette technique (elle marcherait bien mieux en Islande et à mon avis beaucoup moins bien à Séville). Ils vont se tirer une balle dans le pied car ça rassure pas vraiment sur la fiabilité de leur clim discount.
Titre: Scaleway innove pour le refroidissement de DC5
Posté par: vivien le 08 août 2018 à 13:52:13
DC5 n'utilise pas de refroidissement adiabatique indirect

Et ce qu'a mis en place Online, je l'ai testé, leur jour de ma venue, c'était la canicule.
Titre: Scaleway innove pour le refroidissement de DC5
Posté par: Hugues le 08 août 2018 à 13:57:13
DC5 n'utilise pas de refroidissement adiabatique indirect

Citation de: abermingham
"#DC5 - Fin des travaux dans 7 semaines. Un datacenter de 24MW sans aucune climatisation ni jackywaterbricolage. Un énorme défi technologique, nous utilisons un principe physique simple de refroidissement adiabatique (l’évaporation d’eau pure) 1"

Avec des photos en prime :

(https://pix.milkywan.fr/LZXjdRsf.jpg)
(https://pix.milkywan.fr/FE8KCyYH.jpg)
(https://pix.milkywan.fr/DajNQw38.jpg)
(https://pix.milkywan.fr/67jup69b.jpg)
Titre: Scaleway innove pour le refroidissement de DC5
Posté par: Hugues le 08 août 2018 à 13:59:29
Il me semble avoir entendu parler de refroidissement adiabatique _direct_ et non indirect, donc projeter de l'eau directement sur les baies, d'où le besoin d'eau pure. Mais pas certain que ma source soit absolument fiable :)
Titre: Scaleway innove pour le refroidissement de DC5
Posté par: underground78 le 08 août 2018 à 14:33:45
projeter de l'eau directement sur les baies
Ah ben c'est pas nouveau alors, y a déjà un concurrent qui fait ça de temps en temps. ;D

Après moi ce qui m'étonne c'est que tout ce qui a été évoqué ressemble à du refroidissement à eau perdue. Je me trompe ?
Titre: Scaleway innove pour le refroidissement de DC5
Posté par: Hugues le 08 août 2018 à 14:36:12
Il y'a peut-être un moyen de récupérer l'eau par condensation, je ne sais.

L'eau perdue, pour en utiliser en ce moment, ça coute extrêmement cher, ça a un rendement pas terrible...
Titre: Scaleway innove pour le refroidissement de DC5
Posté par: vivien le 08 août 2018 à 14:40:01
Je me trompe ?
DC5 consomme très très peu d'eau, contrairement à des data center à refroidissement adiabatique direct qui existent outre atlantique.

C'est un data center très économe en eau et très économe en énergie. C'est rare d'avoir les deux (où alors il n'y a pas de refroidissement de l'air, avec un impact sur la durée de vie des composants)

L'eau perdue, pour en utiliser en ce moment, ça coute extrêmement cher, ça a un rendement pas terrible...
Tu fais comment quand il y a une coupure d'eau ?
Titre: Scaleway innove pour le refroidissement de DC5
Posté par: underground78 le 08 août 2018 à 14:45:58
Ok Vivien, donc c'est autre chose.

Moi j'ai pensé au puits climatique (échangeur air-sol) mais ça colle pas avec ce qui a été décrit (et j'ai un doute sur la possibilité d'utiliser ça industriellement).

Il y'a peut-être un moyen de récupérer l'eau par condensation, je ne sais.

L'eau perdue, pour en utiliser en ce moment, ça coute extrêmement cher, ça a un rendement pas terrible...
Oui, c'est ce qu'on avait au boulot il y a quelques années en c'était pas terrible. En plus quand tu as des tours aéroréfrigérantes, tu dois gérer les problèmes de légionellose...
Titre: Scaleway innove pour le refroidissement de DC5
Posté par: Hugues le 08 août 2018 à 14:49:41
Tu fais comment quand il y a une coupure d'eau ?
C'est une clim de secours. Là on l'a allumée pour soulager les autres clims, c'est tout.
Titre: Scaleway innove pour le refroidissement de DC5
Posté par: Leon le 08 août 2018 à 15:11:18
DC5 n'utilise pas de refroidissement adiabatique indirect
DC5 consomme très très peu d'eau, contrairement à des data center à refroidissement adiabatique direct qui existent outre atlantique.
Du coup, c'est ni du refroidissement adiabatique direct, ni du refroidissement adiabatique indirect?
(ou alors c'est une erreur de frappe de ta part sur un des 2 messages?)

Si c'est ni l'un ni l'autre, et s'il n'y a pas de clim non plus, je donne ma langue au chat, ça me dépasse totalement.
Mes cours de thermodynamique sont un peu loin, mais quand même...

Leon.
Titre: Scaleway innove pour le refroidissement de DC5
Posté par: Hugues le 08 août 2018 à 15:18:59
En tout cas c'est de l'adiabatique et ça utilise de l'eau osmosée.
Titre: Scaleway innove pour le refroidissement de DC5
Posté par: vivien le 08 août 2018 à 15:19:33
Moi j'ai pensé au puits climatique (échangeur air-sol)
Cela fonctionne pour une maison, pas pour un datacenter ! (la puissance de refroidissement est très limitée)

En tout cas c'est de l'adiabatique et ça utilise de l'eau osmosée.
Oui, il faut de l'eau osmosée.

Du coup, c'est ni du refroidissement adiabatique direct, ni du refroidissement adiabatique indirect?
C'est du refroidissement adiabatique direct, mais qui consomme peu d'eau, comparé a ce data center de Facebook, lui aussi à refroidissement adiabatique direct, qui projette avec de nombreuses buses de l'eau sur une surface, cf 8ème minute de la vidéo :

https://www.youtube.com/watch?v=5d9s_Dxs9ck
Titre: Scaleway innove pour le refroidissement de DC5
Posté par: Leon le 08 août 2018 à 15:25:30
C'est du refroidissement adiabatique direct, mais qui consomme peu d'eau, comparé a ce data center de Facebook, lui aussi à refroidissement adiabatique direct, qui projette avec de nombreuses buses de l'eau sur une surface, cf 8ème minute de la vidéo :
OK, donc c'est probablement du refroidissement adiabatique par ruissellement d'eau sur une surface perméable à l'air et imperméable à l'eau (le truc flouté dans les photos d'aujourd'hui et non flouté dans les photos d'il y a 4 mois qu'a ressorti Hugues), et non pas par brouillard d'eau sous pression.
Si c'est ça, ça n'est pas si innovant que ça, c'est déjà utilisé en datacenter. C'est au catalogue de fournisseurs de "génie climatique".

Leon.
Titre: Scaleway innove pour le refroidissement de DC5
Posté par: Leon le 08 août 2018 à 18:02:29
Aller, je continue avec des questions et étonnements:
* les filtres à air : ils sont lavés sur place? Il y a un truc pour les nettoyer en automatique? Ou alors c'est démonté, passé en machine à laver sur place, puis remonté à la main?
* les ventilateurs sont chelou : une grosse partie de la surface balayée est masquée par l'espèce de poutre qui maintient le moteur. J'imagine que ça doit faire perdre du rendement...
* Contrairement aux datacenters de Facebook, et à d'autres datacenters à freecooling ouvert, les "grilles d'aération" entre les allées de serveur (froides ou chaudes) et le système aéraulique sont toutes petites. Chez Facebook, c'est au contraire "tout ouvert". Je suppose que dans l'installation Online DC5, ça permet de réguler facilement le débit d'air, et d'avoir un débit d'air homogène dans toutes les allées de serveurs, avec une régulation de delta de pression. Mais l'inconvénient c'est que ça fait de la perte de charge aéraulique. Si le PUE est vraiment de 1.1, ça n'a pas l'air dramatique.
* Seul 1 étage sur 2 est équipé de serveurs. C'est très étonnant. Dans un aussi gros bâtiment, avec autant de hauteur sous plafond par étage, il était vraiment impossible d'optimiser l'espace? Du coup, le "datacenter hors normes" tel que nous le présentait Arnaud, il devient d'un seul coup plus petit. On aurait au maxi 14 000m² de surface informatique, c'est déjà pas mal, mais on n'est pas dans du "hors normes".
Mais on est très loin de la perte de volume intérieur de OVH Graveline, qui héberge ses serveurs de plein pied et gâche une hauteur sous plafond de plus de 10m. C'est incompréhensible pour moi ce qu'a fait OVH à Gravelines, c'est du gâchis.
* Est-ce qu'on sait si Online a réussi à signer un contrat de location avec un "gros fournisseur de cloud" qui serait hébergé sur place, comme Arnaud le laissait entendre il y a 1 an?

Leon.
Titre: Scaleway innove pour le refroidissement de DC5
Posté par: vivien le 08 août 2018 à 18:35:13
Du coup, le "datacenter hors normes" tel que nous le présentait Arnaud, il devient d'un seul coup plus petit.
Ce n'est pas hors norme en terme de surface IT, mais en terme de puissance IT : 24MW au total (pour comparer, DC3 avec l'extension c'est 10 MW de puissance IT)

* les filtres à air : ils sont lavés sur place? Il y a un truc pour les nettoyer en automatique? Ou alors c'est démonté, passé en machine à laver sur place, puis remonté à la main?
Mon reportage sur cette partie est déjà écrit et sur les filtres, j'ai été étonné de l'absence de pré-filtre, j'ai peur que cela devienne un gouffre financier vu le volume d'air filtré.

Le reportage complet sera plus long que celui sur DC3 ( https://lafibre.info/online/dc3-iliad/ )
Là, c'est juste quelques photos de teasing.
Titre: Scaleway innove pour le refroidissement de DC5
Posté par: mattmatt73 le 08 août 2018 à 19:48:02
http://www.novalair.com/ref/adiabatique.html

c'est pas le principe du desert cooler ca ? J'avais ça dans ma maison à Riyad

https://en.wikipedia.org/wiki/Evaporative_cooler
Titre: Scaleway innove pour le refroidissement de DC5
Posté par: Leon le 08 août 2018 à 20:15:44
Là, c'est juste quelques photos de teasing.
Aaaaah, OK! Il fallait le dire dès le début, car c'était loin d'être évident.  ;)

Je croyais que c'était le reportage complet! Tu nous mets l'eau à la bouche.
On attend avec impatience le reportage complet.
Et surtout, merci pour tout ça.

Leon.
Titre: Scaleway innove pour le refroidissement de DC5
Posté par: vivien le 08 août 2018 à 22:05:37
OK, donc c'est probablement du refroidissement adiabatique par ruissellement d'eau sur une surface perméable à l'air et imperméable à l'eau (le truc flouté dans les photos d'aujourd'hui et non flouté dans les photos d'il y a 4 mois qu'a ressorti Hugues), et non pas par brouillard d'eau sous pression.
Si c'est ça, ça n'est pas si innovant que ça, c'est déjà utilisé en datacenter. C'est au catalogue de fournisseurs de "génie climatique".

Oui, c'est au catalogue, mais tu connais des personnes qui ont osées faire un datacenter avec en France ?

Le seul exemple que j'ai en mémoire, c'est les data center en container SGI qui sont en refroidissement adiabatique direct, mais avec une capacité de 4 baies, cela n'a rien a voir avec DC5.

Pour mémoire :


(https://lafibre.info/images/datacenter/201306_datacenter_modulo_9.jpg)
Donc à part de la pub "mensongère" ou  incomplète je ne vois pas comment on peut avoir un PUE à 1.03 (!)
Pas d'onduleur ou onduleur Passif ?/!
Pas de Clim
Pas de GE
Cela se rapproche plus du placard dans la nature que d'une salle de DC ?/!
Je ne critique pas.... je veux simplement des explications sur une offre qui me semble un peu irréaliste (ou utopique)
Pour le PUE, je confirme que les containers sont garantis à 1,057 pour une charge IT de 35kW par rack 51U, sans climatisation. En fonctionnement réel (PARIS), ils ont tourné à 1,02 sur un an, toujours sans climatisation.
* refroidissement par "appoint de vapeur d'eau de ville". Il faudra revoir les cours de physique : ça n'est pas la vapeur qui refroidit, mais l'évaporation. C'est très différent.
Yes. C'est le problème de condenser les termes dans des plaquettes recto/verso...
Le container SGI utilise parfois (5 à 10% du temps en France métropolitaine selon les endroits) de l'eau de ville, qu'il diffuse sur une "grille de vaporisation" pour refroidir l'air naturel en entrée, et garantir la température de consigne automatiquement.
Titre: Scaleway innove pour le refroidissement de DC5
Posté par: petrus le 08 août 2018 à 22:11:47
c'est pas le principe du desert cooler ca ? J'avais ça dans ma maison à Riyad

https://en.wikipedia.org/wiki/Evaporative_cooler

C'est exactement ce que je me suis dit ! On dit aussi "swamp cooler", mais ça fait moins classe pour un DC :)
Titre: Scaleway DC5
Posté par: mattmatt73 le 08 août 2018 à 22:16:19
C'est exactement ce que je me suis dit ! On dit aussi "swamp cooler", mais ça fait moins classe pour un DC :)

a Riyad , c'était un enfer de nettoyage de filtres. Je crois que c'était fait toutes les 48/72 heures.
Titre: Scaleway DC5
Posté par: vivien le 08 août 2018 à 22:18:22
Et je viens de voir que modulo-c, mon seul exemple de [petit] datacenter avec refroidissement adiabatique direct, ne propose plus du tout de refroidissement adiabatique direct aujourd'hui : http://www.modulo-c.fr/

(https://lafibre.info/images/datacenter/201607_modulo_box_3i.jpg)

(https://lafibre.info/images/datacenter/201607_modulo_box_6i.jpg)

(https://lafibre.info/images/datacenter/201607_modulo_box_6f.jpg)

(https://lafibre.info/images/datacenter/201607_modulo_box_1o.jpg)

(https://lafibre.info/images/datacenter/201607_modulo_safe.jpg)

De toute façon on ne joue vraiment pas dans la même classe qu'Online, avec des datacenter Modulo de 1 à 6 baies...
Titre: Scaleway DC5
Posté par: Leon le 09 août 2018 à 06:50:20
DC5 consomme très très peu d'eau, contrairement à des data center à refroidissement adiabatique direct qui existent outre atlantique.

C'est un data center très économe en eau et très économe en énergie. C'est rare d'avoir les deux (où alors il n'y a pas de refroidissement de l'air, avec un impact sur la durée de vie des composants)
J'avoue que je suis dubitatif là dessus...
Les phénomènes de la physique et de la thermodynamique sont les mêmes pour tout le monde, donc si on utilise un système de refroidissement adiabatique direct, dans des conditions de température et hygrométrie extérieure identique, et qu'on a la même consigne de température d'entrée des serveurs, alors pour moi la consommation d'eau sera la même quelle que soit le système de refroidissement adiabatique direct. Par exemple, Facebook recycle apparemment les gouttelettes d'eau qui n'ont pas été évaporées dans le brouillard d'eau.
Mais bon, si Online a un secret là dessus, et qu'ils le dévoileront en septembre, tant mieux.

Je continue mon "étonnement" : Online-DC5 est implanté dans une zone d'activité, au coeur d'une agglomération plutôt dense, contrairement aux datacenters géants à freecooling direct des mastodontes américains qui sont eux implantés "à la campagne".
Est-ce qu'il n'y a pas un risque de pollution aux particules? Pour les serveurs, et pour les filtres que Online a installé, ce sont les macro-particules qui dérangent, les serveurs se moquent pas mal des "micro particules" contrairement à nos poumons d'humains.
Il suffit qu'un petit incendie se déclare à proximité, ou qu'une entreprise voisine fasse des travaux très poussiéreux, et ça va salir rapidement les filtres à air, non?
Mais bon, certains datacenters Facebook sont bien implantés aux portes du désert aux US, avec énormèment de poussière... J'avoue que je ne sais pas comment ils gèrent ce problème. Le nettoyage régulier des filtres suffit?
Je suppose qu'Online a bien étudié le sujet et a fait des relevés de qualité d'air sur site pendant plusieurs mois / années...

Leon.
Titre: Scaleway DC5
Posté par: vivien le 09 août 2018 à 09:34:54
Facebook recycle apparemment les gouttelettes d'eau qui n'ont pas été évaporées dans le brouillard d'eau.
Je pensais que ce n'était pas possible a cause du risque de listeria.
Si c'est le cas, je vais retirer mon argument d'économie d'eau.
La consommation reste quand même faible : moins de 10 grammes d'eau par Kg d'air pour faire baisser la température de 10 degrés.

Est-ce qu'il n'y a pas un risque de pollution aux particules? Pour les serveurs, et pour les filtres que Online a installé, ce sont les macro-particules qui dérangent, les serveurs se moquent pas mal des "micro particules" contrairement à nos poumons d'humains.
Il suffit qu'un petit incendie se déclare à proximité, ou qu'une entreprise voisine fasse des travaux très poussiéreux, et ça va salir rapidement les filtres à air, non?
Mais bon, certains datacenters Facebook sont bien implantés aux portes du désert aux US, avec énormèment de poussière... J'avoue que je ne sais pas comment ils gèrent ce problème. Le nettoyage régulier des filtres suffit?
Je suppose qu'Online a bien étudié le sujet et a fait des relevés de qualité d'air sur site pendant plusieurs mois / années...
Je n'ai pas la réponse, mais je connais les filtres utilisés : ce sont des filtre classe F7

(https://lafibre.info/images/online/201807_scaleway_dc5_cta_08.jpg)

Les capacités de filtrage :
(https://lafibre.info/images/online/201807_scaleway_dc5_cta_09.png)

Il y a encore d'autres filtres à l'étage supérieur :
(https://lafibre.info/images/online/201807_scaleway_dc5_cta_07.jpg)
Titre: Scaleway DC5
Posté par: Leon le 09 août 2018 à 09:50:31
Je pensais que ce n'était pas possible a cause du risque de listeria.
Si c'est le cas, je vais retirer mon argument d'économie d'eau.
Si tu recycles l'eau en la réinjectant en amont du système d'osmose inverse, alors ça élimine le risque de développement de bactéries, et c'est à priori ce que fait Facebook.

Leon.
Titre: Scaleway DC5
Posté par: Leon le 10 août 2018 à 08:22:46
Modération : j'ai déplacé le hors sujet sur le partenaire d'Online, fournisseur tiers de cloud, qui s'implanterai à DC5.
C'est ici:
https://lafibre.info/online/quel-acteur-cloud-tiers-serait-heberge-a-online-dc5/
Titre: Scaleway DC5
Posté par: Leon le 10 août 2018 à 08:54:26
Revenons à nos moutons...
Vu la tronche des membranes dans la photo ci dessous, je n'ai pas trop de doute, ce que l'on voit c'est probablement des membranes évaporatives à cellulose.
(https://pix.milkywan.fr/DajNQw38.jpg)
C'est très utilisé dans l'industrie. On utilise ça entre autre pour refroidir des grands bâtiments industriels. Mais vu l'humidité que ça engendre, c'est loin d'être optimal pour des locaux occupés par des humains (pour des serveurs, c'est moins grave).

J'étais étonné de voir des filtres à air aussi pointus (F7) juste pour des serveurs, qui se moquent pas mal des particules fines.
Mais du coup, ça s'explique peut-être.  Il est probable que les filtres soient là avant tout pour les membranes évaporatives plus que pour les serveurs eux-mêmes. Ce n'est qu'une hypothèse de ma part, pas sur de moi à 100%.

Leon.
Titre: Scaleway DC5
Posté par: mattmatt73 le 23 août 2018 à 15:00:41
.. Mais vu l'humidité que ça engendre, c'est loin d'être optimal pour des locaux occupés par des humains (pour des serveurs, c'est moins grave).


Tu as une idée du rajout d’humidité opérées par ces membranes ?

Le matériel de data center est garantie jusqu'à quel taux d'humidité ?
Titre: Scaleway DC5
Posté par: Leon le 24 août 2018 à 06:56:17
Pour les équipements électriques et électroniques, destinés à être hébergés "en intérieur", les spécifications donnent systématiquement 80% d'humidité maxi, ce qui est beaucoup.
Et à 30°C & 80% d'humidité, un humain commence à souffrir (sensation d’atmosphère lourde) car sa transpiration s'évapore moins bien. Alors qu'un serveur n'y voit que du feu.

Bref, un serveur (ou autre équipement électrique/électronique) est beaucoup plus tolérant qu'un humain aux taux d'humidité élevés.

Par contre, les équipements électriques/électroniques d'intérieur ne tolèrent pas la condensation d'eau et/ou le brouillard d'eau.
C'est encore une fois mentionné systématiquement dans les spécifications.

Leon.
Titre: Scaleway DC5
Posté par: JeannotPlanche le 25 août 2018 à 00:02:11
J'avais cru comprendre qu'on évitait d'avoir trop d'humidité, en restant à environ 40%, pour allonger la durée de vie de l'électronique. Est-ce faux ?
Titre: Scaleway DC5
Posté par: Leon le 25 août 2018 à 12:52:41
J'avais cru comprendre qu'on évitait d'avoir trop d'humidité, en restant à environ 40%, pour allonger la durée de vie de l'électronique. Est-ce faux ?
Oui, c'est vrai dans les datacenters classiques, anciens, qui fonctionnent avec climatisation.
Comme l'a déjà dit Arnaud (et d'autres experts en datacenter), pendant très longtemps, dans le monde des datacenter, on a cherché à fournir des conditions "optimales" aux serveurs, avec des consignes de température et d'hygrométrie très très sévères.
Juste parce que les équipements (air conditionné) permettaient de le faire!
Ces consignes "très serrées" ne se justifient pas du tout pour l'hygrométrie. J'ai le souvenir de consignes d'hygrométries ressérrées à seulement 10% entre le mini et maxi toléré. C'est inutilement sévère, ça consomme plus d'électricité et d'eau que nécessaire.

Certes, beaucoup trop sec c'est dangereux, car ça augmente le risque de décharge électrostatique lors d'une manipulation par un humain. Mais si on prend certaines précautions pour les manipulations (changement de composants sur tapis électrostatique + bracelet), c'est faisable.
Beaucoup trop humide, c'est risqué, à cause de la corrosion, et vieillissement de certains plastiques. Mais beaucoup trop humide, c'est plus de 70-80%... Pas 40%.
De plus, un taux d'humidité élevé est surtout dangereux (pour les équipements électroniques) lorsqu'il y a de fortes variations (à la baisse) de température et donc risque de condensation à des moments (ou à des endroits) où l'air est plus froid. Dans un datacenter où on régule déjà la température, ça n'est pas le cas.
Mais les équipements électroniques d'intérieur ont une tolérance énorme aux variations d'humidité.

Dans un datacenter à freecooling adiabatique direct, ça ne m'étonnerai pas qu'on puisse mettre une consigne d'humidité très large entre 30% et 70-75% (chiffres donnés un peu au pif). Tout ça avec des serveurs 100% standards, non durcis.

Leon.
Titre: Scaleway DC5
Posté par: mattmatt73 le 25 août 2018 à 22:03:21
..
Dans un datacenter à freecooling adiabatique direct, ça ne m'étonnerai pas qu'on puisse mettre une consigne d'humidité très large entre 30% et 70-75% (chiffres donnés un peu au pif).

Ca parait loin d'être délirant....

par contre respecter le 70/75% si on entre de l'air à 60%, ça doit être compliqué à tenir...
Titre: Scaleway DC5
Posté par: vivien le 26 août 2018 à 08:31:30
La problématique est effectivement pour un air très chaud (>30°c) et très humide.

C'est par contre très rare en France, cela peut arriver en fin de période de canicule, avant que la température chute brutalement.
Titre: Scaleway DC5
Posté par: Leon le 26 août 2018 à 09:07:31
De ce que nous a dit Vivien, la consigne de température en entrée des serveurs de DC5 est autour de 30°C, ce qui est assez élevé.
Donc pour que le freecooling adiabatique direct atteigne ses limites, il faut à la fois une température très élevée (plus de 30-35°C) et un taux d'hygrométrie très élevé (> 70%).
Donc un temps plutôt "tropical", ce qui est très très rare en région parisienne.
Il faudrait consulter les statistiques météo pour voir si ces situations sont fréquentes.

Pour moi, un système freecooling adiabatique direct ne fonctionne bien dans nos climats que si on mets une température de consigne élevée (30°C chez Scaleway DC5).

Pendant la (les) canicule de cet été 2018, l'air était très sec, donc le système de freecooling adiabatique direct devait fonctionner à merveille.

Leon.
Titre: Scaleway DC5
Posté par: vivien le 26 août 2018 à 09:10:03
Je confirme : l'allée froide a une consigne de 30°c été comme hiver.

Le refroidissement adiabatique n'est utilisé que si la température dépasse 30°c.

Je me pose la question sur les dernières heures de la canicule, quand il a commencé à avoir des orages, alors que la température dépassait 35°c.
Titre: Scaleway DC5
Posté par: Jojo78 le 26 août 2018 à 09:12:25
Donc finalement, pas grand-chose de révolutionnaire :)?
Titre: Scaleway DC5
Posté par: vivien le 26 août 2018 à 09:16:05
C'est simplement la première fois en Europe où un Datacenter de grande puissance utilise ce type de refroidissement (adiabatique direct sans groupes froids).
Titre: Scaleway DC5
Posté par: Leon le 26 août 2018 à 13:08:34
En France, c'est peut-être unique effectivement, mais en Europe je ne crois pas que ce soit une grande première.

Par exemple, il y a au moins les 2 ou 3 datacenter facebook qui sont construits comme ça.

Après, il faut bien comprendre mes propos : ça reste un datacenter à saluer, car moderne, conçu dans le bon sens.
J'attends avec impatience ton reportage, Vivien.

Leon.
Titre: Scaleway DC5
Posté par: mattmatt73 le 26 août 2018 à 14:32:38
Mais pourquoi se fixer sur 30°C ?

Si la ventilation est bien faite sans zone morte qui chauffe, on doit pouvoir accepter plus chaud en entrée ?

Titre: Scaleway DC5
Posté par: Symbol le 26 août 2018 à 20:21:08
Je pensais que ce n'était pas possible a cause du risque de listeria.
De légionelles.
La listeria c'est plutôt dans des
(http://static.carrefour.fr/static/cfr/C4FR/2018/08-aout/02-rappel-produit/fromage.jpg) ou autres (http://static.carrefour.fr/static/cfr/C4FR/2018/08-aout/02-rappel-produit/andouille.jpg)
Titre: Scaleway DC5
Posté par: willemijns le 27 août 2018 à 09:46:01
Donc finalement, pas grand-chose de révolutionnaire :)?

suffisant pour en faire un buzz pour les techs débutants et les DRH écolo ?

A moins que le 1er septembre y'a de la surprise en plus...
Titre: Scaleway DC5
Posté par: Leon le 01 octobre 2018 à 21:46:35
Euh, vous avez compris le coup d'1 seule voie secourue par UPS? Moi non.
Je ne vois pas trop comment faire la redondance d'onduleurs comme ça. Parce qu'au moment de la coupure ERDF, si défaillance et pas de redondance d'onduleur...
A moins que les 2 branches ne soient en aval de "transfert switch", mais je croyais qu'Online (=Arnaud) refusait ce genre de trucs.
A moins que la branche onduleur soit en N+1 et qu'ils s'en contentent. Comme ce qu'on avait vu de Facebook il y a quelques années.

At DC5 racks are dually powered via two different paths.
Only one path is protected by offline UPS and generators. UPSes are only running when the grid is below our quality criteria. The other path is only generator protected. As all our servers are dual corded, this has absolutely no impact.
This design gives us the right level of redundancy with a much more efficient infrastructure, and near to 100% of installed capacity usable in all time, contrary of traditional 2N architecture with their maximum 50% of installed capacity usable for servers.

Leon.
Titre: Scaleway DC5
Posté par: vivien le 01 octobre 2018 à 22:01:33
Tout est prévu, les semaine ssss c'est aussi ma fautes, le premier tour de validation a pris du temps.

Là j'envoie demain matin le word final pour validation. 134 pages !
Titre: Scaleway DC5
Posté par: mirtouf le 01 octobre 2018 à 22:03:26
C'est une thèse ?  ;D
Titre: Scaleway DC5
Posté par: e-TE le 01 octobre 2018 à 22:04:42
de ce que j'en comprend, il y a deux arrivées électriques distinctes sur chaque serveur, et branché chacune dessus (cordon double ou double alim?)

avec une arrivée qui est backupé par groupe électrogène, et une arrivée qui est backupé par des UPS.

Donc si tu as une source primaire d'alimentation qui tombe, le serveur continu de tourner car il tourne sur la deuxième arrivée.... et si la deuxième alimentation primaire tombe, tu es sur de l'onduleur ou sur du générateur...

la seule faille c'est si les deux tombent en meme temps et que les onduleurs tiennent moins de 12sec (temps de montée en charge des generateurs) ou alors que les générateurs n'arrivent pas à démarrer pendant la période sur onduleurs :o


c'est comme ca que j'ai compris ce paragraphe en tout cas ^^