Auteur Sujet: Canicule: risque "très élevé" pour les datacenters  (Lu 21653 fois)

0 Membres et 1 Invité sur ce sujet

ginie

  • Expert
  • *
  • Messages: 638
    • Twitter @ginieb
Canicule 2019: risque "très élevé" pour les datacenters
« Réponse #36 le: 24 juillet 2019 à 18:30:48 »
J'avais cru comprendre que d'arroser les Dry cooler etait interdit car risque de contamination a la légionellose (inhalation apparement) arretez moi et corrigez moi si je me trompe.
Je sais que cette pratique est souvent utilisée (je l'ai vu plusieurs fois chez des clients) mais non reglementaire ?  :-\ :-X
Le même risque que quand il pleut sur ton groupe, l'eau n'est pas en circuit fermée.

ginie

  • Expert
  • *
  • Messages: 638
    • Twitter @ginieb
Canicule 2019: risque "très élevé" pour les datacenters
« Réponse #37 le: 24 juillet 2019 à 18:33:01 »
50°c ?

Cela serait bien d'avoir les astérisques.

Il est probable que la puissance soit réduite si il fait 50°c.
Ce que je disais sur touiteur, les Mitsubishi en gamme résidentiel que je fais monter sur mes sites mobiles sont données pour avoir leur puissance jusqu'à 46°.

Ballast

  • Client Free fibre
  • *
  • Messages: 259
  • Delta S 10G + FTTB R=D Paris XII
Canicule 2019: risque "très élevé" pour les datacenters
« Réponse #38 le: 24 juillet 2019 à 19:04:06 »
Ce que je disais sur touiteur, les Mitsubishi en gamme résidentiel que je fais monter sur mes sites mobiles sont données pour avoir leur puissance jusqu'à 46°.

Avec, hélas, un SEER inférieur à 9 pour les petites et moyennes puissances, tandis qu'on tombe en dessous de 7.5 pour 5kw restitués.

A titre de comparaison, Daikin, SEER à 9 pour cette dernière puissance, mais, 43 C°....

Leon

  • Client SFR sur réseau Numericable
  • Modérateur
  • *
  • Messages: 5 002
Canicule 2019: risque "très élevé" pour les datacenters
« Réponse #39 le: 24 juillet 2019 à 19:11:46 »
Au bout d'un moment, il faut que les gens prennent aussi leurs responsabilités, car ces canicules à répétition montrent l'absurdité du système : on veut de la redondance pour repousser le risque de panne... mais on fragilise le refroidissement en lui demandant de refroidir plus d'équipements et donc d'aller soi-même vers un risque de panne qu'on tente d'éviter justement, c'est idiot. C'est scier la branche sur laquelle on est assis.
Pourquoi est-ce qu'on fragiliserait le refroidissement?
Un Datacenter est vendu/loué pour une certaine puissance électrique/frigorifique, point.
Si le client veut acheter plus de baies, dans plusieurs datacenter pour assurer la redondance, les opérateurs de datacenter suivent, et c'est tout.

Il n'y a aucune "fragilisation" là dedans.
Un opérateur de datacenter sérieux ne vendra jamais plus de capacité frigorifique qu'il sait en fournir. Au contraire, ils prennent normalement une marge.

Leon.

online_fr

  • AS12876 Officiel Scaleway
  • Expert
  • *
  • Messages: 103
  • Paris (75)
Canicule 2019: risque "très élevé" pour les datacenters
« Réponse #40 le: 24 juillet 2019 à 19:19:17 »
L'avenir c'est plutôt ça :-)
Pas un seul kw d'électricité, juste un peu moins de 3 gramme d'eau ajouté par kilogramme d'air.
Ultra fiable, pas de pièces mécaniques, pas de compresseur, pas de gaz frigorifique, rien.
Ca OUI, c'est l'avenir.


Leon

  • Client SFR sur réseau Numericable
  • Modérateur
  • *
  • Messages: 5 002
Canicule 2019: risque "très élevé" pour les datacenters
« Réponse #41 le: 24 juillet 2019 à 19:23:18 »
Merci Arnaud.
Tu pourras nous remontrer le même graphique demain au plus fort de la canicule, stp?

Leon.

Optix

  • AS41114 - Expert OrneTHD
  • Client Orne THD
  • *
  • Messages: 2 932
  • Im Elsass !
    • OrneTHD
Canicule 2019: risque "très élevé" pour les datacenters
« Réponse #42 le: 24 juillet 2019 à 19:23:27 »
Pourquoi est-ce qu'on fragiliserait le refroidissement?

Il n'y a aucune "fragilisation" là dedans.
Ma réflexion va beaucoup plus loin que de centrer ça sur un simple gestionnaire de DC.

Fragiliser le refroidissement, car tu rajoutes des bécanes pour diminuer le risque de coupure. Plus tu rajoutes de machines, plus ça consomme, plus ça chauffe, et derrière faut que ça suive, du coup le risque s'en retrouve plus grand, alors qu'on cherche justement à le diminuer. C'est une fuite en avant jusqu'à ce que la nature et ses propriétés physiques nous mettent devant le fait accompli et qu'on demande aux clients... bah éteignez des serveurs, voilà bisous. Je trouve ça marrant :)

vivien

  • Administrateur
  • *
  • Messages: 38 758
    • Twitter LaFibre.info
Canicule 2019: risque "très élevé" pour les datacenters
« Réponse #43 le: 24 juillet 2019 à 19:47:45 »
L'avenir c'est plutôt ça :-)
Pas un seul kw d'électricité, juste un peu moins de 3 gramme d'eau ajouté par kilogramme d'air.

Je vois que les vannes adiabatiques sont à 100% sur DC5 : cela signifie que le système injecte le maximum d'eau possible ou il y a encore de la marge ?

Lors de la visite, tu avais réussi à mettre plus d'eau : 5,29 gramme d’eau par kilogramme d’air (pour ceux qui se posent la question, ce chiffre n'est pas sur l'écran, il faut faire la soustraction de l'humidité avant et après le passage dans les médias adiabatiques.
La photo ci-dessous est prise à un autre moment dans l’après-midi, avec un air neuf à 35,4°C, refroidit de 6,8°C en y injectant 5,29 gramme d’eau par kilogramme d’air.[/size]


Merci Arnaud.
Tu pourras nous remontrer le même graphique demain au plus fort de la canicule, stp?
+1

Leon

  • Client SFR sur réseau Numericable
  • Modérateur
  • *
  • Messages: 5 002
Canicule 2019: risque "très élevé" pour les datacenters
« Réponse #44 le: 24 juillet 2019 à 20:05:20 »
Passer de 28% à 57% d'humidité, c'est pas mal déjà. On peut faire plus avec le système de DC5?

Leon.

vivien

  • Administrateur
  • *
  • Messages: 38 758
    • Twitter LaFibre.info
Canicule 2019: risque "très élevé" pour les datacenters
« Réponse #45 le: 24 juillet 2019 à 20:20:45 »
Pour ceux qui ont du mal à suivre, pour Scaleway on parle de deux datacenter dans ce sujet :
- DC3 : Refroidissement avec groupes froids + dry-coolers
- DC5 : Refroidissement adiabatique (en augmentant l'humidité de l'air)

Installer de la brumisation permanente sur les échangeurs ? C'est ce que nous avons à DC2 et ce que nous venons de faire à DC3. Mais pour gagner quoi, 4°C ?

Arnaud vient de publier deux vidéos de DC3, mais je ne voie pas le système de brumisation. Il est où ?

Le pic de chaleur est derrière nous, 42.7C à Dc3, 38C à dc2 tout de même. Nous restons en alerte.
L’envers du décors, les fameux dry-coolers



Les groupes froids, 1.7MW chacun, sérieusement décrassés cet après midi :


Thornhill

  • Client SFR fibre FttH
  • *
  • Messages: 3 774
  • Saint-Médard-en-Jalles (33)
Canicule 2019: risque "très élevé" pour les datacenters
« Réponse #46 le: 24 juillet 2019 à 20:42:02 »
Il y en a même qui mettent un e infrastructure critique dans un même datacenter et tout sur une même voie (normalement on connecte les équipements sur la Voie A et la Voie B) :
Voici le résultat d'une indisponibilité d'une des deux voies dans le datacenter, suite à des tests :

Oh my God, ils n'avaient même pas de DRP ?

e-TE

  • Client Free fibre
  • *
  • Messages: 1 022
  • Déville-les-Rouen (76)
Canicule 2019: risque "très élevé" pour les datacenters
« Réponse #47 le: 24 juillet 2019 à 21:51:05 »
J'ai aussi souvenir en faisant un petit tour en datacenter être parvenu a identifier plusieurs baies de serveurs inutilisés qui tournaient depuis plusieurs années, qui étaient pour des projets qui ont étés arrêtés ou qui n'ont jamais démarrés (oui, de baies de serveurs qui ont tournés plus de 4 ans sans jamais avoir été utilisées et qui sont parties au broke sans avoir été utilisés - le projet n'a plus se réaliser à cause d'un problème logiciel, mais le réseau qui était plutôt en avance avait commandé, racké et mis sous tension les serveurs).
alors que la majorité de l'infra est maintenant virtualisé, en arrivant a mon poste actuel j'ai fait décomissionner 2 serveurs physiques ( 32cores 32 et 64go de ram) qui se tournaient les pouces depuis +3ans quand (en tant que presta) j'avais fait évoluer l'environnement logiciel... et que j'ai découvert que la personne en charge à l'époque n'avait pas prévenu l'exploit que les serveurs n'étaient plus utilisés depuis... mieux, il y avait également l'ancienne prod de +7ans également en route! (pas la couche applicative, mais le serveur+windows...sans maj depuis tant qu'à faire)
et les types de l'exploit qui m'ont répondu que justement, a chaque fois qu'ils allaient en salle serveur ils se posaient la question de l'utilité de ces 3 serveurs mais dans le doute ils n'avaient jamais coupé...
donc oui, y'a surement un paquet de serveurs un peu partout qui tournent jusqu’à tomber en panne matériel avant que l'on se pose la question de leurs utilités :(
« Modifié: 25 juillet 2019 à 00:28:29 par e-TE »