Auteur Sujet: Visite du data center Scaleway DC5 (refroidissement adiabatique)  (Lu 302101 fois)

0 Membres et 1 Invité sur ce sujet

buddy

  • Expert
  • Abonné Free fibre
  • *
  • Messages: 15 096
  • Alpes Maritimes (06)
Visite du data center Scaleway DC5 (refroidissement adiabatique)
« Réponse #204 le: 13 janvier 2019 à 20:58:19 »
C'est une étape de plus dans un datacenter vraiment vert (car beaucoup de datacenter se disent vert, mais là, je vois une vrai avancée)

Pour le fait d'utiliser le freecooling la majorité du temps, oui c'est vraiement "vert" mais après, pour le refroidissement adiabatique, je pense qu'il faudrait une analyse plus globale, ils consomment quand même de l'électricité (pour créer l'eau osmosée) et de l'eau (celle utilisée et celle rejetée aux égouts). Un peu comme les voitures électriques, elles ne rejettent pas de Co2 en roulant, mais il faut voir comment a été créée la voiture et comment l'électricité a été créée (pas qu'en France).
Bref, après loin de moi l'idée de vouloir lancer un débat sans fin !

Mais c'est un vrai pas en avant d'avoir du freecoling "adapté au matériel informatique" la très très grande majorité du temps.

Sinon Bravo Vivien pour cet excellent reportage, je le lisais au fur et à mesure que tu postais et c'est vraiement génial et tous les aspects techniques ont, je trouve, était très bien abordés!

vivien

  • Administrateur
  • *
  • Messages: 47 080
    • Twitter LaFibre.info
Visite du data center Scaleway DC5 (refroidissement adiabatique)
« Réponse #205 le: 13 janvier 2019 à 21:04:06 »
Le Freecooling direct est déjà utilisé dans d'autres datacenter, comme au Maxnod où est hébergé le serveur lafibre.info : la clim ne fonctionne que quand il faut plus de 28°c à l'extérieur, vu qu'on est sur un couloir froid à 28°c 365 jours /an, via une centrale de traitement d'air qui décide du % d'air chaud à recycler et du % d'air neuf à introduire.

Le refroidissement adiabatique me semble consommer très peu d'eau, rien à voir avec une climatisation à eau perdue qui est utilisé encore dans certaines salles informatiques voir certains datacenter en secours (c'est le cas de TH1 il me semble, non ?).

underground78

  • Expert
  • Abonné Free fibre
  • *
  • Messages: 7 434
  • Orsay (91)
    • FreePON : suivi géographique du déploiement fibre EPON chez Free
Visite du data center Scaleway DC5 (refroidissement adiabatique)
« Réponse #206 le: 13 janvier 2019 à 22:33:36 »
Très intéressant comme reportage, effectivement ! :)

Le refroidissement adiabatique me semble consommer très peu d'eau
36 m3 c'est quand même la consommation d'une personne pendant un an alors que là c'est la consommation (maximale certes) du DC pendant une heure.

willemijns

  • Abonné FreeMobile
  • *
  • Messages: 2 680
Visite du data center Scaleway DC5 (refroidissement adiabatique)
« Réponse #207 le: 13 janvier 2019 à 22:52:50 »
Bref, après loin de moi l'idée de vouloir lancer un débat sans fin !

Arnaud avait parlé de 2 à 3 fois moins cher non ?

mattmatt73

  • Expert.
  • Abonné Bbox fibre
  • *
  • Messages: 7 338
  • vancia (69)
Visite du data center Scaleway DC5 (refroidissement adiabatique)
« Réponse #208 le: 13 janvier 2019 à 22:57:39 »
Arnaud avait parlé de 2 à 3 fois moins cher non ?

Si on est dans ce ratio, pourquoi ce n'est pas plus utilisé ?

buddy

  • Expert
  • Abonné Free fibre
  • *
  • Messages: 15 096
  • Alpes Maritimes (06)
Visite du data center Scaleway DC5 (refroidissement adiabatique)
« Réponse #209 le: 13 janvier 2019 à 23:14:35 »
Arnaud avait parlé de 2 à 3 fois moins cher non ?
je parlais plus au sens "écologique" mis en avant. utilisation d'électricité et d'eau.
Puis qu'est ce qui coûte 2 à 3 fois moins cher ? Le total non ? (je parle plus spécifiquement de "climatiser normalement" au delà de 30 °C ou "refroidissement eau osmosée"). "De combien" le refroidissement par évaporation d'eau osmosée est plus vert que le refroidissement "traditionnel" uniquement quand il s'active.

AlexPopov

  • Abonné Free fibre
  • *
  • Messages: 167
  • 31280 Mons
Visite du data center Scaleway DC5 (refroidissement adiabatique)
« Réponse #210 le: 13 janvier 2019 à 23:43:17 »
Bravo et merci pour ce beau reportage !  :)

coco

  • Abonné Sosh fibre
  • *
  • Messages: 1 550
Visite du data center Scaleway DC5 (refroidissement adiabatique)
« Réponse #211 le: 13 janvier 2019 à 23:46:02 »
Qu'est ce qui polue le plus, la consommation d'eau ou d'électricité ? :)

willemijns

  • Abonné FreeMobile
  • *
  • Messages: 2 680
Visite du data center Scaleway DC5 (refroidissement adiabatique)
« Réponse #212 le: 14 janvier 2019 à 00:12:50 »
je parlais plus au sens "écologique" mis en avant. utilisation d'électricité et d'eau.

j'eu espéré que tout aurait été inclus dans ce chiffrage d'arnaud mais la c'est vrai que je commence à douter que que soit que l'infrastructure :-X


willemijns

  • Abonné FreeMobile
  • *
  • Messages: 2 680
Visite du data center Scaleway DC5 (refroidissement adiabatique)
« Réponse #213 le: 14 janvier 2019 à 00:22:43 »
Si on est dans ce ratio, pourquoi ce n'est pas plus utilisé ?

En prenant du recul je crois qu'ils ont poussé au max la R&D tout en ne sachant pas trop les couts ou en considerant que meme si l'energie coute plus (pas trop quand meme), le buzz ecologique cela n'a pas de prix....................

perso je crois que pour ne pas avoir testé l'idée sur un mini-DC c'est qu'il y a du benef ou un cout nul 100% garanti dans toute l'histoire.

Leon

  • Client SFR sur réseau Numericable
  • Modérateur
  • *
  • Messages: 5 971
Visite du data center Scaleway DC5 (refroidissement adiabatique)
« Réponse #214 le: 14 janvier 2019 à 01:20:43 »
En prenant du recul je crois qu'ils ont poussé au max la R&D tout en ne sachant pas trop les couts ou en considerant que meme si l'energie coute plus (pas trop quand meme), le buzz ecologique cela n'a pas de prix....................
Je pense que tu te trompes lourdement. Online a choisi ce type de Freecooling parce que c'est rentable, point. Moins cher à l'investissement, moins cher en frais de fonctionnement.
En soi, ça ne fait pas tant de buzz que ça. Regarde le site de Scaleway-Online : on n'y parle assez peu de "green computing", autant que les concurrents.
Je suis persuadé que plein de personnes achèteront du Scaleway, sans rien connaitre de la technologie du datacenter derrière.

Pour finir, c'est exactement l'architecture choisie par Facebook pour ses datacenter 'hyperscale', dont on peut penser que c'est un bon choix.

Leon.

vivien

  • Administrateur
  • *
  • Messages: 47 080
    • Twitter LaFibre.info
Visite du data center Scaleway DC5 (refroidissement adiabatique)
« Réponse #215 le: 14 janvier 2019 à 10:58:11 »
Arnaud avait parlé de 2 à 3 fois moins cher non ?
j'eu espéré que tout aurait été inclus dans ce chiffrage d'arnaud mais la c'est vrai que je commence à douter que que soit que l'infrastructure :-X

Je pense que tout est inclus. Le refroidissement adiabatique n'est pas la seule innovation pour réduire les couts.

Du coté de l'énergie, c'est aussi assez innovant et assez économique vu qu'une seul des deux voies est ondulée mais avec une gaine à barre dénommée « HQR » (Haute Qualité de Remplacement) de réalimenter la voie non ondulée depuis une production ondulée totalement indépendante. Bref, cela via  à avoir une disponibilité proche du 2N sans avoir les couts de ce type d'architecture.

Il y a aussi des économies du fait que on ne loue pas a la baie, mais par salle entière d'une capacité de 1Mw.

Les deux arrivées électriques « Voie A » et « Voie B » chacune de 6kw (disjoncteur de 32 ampères). À DC5, la double alimentation est une nécessité : une seule voie est ondulée. Ce choix permet économie et simplicité : chaque salle a 2 transformateurs 20 000 volts de 1250 kVa dédiés, 2 groupes électrogènes de 1315 kW / 1650 kVa dédiés, 2 TGBT dédiés, 4 onduleurs de 500 kVa dédiés, 16 branches batteries dédiées...

Contrairement à DC3 qui a un système d’alimentation bien plus complexe avec 4 voies d’alimentations de 2,5 MW mutualisés pour l’ensemble des salles, toutes les 4 ondulées, mais réparties par deux de façon à obtenir en régime nominal sur chaque voie chargée à 75 % et 100 % en cas de perte d’une des 4 voies. (Se reporter à la visite de DC3 : Reportage photo de la visite du data center Scaleway DC3 - Mission N°4 d'un data center : Énergie)



Ce choix entraîne un risque, dans le cas où une intervention sur la chaîne ondulée nécessite de la couper ET qu’une coupure Enedis intervient en même temps. Scaleway a prévu plusieurs dispositifs pour réduire ce risque : Il est possible de by-passer les onduleurs (Super by-pass) et via une gaine à barre dénommée « HQR » (Haute Qualité de Remplacement) de réalimenter la voie non ondulée depuis une production ondulée totalement indépendante comprenant : 1 transformateur + 1 groupe électrogène + 2 onduleurs, tous de même puissance et dédiés à cette branche de secours HQR. Ainsi l’intervention sur la chaîne ondulée défaillante peut avoir lieu sans risque d’interruption de service pour les serveurs. Cette production ondulée indépendante est mutualisée pour l’ensemble des 24 TGBT du data center.

À noter que le risque est moindre que quand le data center dispose d’une unique voie d’alimentation (oui, cela existe, je ne donne pas de nom)

Il est également moindre que dans un data center situé près d’une centrale nucléaire qui a fait le choix de ne mettre ni groupes, ni onduleurs (cela existe aussi, je ne donne pas de nom).

Bref DC5 a un positionnement moyen de gamme, alors que DC3 est lui positionné sur le haut de gamme. Vous ne pourrez pas louer de baies à DC5, la commercialisation ne se fait que par espaces de 278 baies ou 550 m². DC5 vise l’hébergement de grands acteurs du cloud et la première salle sera occupée par les Dedibox et les services de Cloud Scaleway, mais d’autres grands acteurs internationaux sont fortement intéressés.