La Fibre

Datacenter et équipements réseaux => Datacenter => Opcore Opcore / Scaleway Datacenter => Discussion démarrée par: Leon le 04 juin 2014 à 19:37:52

Titre: Data centres energy efficiency awards : cas Online
Posté par: Leon le 04 juin 2014 à 19:37:52
Voici une news pour le moins surprenante. Online annonce fièrement avoir reçu un prix "Data centres energy efficiency awards", censé récompenser les datacenters particulièrement économes en énergie.

En parallèle, Online publie de nouveau une page sur son PUE : http://pue.online.net/fr (http://pue.online.net/fr)
Or, Online annonce un PUE de 1.35 sur 1 an, ce qui n’est pas si terrible que ça. Beaucoup de Datacenters font mieux, voire beaucoup mieux. Google, Facebook et les autres sont apparemment moins de 1.1 (http://www.opencompute.org/about/energy-efficiency/), soit 3 à 4 fois mieux ! (en terme d'énergie inutile dépensée).
Un des trucs surprenant, c’est que Online annonce faire du « freecooling ». Or, avec leurs graphiques, on s’aperçoit assez facilement que le freecooling ne commence à fonctionner qu’avec une température extérieure inférieure à 13°C. Cela s’explique très bien par leur dispositif de freecooling : utilisation d’échangeurs air-eau. Au final, c’est beaucoup moins performant que du vrai freecooling.
 
Bref, ce genre de prix est à mon avis très peu représentatif de la réalité. Il est très certainement délivré par des auditeurs payés par Online pour avoir un jugement partial. Pour moi, c’est de la pub déguisée, rien de plus, c’est donc très moche. En tout cas, la remise du prix à Online est particulièrement incompréhensible pour moi.

https://ec.europa.eu/jrc/en/news/data-centres-energy-efficiency-awards-2014#_ftn1 (https://ec.europa.eu/jrc/en/news/data-centres-energy-efficiency-awards-2014#_ftn1)
Data centres energy efficiency awards 2014
Six companies have received the 2014 European Code of Conduct for Data Centres Award for their respective investment in innovative energy efficient technologies, which have resulted in major reductions in energy use. The winners are UN Support Base, Online SAS, St. Andrews University, T-Systems International, Zen Internet and TISSAT.

The winning data centres have implemented most of the best practices recommended by the Code of Conduct, including innovative solutions such as: using external ambient air as a free cooling medium, IT virtualisation and consolidation, monitoring and management of energy consumption, highly efficient uninterrupted power supplies, set point adjustments and control changes to address temperature and humidity control, installation of variable frequency drivers on all primary chilled water pumps, and installation of trigeneration[1] and PV systems .

The Code of Conduct for Data Centres was created in response to increasing energy consumption in this sector as there is a need to reduce the related environmental, economic and energy supply security impacts. Participants in this initiative consume on average 15 GWh of electricity per year, with the largest consuming 70 GWh. It is a voluntary initiative managed by the JRC, with the aim to reduce energy consumption through ambitious energy efficiency measures. The aim is to inform and stimulate data centre operators and owners to reduce energy consumption in a cost-effective manner by improving the understanding of energy demand within the data centre, raising awareness, and recommending energy efficient best practice and targets.

In 2013, 48 new data centres joined the EU Code of Conduct as participants, totalling 222 since the start of the programme in 2008. In addition there are 205 “endorsers” in the programme. These are IT professionals who promote the use of the Data Centres Code of Conduct and assist the participants with the implementation.
List of winners:
    United Nations Support Base for the data centre in Valencia, Spain
    ONLINE SAS for the data centre located in Vitry-sur-Seine, France
    University of St. Andrews for the data centre Butts Wynd Data Centre in St. Andrews, United Kingdom
    T-Systems International GmbH, at corporate level, Germany
    Zen Internet for the date centre SP-ROCH DC1 in Rochdale, United Kingdom
    TISSAT, S.A. for the data centre Walhalla in Castellón, Spain
Titre: Data centres energy efficiency awards : cas Online
Posté par: BadMax le 04 juin 2014 à 20:50:31
Sauf que Google et Facebook n'héberge que leurs besoins propres. Donc ce n'est pas comparable.
Titre: Data centres energy efficiency awards : cas Online
Posté par: Leon le 04 juin 2014 à 21:08:34
Sauf que Google et Facebook n'héberge que leurs besoins propres. Donc ce n'est pas comparable.
Peux-tu expliquer un peu plus, stp? Dans les 2 cas, c'est un bâtiment qui héberge des serveurs, c'est à dire des machines qui transforment l'électricité en chaleur. Dans les 2 cas, ils utilisent des allées confinées, etc... Je ne vois pas de raison valable pour qu'un datacenter comme Online dépense 3 à 4 fois plus d'énergie inutilement qu'un datacenter Facebook. Un facteur 3 ou 4, c'est énorme.

Leon.
Titre: Data centres energy efficiency awards : cas Online
Posté par: BadMax le 04 juin 2014 à 21:15:59
Les serveurs de Google et Facebook sont fait sur mesure et sont probablement sans comparaison possible du point de vue énergétique avec un serveur classique. Par exemple, Google intégrait une batterie 12V directement dans ses serveurs pour éviter d'avoir un onduleur. Le serveur était directement alimenté en DC 12V. Le CPU était juste dimensionné et la mémoire au poil.

Dans un datacentre classique, tu loues des M2 et tu ne maitrises pas la configuration. Pire il y a meme des matériels qui ne ventilent pas dans le bon sens ! Exemple: Un Nexus 7009 ventile en arrière et sur les cotés. 2kW/h !
Titre: Data centres energy efficiency awards : cas Online
Posté par: ldrevon le 04 juin 2014 à 21:18:49
Mince à Maxnod on a un PUE à 1.33 (en comprenant les équipes IT et les bureaux annexes...)
J'aurai du postuler :)

Pour ceux qui tombe en dessous des 1.3, et bien soit ce n'est pas ondulé (en online) soit ils refroidissent avec l'eau courante, ce qui est pas compatible avec le calcul d'efficacité énergétique car tronqué par un autre facteur de refroidissement. (qui se perd dans la nature...)
Titre: Data centres energy efficiency awards : cas Online
Posté par: buddy le 04 juin 2014 à 21:23:51
il y a aussi OVH qui a de bon PUE grâce au water cooling et leur aération naturelle (si il l'utilise toujours ) non ?
Titre: Data centres energy efficiency awards : cas Online
Posté par: Leon le 04 juin 2014 à 21:24:58
Les serveurs de Google et Facebook sont fait sur mesure et sont probablement sans comparaison possible du point de vue énergétique avec un serveur classique. [...] Le CPU était juste dimensionné et la mémoire au poil.
Encore une fois, ça n'a rien à voir avec le PUE. Le PUE mesure la consommation totale divisée par la consommation de la "charge IT" donc des serveur. Donc si les serveurs sont mal dimensionnés et énergivores, ça n'influencera pas le calcul du PUE. D'un point de vue énergétique et calcul du PUE, un serveur transforme juste juste l'électricité en chaleur, quelle que soit la RAM ou le CPU utilisé. Le PUE mesure uniquement la performance du bâtiment, des infrastructures, de la clim, de la chaine d'alimentation, et de l'urbanisation du datacenter.

Leon.
Titre: Data centres energy efficiency awards : cas Online
Posté par: BadMax le 04 juin 2014 à 21:48:03
Ben si :)

Pour maintenir une température ambiante adéquat avec des serveurs "sur-mesure", c'est très facile.

Avec des serveurs "classiques" et de configuration non-homogène, tu vas avoir des points chauds à gérer et tu vas devoir refroidir plus que nécessaire pour maintenir la bonne température en ambiance.

Exemple simple:
Cas 1 ! mets un Cisco Nexus 7009 dans un rack APC. Premier problème : tu vas mettre le cablage coté allée chaude (au "cul" des serveurs) et du coup la ventilation des alimentations va se faire vers l'allée froide. Deuxième problème : le chassis ventile par les cotés. Si tu ne mets rien, le chassis sera à 35°C de température interne pour 21°C de température en allée froide. Donc tu mets des ventilateurs spécifiques -> tu vas consommer plus !

Cas 2 : tu mets ce chassis dans un rack ouvert, c'est-à-dire sans porte ni panneau sur les cotés, pas d'allée chaude ou froide. Le chassis sera à peine à température ambiante. Tu peux meme te permettre de faire remonter l'ambiance à 25°C.

Cas 3 : le rack est complètement fermé avec des portes opaques. Tu souffles l'air froid en faux-plancher et tu le fais rentrer directement dans le rack via une dalle percée. En haut, soit tu laisses ouvert soit tu mets un bloc de ventilateurs (superflu en fait). Ton chassis sera à température de l'air soufflé par la clim -> tu peux encore faire baisser la puissance appelée par la clim. L'ambiance pourrait etre à 28° ou plus, on s'en tape, on peut directement asservir la clim à la température interne du chassis...

Bref, entre du sur-mesure et du générique, il y a pas mal de petites choses qui influencent le PUE.

Titre: Data centres energy efficiency awards : cas Online
Posté par: vivien le 04 juin 2014 à 22:25:18
OVH doit avoir un PUE très faible, mais c'est difficilement comparable à ce que propose un datacenter classique en terme de prestation.

Un datacenter qui ne propose que de l’alimentation 48v continue et qui n'a aucun système de refroidissement actif (uniquement la convection naturelle), est-il possible de dire qu'il a un PUE de 1,0 ?
Titre: Data centres energy efficiency awards : cas Online
Posté par: buddy le 04 juin 2014 à 22:33:31
Salut,

je dirais que non, puisqu'il y a surement des petites pertes entre le 20Kv et le 48v non ?
Puis il y a forcèment des systèmes de monitoring qui tire du courant non ?

il me semble avoir lu quelque part qu'OVH était en moyenne à 1.07-1.08 (je ne garantis pas ce chiffre exactement) mais c'est déjà excellent.

Je pense qu'il sera difficile de descendre en dessous de 1.03 .. (pour les raisons ci-dessus)

Après, la majorité des DC ne sont pas ouvert à la location de baies ou alors c'est infime .. du coup, pas si éloigné que çà d'ovh..
Titre: Data centres energy efficiency awards : cas Online
Posté par: BadMax le 04 juin 2014 à 22:49:48
Et n'oubliez pas que Google compte l'ensemble de la chaine, y compris la production et le transport de l'électricité.

A partir du moment qu'on gère ses propres serveurs eux-meme fait sur mesure et répondant à un cahier des charges précis en terme d'alimentation, de dissipation thermique et de rendement énergétique, on peut en effet descendre très bas comme Google ou OVH.
Titre: Data centres energy efficiency awards : cas Online
Posté par: ldrevon le 05 juin 2014 à 09:44:33
A partir du moment qu'on gère ses propres serveurs eux-meme fait sur mesure et répondant à un cahier des charges précis en terme d'alimentation, de dissipation thermique et de rendement énergétique, on peut en effet descendre très bas comme Google ou OVH.

Oui mais cela sort du DC normal ou les clients rack des serveurs à un format standard! (le coût n'a rien avoir entre une carte mère de serveur rackable et une carte mère de pc de bureau en version économique...)
De même installer du watercooling dans une salle c'est un risque à prendre qui n'est pas compatible avec une responsabilité client, combien y a t-il eu de fuite chez OVH par exemple???
Bon dans les faits on s'en moque le support d'OVH étant tellement mauvais que de toute façon vous avez plus vite fait de changer de plan que de les appeler et puis si c'est une fuite sur une carte mère de pc de bureau au lieu d'un serveur le coût reste inférieur à 40€.
Tout est question de priorité, statistique de perte, pas de qualité!

Tout ce beau discours  pour amener un service sans faille aux clients et qui pour le coup on est obligé de doubler l'architecture pour qu'on atteigne une disponibilité de  100%!
Je propose qu'on établisse un PUEQS  qui prenne en compte  alors aussi la qualité de service : donc 2 DC pour avoir 100% de service rendu ou aussi 2 serveurs ou aussi 2 disques dur au lieu d'un !?


Titre: Data centres energy efficiency awards : cas Online
Posté par: ldrevon le 05 juin 2014 à 11:58:09
il me semble avoir lu quelque part qu'OVH était en moyenne à 1.07-1.08 (je ne garantis pas ce chiffre exactement) mais c'est déjà excellent.

Oui quid des pertes dans les alimentations à découpage???
Les meilleurs sont à 90% (mais ce sont les plus chères), par conséquent on ne les retrouvera jamais chez les hébergeur à bas coût.
A  ce jour vu de mon coté datacenter avec équipement rackable, je peux vous dire que coté consommation électrique, il vaut mieux avoir du blade (HP?) que du serveur indépendant.
La consommation générale n'a que très peu de relation entre activité rendue et pic de consommation . Je sais c'est triste mais c'est que j'observe!

Titre: Data centres energy efficiency awards : cas Online
Posté par: vivien le 05 juin 2014 à 12:15:29
Les nouvelles salles d'OVH et les nouveaux serveurs (hors haut de gamme) sont maintenant à alimentation continue (19v) chez OVH. Le PUE espéré est de 1.06 ou 1.07 :

(https://lafibre.info/images/ovh/201312_ovh_serveurs_alimentation_continue_19v_1.jpg)

C'est expliqué dans le très bon post de Leon : Courant continu dans les datacenters (https://lafibre.info/datacenter/courant-continu-dans-les-datacenters/)
OVH se lance donc dans les baies alimentées en courant continu.

On apprend que:
* les serveurs sont alimentés en 19V. En fait, des cartes mères avec alim en 19V, ça existe. Les alimentations ATX acceptant le 19V aussi.
* Il y a 3 batteries par chaines : 3 batteries au plomb de 6V montés en série. On voit 2 séries de 3 batteries. Je ne sais pas si c'est pour la redondance.
* les redresseurs (boitiers noirs avec ventilateur et poignée) sont redondants en N+1 : 3 redresseurs là où 2 suffiraient.
* le chassis du "PDU" (power distribution unit) est fait maison.
* les connecteurs sont semblable à ceux qu'on trouve au cul d'un PC portable (=bof). C'est le standard des alims 19V, mais c'est adapté à des contraintes très différentes de l'industrie : c'est prévu pour un grand nombre de connexion/déconnexion, et il n'y a pas de verrou. Des connecteurs industriels auraient sans doute été plus adaptés.

(https://lafibre.info/images/ovh/201312_ovh_serveurs_alimentation_continue_19v_3.jpg) (https://lafibre.info/images/ovh/201312_ovh_serveurs_alimentation_continue_19v_2.jpg)

En fait, ça ressemble aux montages de facebook ou Google. Le principe est avant tout de placer les batteries au plus près des serveurs, au plus près de là où il y avait déjà du courant continu (=dans les serveurs). On supprime donc les onduleurs, qui sont des équipements chers et complexes. Surtout que chez OVH, les onduleurs étaient visiblement rarement redondants.

Mais ici, ça me semble quand même moins optimal que Google ou Facebook : le "PDU" est en 19V, et octave dit alimenter des serveurs de 300W. Ca fait donc ~15A à transporter. Même sur 1m, c'est un courant important, et il doit y avoir des pertes. Sans parler de l'échauffement des connecteurs et des câbles. Bref, le montage me surprend, mais ça a du être étudié.

La grosse différence avec Google et Facebook, c'est que de la "très basse tension" est gérée en continu sur ~1m, tout le temps. Chez Facebook, cette très basse tension sur plus d'1m n'est utilisée qu'en cas de coupure du courant alternatif. Un serveur Facebook a 2 alimentations : 240V alternatif en temps normal, et 48V continu de secours.

Leon.
Titre: Data centres energy efficiency awards : cas Online
Posté par: ldrevon le 05 juin 2014 à 12:27:26
Bon sans être désagréable des pertes de 1% sur des convertisseurs de tension il faut qu'il la brevette son invention!
Ps: le 19V : c'est le coté alimentation des portables donc pas très cher et ceci pour alimenter des cartes mères pas au format ATX, mais comme nos boitiers TV en format nanoPC . http://www.foxconnchannel.com/ProductDetail.aspx?T=NanoPC&U=en-us0000002 (http://www.foxconnchannel.com/ProductDetail.aspx?T=NanoPC&U=en-us0000002)
Titre: Data centres energy efficiency awards : cas Online
Posté par: abermingham le 01 août 2014 à 20:48:52
Quelques commentaires sur le post initial de Léon,
En tant que signataire, comme 240 autres acteurs, de l'European Code of Conduct For Datacenter, nous transmettons tous les mois à l'union européenne nos différents indicateurs énergétiques (électricité, combustibles, consommation d'eau etc...)
L'union européenne utilise ces données pour établir des chartes de bonne conduite et réaliser des statistiques à grande échelle sur les datacenters, libre aux acteurs de mettre en oeuvre ces recommandations. En fonction des performances, de la mise en oeuvre des recommandations et de l'architecture globalement utilisée, l'union européenne décerne de temps en temps des prix, en toute indépendance et avec de très nombreux critères.

Il est par exemple très facile d'avoir un PUE plus bas en utilisant des tours de refroidissement ou du refroidissement adiabatique comme le font Google et Facebook par exemple (https://fr.wikipedia.org/wiki/Tour_a%C3%A9ror%C3%A9frig%C3%A9rante (https://fr.wikipedia.org/wiki/Tour_a%C3%A9ror%C3%A9frig%C3%A9rante)).
En contre partie de diffuser massivement de la Légionellose dans l'air et en utilisant au minimum 1 litre d'eau potable par kWh refroidis, tu auras une température de condensation dans les groupes froid très bas, donc un PUE très bas. Mais à quel prix pour l'environnement ? Pour le sacro-saint PUE ?

Enfin concernant la remarque sur notre transparence sur pue.online.net, tu remarqueras que lorsque nous sommes en freecooling à 100% (vers 10-11°C extérieurs), l'impact sur le PUE est inférieur à 0.2 voir 0.1 points, donc minime.
Il existe une vieille légende qui dit que "sans clim, tu as un PUE proche de 1". En pratique comme tu peux constater qu'entre le marketing des chiffres bidonnés et la réalité, il y a juste un fossé :D

Titre: Data centres energy efficiency awards : cas Online
Posté par: Leon le 01 août 2014 à 21:12:02
Merci pour ta réponse, Arnaud.
Je suis d'accord avec toi, il n'y a pas que le PUE qui compte, à la fois pour l'impact environnemental, et pour la prestation globale : la fiabilité avant tout.

Leon.
Titre: Data centres energy efficiency awards : cas Online
Posté par: Optrolight le 01 août 2014 à 22:59:51
Toujours intéressant d'avoir l'avis des concernés. On apprend plein de choses. Merci.