Auteur Sujet: Data centres energy efficiency awards : cas Online  (Lu 4723 fois)

0 Membres et 1 Invité sur ce sujet

Leon

  • Client SFR sur réseau Numericable
  • Modérateur
  • *
  • Messages: 4 000
Data centres energy efficiency awards : cas Online
« le: 04 juin 2014 à 19:37:52 »
Voici une news pour le moins surprenante. Online annonce fièrement avoir reçu un prix "Data centres energy efficiency awards", censé récompenser les datacenters particulièrement économes en énergie.

En parallèle, Online publie de nouveau une page sur son PUE : http://pue.online.net/fr
Or, Online annonce un PUE de 1.35 sur 1 an, ce qui n’est pas si terrible que ça. Beaucoup de Datacenters font mieux, voire beaucoup mieux. Google, Facebook et les autres sont apparemment moins de 1.1, soit 3 à 4 fois mieux ! (en terme d'énergie inutile dépensée).
Un des trucs surprenant, c’est que Online annonce faire du « freecooling ». Or, avec leurs graphiques, on s’aperçoit assez facilement que le freecooling ne commence à fonctionner qu’avec une température extérieure inférieure à 13°C. Cela s’explique très bien par leur dispositif de freecooling : utilisation d’échangeurs air-eau. Au final, c’est beaucoup moins performant que du vrai freecooling.
 
Bref, ce genre de prix est à mon avis très peu représentatif de la réalité. Il est très certainement délivré par des auditeurs payés par Online pour avoir un jugement partial. Pour moi, c’est de la pub déguisée, rien de plus, c’est donc très moche. En tout cas, la remise du prix à Online est particulièrement incompréhensible pour moi.

https://ec.europa.eu/jrc/en/news/data-centres-energy-efficiency-awards-2014#_ftn1
Data centres energy efficiency awards 2014
Six companies have received the 2014 European Code of Conduct for Data Centres Award for their respective investment in innovative energy efficient technologies, which have resulted in major reductions in energy use. The winners are UN Support Base, Online SAS, St. Andrews University, T-Systems International, Zen Internet and TISSAT.

The winning data centres have implemented most of the best practices recommended by the Code of Conduct, including innovative solutions such as: using external ambient air as a free cooling medium, IT virtualisation and consolidation, monitoring and management of energy consumption, highly efficient uninterrupted power supplies, set point adjustments and control changes to address temperature and humidity control, installation of variable frequency drivers on all primary chilled water pumps, and installation of trigeneration[1] and PV systems .

The Code of Conduct for Data Centres was created in response to increasing energy consumption in this sector as there is a need to reduce the related environmental, economic and energy supply security impacts. Participants in this initiative consume on average 15 GWh of electricity per year, with the largest consuming 70 GWh. It is a voluntary initiative managed by the JRC, with the aim to reduce energy consumption through ambitious energy efficiency measures. The aim is to inform and stimulate data centre operators and owners to reduce energy consumption in a cost-effective manner by improving the understanding of energy demand within the data centre, raising awareness, and recommending energy efficient best practice and targets.

In 2013, 48 new data centres joined the EU Code of Conduct as participants, totalling 222 since the start of the programme in 2008. In addition there are 205 “endorsers” in the programme. These are IT professionals who promote the use of the Data Centres Code of Conduct and assist the participants with the implementation.
List of winners:
    United Nations Support Base for the data centre in Valencia, Spain
    ONLINE SAS for the data centre located in Vitry-sur-Seine, France
    University of St. Andrews for the data centre Butts Wynd Data Centre in St. Andrews, United Kingdom
    T-Systems International GmbH, at corporate level, Germany
    Zen Internet for the date centre SP-ROCH DC1 in Rochdale, United Kingdom
    TISSAT, S.A. for the data centre Walhalla in Castellón, Spain

BadMax

  • Client Free adsl
  • Modérateur
  • *
  • Messages: 3 342
  • Malissard (26)
Data centres energy efficiency awards : cas Online
« Réponse #1 le: 04 juin 2014 à 20:50:31 »
Sauf que Google et Facebook n'héberge que leurs besoins propres. Donc ce n'est pas comparable.

Leon

  • Client SFR sur réseau Numericable
  • Modérateur
  • *
  • Messages: 4 000
Data centres energy efficiency awards : cas Online
« Réponse #2 le: 04 juin 2014 à 21:08:34 »
Sauf que Google et Facebook n'héberge que leurs besoins propres. Donc ce n'est pas comparable.
Peux-tu expliquer un peu plus, stp? Dans les 2 cas, c'est un bâtiment qui héberge des serveurs, c'est à dire des machines qui transforment l'électricité en chaleur. Dans les 2 cas, ils utilisent des allées confinées, etc... Je ne vois pas de raison valable pour qu'un datacenter comme Online dépense 3 à 4 fois plus d'énergie inutilement qu'un datacenter Facebook. Un facteur 3 ou 4, c'est énorme.

Leon.

BadMax

  • Client Free adsl
  • Modérateur
  • *
  • Messages: 3 342
  • Malissard (26)
Data centres energy efficiency awards : cas Online
« Réponse #3 le: 04 juin 2014 à 21:15:59 »
Les serveurs de Google et Facebook sont fait sur mesure et sont probablement sans comparaison possible du point de vue énergétique avec un serveur classique. Par exemple, Google intégrait une batterie 12V directement dans ses serveurs pour éviter d'avoir un onduleur. Le serveur était directement alimenté en DC 12V. Le CPU était juste dimensionné et la mémoire au poil.

Dans un datacentre classique, tu loues des M2 et tu ne maitrises pas la configuration. Pire il y a meme des matériels qui ne ventilent pas dans le bon sens ! Exemple: Un Nexus 7009 ventile en arrière et sur les cotés. 2kW/h !

ldrevon

  • AS43142 Officiel Adeli
  • Expert
  • *
  • Messages: 609
Data centres energy efficiency awards : cas Online
« Réponse #4 le: 04 juin 2014 à 21:18:49 »
Mince à Maxnod on a un PUE à 1.33 (en comprenant les équipes IT et les bureaux annexes...)
J'aurai du postuler :)

Pour ceux qui tombe en dessous des 1.3, et bien soit ce n'est pas ondulé (en online) soit ils refroidissent avec l'eau courante, ce qui est pas compatible avec le calcul d'efficacité énergétique car tronqué par un autre facteur de refroidissement. (qui se perd dans la nature...)

buddy

  • Client Bbox fibre FTTH
  • *
  • Messages: 8 363
  • Mougins (06)
Data centres energy efficiency awards : cas Online
« Réponse #5 le: 04 juin 2014 à 21:23:51 »
il y a aussi OVH qui a de bon PUE grâce au water cooling et leur aération naturelle (si il l'utilise toujours ) non ?

Leon

  • Client SFR sur réseau Numericable
  • Modérateur
  • *
  • Messages: 4 000
Data centres energy efficiency awards : cas Online
« Réponse #6 le: 04 juin 2014 à 21:24:58 »
Les serveurs de Google et Facebook sont fait sur mesure et sont probablement sans comparaison possible du point de vue énergétique avec un serveur classique. [...] Le CPU était juste dimensionné et la mémoire au poil.
Encore une fois, ça n'a rien à voir avec le PUE. Le PUE mesure la consommation totale divisée par la consommation de la "charge IT" donc des serveur. Donc si les serveurs sont mal dimensionnés et énergivores, ça n'influencera pas le calcul du PUE. D'un point de vue énergétique et calcul du PUE, un serveur transforme juste juste l'électricité en chaleur, quelle que soit la RAM ou le CPU utilisé. Le PUE mesure uniquement la performance du bâtiment, des infrastructures, de la clim, de la chaine d'alimentation, et de l'urbanisation du datacenter.

Leon.

BadMax

  • Client Free adsl
  • Modérateur
  • *
  • Messages: 3 342
  • Malissard (26)
Data centres energy efficiency awards : cas Online
« Réponse #7 le: 04 juin 2014 à 21:48:03 »
Ben si :)

Pour maintenir une température ambiante adéquat avec des serveurs "sur-mesure", c'est très facile.

Avec des serveurs "classiques" et de configuration non-homogène, tu vas avoir des points chauds à gérer et tu vas devoir refroidir plus que nécessaire pour maintenir la bonne température en ambiance.

Exemple simple:
Cas 1 ! mets un Cisco Nexus 7009 dans un rack APC. Premier problème : tu vas mettre le cablage coté allée chaude (au "cul" des serveurs) et du coup la ventilation des alimentations va se faire vers l'allée froide. Deuxième problème : le chassis ventile par les cotés. Si tu ne mets rien, le chassis sera à 35°C de température interne pour 21°C de température en allée froide. Donc tu mets des ventilateurs spécifiques -> tu vas consommer plus !

Cas 2 : tu mets ce chassis dans un rack ouvert, c'est-à-dire sans porte ni panneau sur les cotés, pas d'allée chaude ou froide. Le chassis sera à peine à température ambiante. Tu peux meme te permettre de faire remonter l'ambiance à 25°C.

Cas 3 : le rack est complètement fermé avec des portes opaques. Tu souffles l'air froid en faux-plancher et tu le fais rentrer directement dans le rack via une dalle percée. En haut, soit tu laisses ouvert soit tu mets un bloc de ventilateurs (superflu en fait). Ton chassis sera à température de l'air soufflé par la clim -> tu peux encore faire baisser la puissance appelée par la clim. L'ambiance pourrait etre à 28° ou plus, on s'en tape, on peut directement asservir la clim à la température interne du chassis...

Bref, entre du sur-mesure et du générique, il y a pas mal de petites choses qui influencent le PUE.


vivien

  • Administrateur
  • *
  • Messages: 27 827
    • Twitter LaFibre.info
Data centres energy efficiency awards : cas Online
« Réponse #8 le: 04 juin 2014 à 22:25:18 »
OVH doit avoir un PUE très faible, mais c'est difficilement comparable à ce que propose un datacenter classique en terme de prestation.

Un datacenter qui ne propose que de l’alimentation 48v continue et qui n'a aucun système de refroidissement actif (uniquement la convection naturelle), est-il possible de dire qu'il a un PUE de 1,0 ?

buddy

  • Client Bbox fibre FTTH
  • *
  • Messages: 8 363
  • Mougins (06)
Data centres energy efficiency awards : cas Online
« Réponse #9 le: 04 juin 2014 à 22:33:31 »
Salut,

je dirais que non, puisqu'il y a surement des petites pertes entre le 20Kv et le 48v non ?
Puis il y a forcèment des systèmes de monitoring qui tire du courant non ?

il me semble avoir lu quelque part qu'OVH était en moyenne à 1.07-1.08 (je ne garantis pas ce chiffre exactement) mais c'est déjà excellent.

Je pense qu'il sera difficile de descendre en dessous de 1.03 .. (pour les raisons ci-dessus)

Après, la majorité des DC ne sont pas ouvert à la location de baies ou alors c'est infime .. du coup, pas si éloigné que çà d'ovh..

BadMax

  • Client Free adsl
  • Modérateur
  • *
  • Messages: 3 342
  • Malissard (26)
Data centres energy efficiency awards : cas Online
« Réponse #10 le: 04 juin 2014 à 22:49:48 »
Et n'oubliez pas que Google compte l'ensemble de la chaine, y compris la production et le transport de l'électricité.

A partir du moment qu'on gère ses propres serveurs eux-meme fait sur mesure et répondant à un cahier des charges précis en terme d'alimentation, de dissipation thermique et de rendement énergétique, on peut en effet descendre très bas comme Google ou OVH.

ldrevon

  • AS43142 Officiel Adeli
  • Expert
  • *
  • Messages: 609
Data centres energy efficiency awards : cas Online
« Réponse #11 le: 05 juin 2014 à 09:44:33 »
A partir du moment qu'on gère ses propres serveurs eux-meme fait sur mesure et répondant à un cahier des charges précis en terme d'alimentation, de dissipation thermique et de rendement énergétique, on peut en effet descendre très bas comme Google ou OVH.

Oui mais cela sort du DC normal ou les clients rack des serveurs à un format standard! (le coût n'a rien avoir entre une carte mère de serveur rackable et une carte mère de pc de bureau en version économique...)
De même installer du watercooling dans une salle c'est un risque à prendre qui n'est pas compatible avec une responsabilité client, combien y a t-il eu de fuite chez OVH par exemple???
Bon dans les faits on s'en moque le support d'OVH étant tellement mauvais que de toute façon vous avez plus vite fait de changer de plan que de les appeler et puis si c'est une fuite sur une carte mère de pc de bureau au lieu d'un serveur le coût reste inférieur à 40€.
Tout est question de priorité, statistique de perte, pas de qualité!

Tout ce beau discours  pour amener un service sans faille aux clients et qui pour le coup on est obligé de doubler l'architecture pour qu'on atteigne une disponibilité de  100%!
Je propose qu'on établisse un PUEQS  qui prenne en compte  alors aussi la qualité de service : donc 2 DC pour avoir 100% de service rendu ou aussi 2 serveurs ou aussi 2 disques dur au lieu d'un !?



 

Mobile View