Auteur Sujet: Data centres energy efficiency awards : cas Online  (Lu 7395 fois)

0 Membres et 1 Invité sur ce sujet

ldrevon

  • AS43142 Officiel Adeli
  • Expert
  • *
  • Messages: 642
Data centres energy efficiency awards : cas Online
« Réponse #12 le: 05 juin 2014 à 11:58:09 »
il me semble avoir lu quelque part qu'OVH était en moyenne à 1.07-1.08 (je ne garantis pas ce chiffre exactement) mais c'est déjà excellent.

Oui quid des pertes dans les alimentations à découpage???
Les meilleurs sont à 90% (mais ce sont les plus chères), par conséquent on ne les retrouvera jamais chez les hébergeur à bas coût.
A  ce jour vu de mon coté datacenter avec équipement rackable, je peux vous dire que coté consommation électrique, il vaut mieux avoir du blade (HP?) que du serveur indépendant.
La consommation générale n'a que très peu de relation entre activité rendue et pic de consommation . Je sais c'est triste mais c'est que j'observe!

« Modifié: 05 juin 2014 à 12:19:37 par ldrevon »

vivien

  • Administrateur
  • *
  • Messages: 47 169
    • Twitter LaFibre.info
Data centres energy efficiency awards : cas Online
« Réponse #13 le: 05 juin 2014 à 12:15:29 »
Les nouvelles salles d'OVH et les nouveaux serveurs (hors haut de gamme) sont maintenant à alimentation continue (19v) chez OVH. Le PUE espéré est de 1.06 ou 1.07 :



C'est expliqué dans le très bon post de Leon : Courant continu dans les datacenters
OVH se lance donc dans les baies alimentées en courant continu.

On apprend que:
* les serveurs sont alimentés en 19V. En fait, des cartes mères avec alim en 19V, ça existe. Les alimentations ATX acceptant le 19V aussi.
* Il y a 3 batteries par chaines : 3 batteries au plomb de 6V montés en série. On voit 2 séries de 3 batteries. Je ne sais pas si c'est pour la redondance.
* les redresseurs (boitiers noirs avec ventilateur et poignée) sont redondants en N+1 : 3 redresseurs là où 2 suffiraient.
* le chassis du "PDU" (power distribution unit) est fait maison.
* les connecteurs sont semblable à ceux qu'on trouve au cul d'un PC portable (=bof). C'est le standard des alims 19V, mais c'est adapté à des contraintes très différentes de l'industrie : c'est prévu pour un grand nombre de connexion/déconnexion, et il n'y a pas de verrou. Des connecteurs industriels auraient sans doute été plus adaptés.



En fait, ça ressemble aux montages de facebook ou Google. Le principe est avant tout de placer les batteries au plus près des serveurs, au plus près de là où il y avait déjà du courant continu (=dans les serveurs). On supprime donc les onduleurs, qui sont des équipements chers et complexes. Surtout que chez OVH, les onduleurs étaient visiblement rarement redondants.

Mais ici, ça me semble quand même moins optimal que Google ou Facebook : le "PDU" est en 19V, et octave dit alimenter des serveurs de 300W. Ca fait donc ~15A à transporter. Même sur 1m, c'est un courant important, et il doit y avoir des pertes. Sans parler de l'échauffement des connecteurs et des câbles. Bref, le montage me surprend, mais ça a du être étudié.

La grosse différence avec Google et Facebook, c'est que de la "très basse tension" est gérée en continu sur ~1m, tout le temps. Chez Facebook, cette très basse tension sur plus d'1m n'est utilisée qu'en cas de coupure du courant alternatif. Un serveur Facebook a 2 alimentations : 240V alternatif en temps normal, et 48V continu de secours.

Leon.

ldrevon

  • AS43142 Officiel Adeli
  • Expert
  • *
  • Messages: 642
Data centres energy efficiency awards : cas Online
« Réponse #14 le: 05 juin 2014 à 12:27:26 »
Bon sans être désagréable des pertes de 1% sur des convertisseurs de tension il faut qu'il la brevette son invention!
Ps: le 19V : c'est le coté alimentation des portables donc pas très cher et ceci pour alimenter des cartes mères pas au format ATX, mais comme nos boitiers TV en format nanoPC . http://www.foxconnchannel.com/ProductDetail.aspx?T=NanoPC&U=en-us0000002

abermingham

  • AS12876 Officiel Scaleway
  • Expert
  • *
  • Messages: 112
  • Paris (75)
Data centres energy efficiency awards : cas Online
« Réponse #15 le: 01 août 2014 à 20:48:52 »
Quelques commentaires sur le post initial de Léon,
En tant que signataire, comme 240 autres acteurs, de l'European Code of Conduct For Datacenter, nous transmettons tous les mois à l'union européenne nos différents indicateurs énergétiques (électricité, combustibles, consommation d'eau etc...)
L'union européenne utilise ces données pour établir des chartes de bonne conduite et réaliser des statistiques à grande échelle sur les datacenters, libre aux acteurs de mettre en oeuvre ces recommandations. En fonction des performances, de la mise en oeuvre des recommandations et de l'architecture globalement utilisée, l'union européenne décerne de temps en temps des prix, en toute indépendance et avec de très nombreux critères.

Il est par exemple très facile d'avoir un PUE plus bas en utilisant des tours de refroidissement ou du refroidissement adiabatique comme le font Google et Facebook par exemple (https://fr.wikipedia.org/wiki/Tour_a%C3%A9ror%C3%A9frig%C3%A9rante).
En contre partie de diffuser massivement de la Légionellose dans l'air et en utilisant au minimum 1 litre d'eau potable par kWh refroidis, tu auras une température de condensation dans les groupes froid très bas, donc un PUE très bas. Mais à quel prix pour l'environnement ? Pour le sacro-saint PUE ?

Enfin concernant la remarque sur notre transparence sur pue.online.net, tu remarqueras que lorsque nous sommes en freecooling à 100% (vers 10-11°C extérieurs), l'impact sur le PUE est inférieur à 0.2 voir 0.1 points, donc minime.
Il existe une vieille légende qui dit que "sans clim, tu as un PUE proche de 1". En pratique comme tu peux constater qu'entre le marketing des chiffres bidonnés et la réalité, il y a juste un fossé :D


Leon

  • Client SFR sur réseau Numericable
  • Modérateur
  • *
  • Messages: 5 982
Data centres energy efficiency awards : cas Online
« Réponse #16 le: 01 août 2014 à 21:12:02 »
Merci pour ta réponse, Arnaud.
Je suis d'accord avec toi, il n'y a pas que le PUE qui compte, à la fois pour l'impact environnemental, et pour la prestation globale : la fiabilité avant tout.

Leon.

Optrolight

  • Client Orange Fibre
  • Modérateur
  • *
  • Messages: 4 673
  • Grenoble (38) @Optrolight
    • Optroastro
Data centres energy efficiency awards : cas Online
« Réponse #17 le: 01 août 2014 à 22:59:51 »
Toujours intéressant d'avoir l'avis des concernés. On apprend plein de choses. Merci.