Aller, je continue avec des questions et étonnements:
* les filtres à air : ils sont lavés sur place? Il y a un truc pour les nettoyer en automatique? Ou alors c'est démonté, passé en machine à laver sur place, puis remonté à la main?
* les ventilateurs sont chelou : une grosse partie de la surface balayée est masquée par l'espèce de poutre qui maintient le moteur. J'imagine que ça doit faire perdre du rendement...
* Contrairement aux datacenters de Facebook, et à d'autres datacenters à freecooling ouvert, les "grilles d'aération" entre les allées de serveur (froides ou chaudes) et le système aéraulique sont toutes petites. Chez Facebook, c'est au contraire "tout ouvert". Je suppose que dans l'installation Online DC5, ça permet de réguler facilement le débit d'air, et d'avoir un débit d'air homogène dans toutes les allées de serveurs, avec une régulation de delta de pression. Mais l'inconvénient c'est que ça fait de la perte de charge aéraulique. Si le PUE est vraiment de 1.1, ça n'a pas l'air dramatique.
* Seul 1 étage sur 2 est équipé de serveurs. C'est très étonnant. Dans un aussi gros bâtiment, avec autant de hauteur sous plafond par étage, il était vraiment impossible d'optimiser l'espace? Du coup, le "datacenter hors normes" tel que nous le présentait Arnaud, il devient d'un seul coup plus petit. On aurait au maxi 14 000m² de surface informatique, c'est déjà pas mal, mais on n'est pas dans du "hors normes".
Mais on est très loin de la perte de volume intérieur de OVH Graveline, qui héberge ses serveurs de plein pied et gâche une hauteur sous plafond de plus de 10m. C'est incompréhensible pour moi ce qu'a fait OVH à Gravelines, c'est du gâchis.
* Est-ce qu'on sait si Online a réussi à signer un contrat de location avec un "gros fournisseur de cloud" qui serait hébergé sur place, comme Arnaud le laissait entendre il y a 1 an?
Leon.