Auteur Sujet: DC2SCALE - Présentation du projet  (Lu 17152 fois)

0 Membres et 1 Invité sur ce sujet

oliviermis

  • Officiel dc2scale + AS49434 Harmony Hosting
  • Expert
  • *
  • Messages: 82
  • Vélizy (78) et Brest (29)
DC2SCALE - Présentation du projet
« le: 17 janvier 2021 à 01:48:11 »
Bonjour à tous,

Certains ont peut être pu le voir sur Twitter ou le suivre à travers nos diverses communications, j'ai quitté PulseHeberg pour fonder une société spécialisée dans l'exploitation de Datacenters (notamment en Ile de France, mais partout ailleurs) avec Gautier MARSOT (associé et co-fondateur également de DC2SCALE).
Très modestement, le modèle est fondamentalement différent des Datacenters existants : la conception est volontairement plus "simple" mais correspond à de vrais besoins (en témoigne le remplissage à 100% de la tranche 1).

Notre clientèle est diverse : hébergeurs, société de services en informatique, calcul, ...

Nos maitres mots sont la flexibilité (notamment, la possibilité d'avoir plusieurs niveaux de redondance pour correspondre à chaque application au sein d'un même datacenter mais aussi de bénéficier de véritables techniciens "administrateur systèmes et réseaux" dont le métier est réellement de gérer des serveurs, notamment pour des clients internationaux qui ont des infrastructures en France mais qui ne viennent que très peu), la résilience (bien que la conception se veuille simpliste "by design", elle se veut à un niveau de résilience adapté aux besoins de chaque client), et le côté "cost efficient" : nous souhaitons proposer des offres agressives en éliminant des coûts à chaque étape (notamment par le réemploi de matériels de seconde main).

DC2SCALE exploite deux salles informatiques : un en propre à Vélizy, et pour des besoins de PRA, nous disposons d'une salle dans un second site (historique) chez Défense Datacenter à Nanterre.
Plusieurs projets sont en cours (Datacenter de taille plus importante dans le sud de Paris et Datacenters régionaux, notamment à Marseille) que nous aurons l'occasion d'évoquer plus tard.

Le site de DC2SCALE Vélizy est voisin (c'est le même bâtiment) du site Cogent de Vélizy. Les travaux ont commencé en janvier 2020 et se sont terminés en juillet 2020.

Quelques points clés pour le datacenter de Vélizy :
  • 300m2 de surface totale (réellement 160m2 de salle informatique)
  • 60 baies 600x1070 (APC)
  • 240kVA de puissance électrique totale (environ 160kW IT)
  • 1 arrivée EDF, secourue par un générateur (adjonction d'un second prévue Q1 2021)
  • 1 seule voie ondulée (1x onduleur line-interactive VERTIV)
  • Distribution électrique modulaire
  • 2 armoires de soufflage (chacune disposant de deux compresseurs)
Nous allons ajouter 2 armoires de soufflage courant Q1 2021 ainsi que du refroidissement adiabatique
  • PUE "classique" à 1.5 (bientôt amélioré)

Plusieurs opérateurs sont disponibles : https://dc2scale.fr/connectivite
Appliwave, Cogent, IELO, RATP Connect et Sipartech
Côté connectivité, au sein du groupe, FBW Networks (AS49434) dont nous aurons l'occasion de revenir plus tard propose aussi de la connectivité et dispose de 400Gbps sur le site de Vélizy (et quasiment 1Tbps de capacité globale de transit IP !). Cet opérateur intra-groupe ne bénéficie pas de conditions préférentielles, mais permet de toucher une clientèle qui ne veut pas de "datacenter nu".

Sur chaque site, l'écosystème se veut favorable aux acteurs présents et compte se présenter comme une place de marché commune : les cross-connects se font sans récurrent (one-shot à 250€) et les pénétrations de câbles sont possibles (là encore, sans récurrent).

Ce site étant au maximum de sa capacité en tranche 1 (50kW IT), nous avons démarré les travaux d'upgrades et d'extension (la tranche 1 ne comprenait que 28 baies disponibles et nous comptons monter à 60 baies).

Nous travaillons d'ores et déjà sur un second site, de taille bien plus importante, qui permettra de "voir venir" dans le futur, par une conception fondamentalement modulaire (et dont les travaux devraient démarrer bientôt).
Ce site permettra aussi d'adresser des besoins de redondance plus importants, grâce à l'adjonction d'une seconde chaine d'onduleurs (de moindre capacité) qui permettrait de vendre un équivalent Tier 3.

  • 1500m2 (situé dans le sud de Paris)
  • 350 baies disponibles
  • 3,3MW d'input EDF (double adduction en coupure d'artère)
  • 2 générateurs (1x 2200kVA + 1x 800kVA)
  • 3 transformateurs 1250kVA (chaîne A) + 1 transformateur 800kVA (chaîne B)
  • Deux voies ondulées : 1x voie de 1200kVA (chaîne A) + 1x voie de 400kVA (chaîne B)
  • Refroidissement eau glacée (salles serveurs), détente directe (locaux onduleurs et salles serveurs en 2N) et adiabatique (solution EcoCooling)
« Modifié: 17 janvier 2021 à 11:29:53 par oliviermis »

oliviermis

  • Officiel dc2scale + AS49434 Harmony Hosting
  • Expert
  • *
  • Messages: 82
  • Vélizy (78) et Brest (29)
DC2SCALE - Présentation du projet
« Réponse #1 le: 17 janvier 2021 à 01:51:50 »
C'est le début de la construction du site de Vélizy ! Nous recevons deux armoires de climatisation début février 2020, avant le confinement (et le début du Covid). Elles permettront d'apporter fiabilité (essentiel pour l'image de DC2SCALE) et redondance (grâce à leurs deux circuits par armoire de soufflage, voir plus bas).
« Modifié: 17 janvier 2021 à 02:35:08 par oliviermis »

oliviermis

  • Officiel dc2scale + AS49434 Harmony Hosting
  • Expert
  • *
  • Messages: 82
  • Vélizy (78) et Brest (29)
DC2SCALE - Présentation du projet
« Réponse #2 le: 17 janvier 2021 à 01:58:10 »
L'installation électrique est composée de deux TGBT, adductés depuis une seule voie EDF. Chaque TGBT reçoit son inverseur de source (Schneider UA) commandant des disjoncteurs motorisés (des MT630) en cas de coupure de courant.

Chaque TGBT est adducté depuis son propre générateur (le second générateur sera installé dans la tranche 2 du site Q1 2021).

L'architecture est simple :
Le TGBT1 adducte l'onduleur, qui adducte le PDPM B (voie ondulée),
Le TGBT2 adducte le PDPM A (voie non ondulée) en direct,

Chaque armoire de soufflage (climatisation) est adductée depuis les deux TGBT et dispose d'un inverseur de source manuel.
« Modifié: 17 janvier 2021 à 02:33:11 par oliviermis »

oliviermis

  • Officiel dc2scale + AS49434 Harmony Hosting
  • Expert
  • *
  • Messages: 82
  • Vélizy (78) et Brest (29)
DC2SCALE - Présentation du projet
« Réponse #3 le: 17 janvier 2021 à 01:59:04 »
Installation de la chaîne ondulée à base d'onduleur VERTIV line-interactive 120kVA (Chloride).

Ces onduleurs "line-interactive" ne protègent qu'en cas de défaillance du réseau, et permettent là encore une économie substantielle.
Il n'y a pas deux chaines ondulées chez DC2SCALE. Seulement une chaine ondulée est présente, et nous laissons le choix à nos clients (notamment pour des besoins spécifiques telles que des baies OCP qui disposent de batteries intégrées) de disposer d'une voie non ondulée (mais toujours secourue par générateur).

Sur de futurs sites, nous proposerons deux chaines ondulées en option.
Ceci correspondra à des standards "Tier3" voir Tier4 (2x transformateurs, 2x générateurs, 2x TGBT, 2x onduleurs, cooling en 2N grâce à de la détente directe en complément de l'eau glacée, moins coûteux qu'installer une seconde chaine "eau glacée" en parallèle) mais le besoin actuel n'est pas là pour ce premier site orienté calcul et hébergement non critique : notre clientèle n'est pas celle d'un datacenter "classique" (clientèle bancaire, ...).

Quoi qu'il en soit, le site n'est pas en reste en terme de redondance d'énergie, il est simplement moins classieux "by design" qu'un Datacenter de certains gros. Il bénéficie d'un réseau de qualité (en Ile de France, les coupures sont rares), d'une redondance par 1x générateur ; un second générateur sera ajouté Q1 2021 (24h d'autonomie sans refuel), ainsi qu'une prise pour un GE mobile est dispo. Le site restera disponible pendant 30 à 40 min sur onduleur (il y a plus de 80 batteries). La voie non ondulée permet de faire une maintenance complète sur l'onduleur sans coupure (il n'y a pas de système de Super By Pass sur ce site).
« Modifié: 17 janvier 2021 à 02:29:20 par oliviermis »

oliviermis

  • Officiel dc2scale + AS49434 Harmony Hosting
  • Expert
  • *
  • Messages: 82
  • Vélizy (78) et Brest (29)
DC2SCALE - Présentation du projet
« Réponse #4 le: 17 janvier 2021 à 02:00:46 »
Travaux d'installation des deux armoires de soufflage détente directe, pose d'une mini dalle béton, ...
Chaque armoire dispose de deux circuits indépendants, et de deux condenseurs. Ces CRACS unit sont particulièrement développé à notre développement modulable car elles sont déjà en N+1 au sein d'elles même, et donc évitent une architecture coûteuse.

Ces armoires ne permettent pas un PUE "extraordinaire" : le PUE global du datacenter est de 1.5. Cependant, ce sont des armoires particulièrement robustes et fiables.

DC2SCALE étudie par ailleurs un refroidissement adiabatique par le biais de refroidisseurs "BioCool" qui seront installés pour l'extension du site (28 baies supplémentaires). Ces baies seront notamment utilisées dans un premier temps pour des besoins internes "non critiques" pour valider leur bon fonctionnement.

oliviermis

  • Officiel dc2scale + AS49434 Harmony Hosting
  • Expert
  • *
  • Messages: 82
  • Vélizy (78) et Brest (29)
DC2SCALE - Présentation du projet
« Réponse #5 le: 17 janvier 2021 à 02:09:14 »
On est très très "APC friendly" chez DC2SCALE. La distribution électrique se fait par des PDPM (sortes d'armoires électriques modulaires, où on installe des modules avec 3 départs 16 ou 32A) qui adductent chaque baie, ce qui nous permet de reporter les graphes de consommation sur l'espace client (oui, bon effectivement, il n'est pas encore fini, chut !).

Rien ne passe par le faux plancher chez DC2SCALE pour améliorer le flux d'air, toute la distribution électrique se fait en aérien, en séparant courant fort et courant faible.

Les baies sont toutes des baies APC au format 600x1070mm (42U), avec au choix code ou badge, aménagées en couloir froid confiné. 32A triphasé également possible.
Sur les futurs datacenters, on évoluera certainement en proposant plus de baies 750x1070 ainsi que des baies 52U.

Chaque baie est livrée depuis deux PDPM : une voie ondulée, et une voie non ondulée. En option, nous mettons à disposition des PDU monitorables (ou switchables), ainsi que des "ATS" (automatic transfer switch) pour les équipements non double alimentés. La perte d'une voie est un élément d'exploitation "normal" et nous encourageons les clients à double alimenter chaque équipement.


oliviermis

  • Officiel dc2scale + AS49434 Harmony Hosting
  • Expert
  • *
  • Messages: 82
  • Vélizy (78) et Brest (29)
DC2SCALE - Présentation du projet
« Réponse #6 le: 17 janvier 2021 à 02:12:04 »
Pour accompagner les premiers mois d'exploitation du site (notamment à cause des délais fournisseurs liés au Covid), nous avons récupéré un petit groupe électrogène de petite taille (96kW). Opération de déchargement improvisée (merci Loxam situé à moins de 200m !).

oliviermis

  • Officiel dc2scale + AS49434 Harmony Hosting
  • Expert
  • *
  • Messages: 82
  • Vélizy (78) et Brest (29)
DC2SCALE - Présentation du projet
« Réponse #7 le: 17 janvier 2021 à 02:13:39 »
Quelques photos bonus :

L'ASR9010 (qui dispose de deux cartes 2x100G désormais) qui constitue le routeur d'edge du datacenter Vélizy (c'est le routeur d'AS49434, rien à voir avec DC2SCALE) mais c'est un beau jouet quand même !


oliviermis

  • Officiel dc2scale + AS49434 Harmony Hosting
  • Expert
  • *
  • Messages: 82
  • Vélizy (78) et Brest (29)
DC2SCALE - Présentation du projet
« Réponse #8 le: 17 janvier 2021 à 02:15:24 »
Par ailleurs, DC2SCALE occupe 200m2 de bureaux au dessus du Datacenter et constitue une équipe d'une dizaine de personnes dont 3 alternants, qui travaillent sur les différents projets du groupe.

Ces bureaux ont été totalement réaménagés en même temps que le datacenter.

Leon

  • Client SFR sur réseau Numericable
  • Modérateur
  • *
  • Messages: 6 240
DC2SCALE - Présentation du projet
« Réponse #9 le: 17 janvier 2021 à 08:56:27 »
Salut. Beau projet, sincèrement.
Et vu les retours positifs que l'on peut lire, la qualité du premier datacenter semble être au rendez-vous. Bravo!
Et merci de partager ça ouvertement, c'est vraiment sympa. J'adore les petites entreprises à taille humaine qui font ce genre de choses.

3 questions et remarques chiantes, désolé, mais ce sont des questions réelles et sincères.

1) le nom "D2Scale". On parle de scalabilité donc. J'aurais bien vu un très gros opérateur de datacenter porter ce nom, avec plusieurs datacenters géants, offrant tout type d'espaces (de 1u à des salles entières). Un datacenter qui accompagne un client dans la croissance de ses projets, en commençant petit et s'adaptant à une croissance exponentielle. Mais je trouve ce nom très étrange pour un mini datacenter de 60 baies seulement. Ou alors j'ai pas compris le nom...

2) Si je comprends bien votre coeur de métier c'est à la fois fournir de l'espace en datacenter, mais surtout beaucoup de flexibilité (puissance par baie, redondance), de personnalisation et des "remote hands" très expérimentées, le tout à un bon rapport qualité-prix. Ne peux-tu pas proposer la même chose en sous-louant de l'espace en datacenter (acheter une cage de ~50 baies et sous louer à la baie), avec les mêmes remote-hands expériementées? Comme le font beaucoup d'autres. Quelle est la différence fondamentale entre les 2 approches qui vous a fait choisir cette voie (la plus difficile)? Surtout que pour le rapport qualité-prix, on a l'habitude de dire que la taille compte, et qu'on fait des économies d’échelle avec de gros datacenter par rapport à des petits.
Aux USA, ils font aussi des datacenter "multi tenant", où plusieurs acteurs partagent une partie de l'infrastructure commune, partagent les investissements, mais qui permettent de la personnalisation sur des salles entières (niveau de redondance des onduleurs par ex, ou densité de puissance des baie). Je ne sais pas si ça se fait en France. Mais ça pourrait être un modèle encore plus économique pour des acteurs comme vous : acheter 1/4 d'un datacenter et personnaliser votre partie à volonté et apporter des solutions innovantes.

3) refroidissement adiabatique
J'ai pas compris. Pour le 1ier datacenter, je suppose que c'est de l'adiabatique indirect? Qui refroidissent, à l'extérieur du bâtiment, de l'eau à destination des groupes de climatisation? Parce que faire cohabiter dans la même pièce, avec le même air, refroidissement par clim et refroidissement adiabatique direct, j'ai compris que c'était impossible : la clim force inutilement (et perd de l'énergie) pour déshumidifier l'air humide apporté par le refroidissement adiabatique direct.

Pour finir, une remarque: votre site est rempli (comme beaucoup d'autres) d'images à la con de datacenters fictifs, de salles de 1000m², etc... Pour moi, ça n'est pas vendeur. Si vous êtes fiers de vos infrastructure, montrez-les sur le site! Ca sera beaucoup moins impersonnel que ces images à la con, qui font inutilement prétentieuses. C'est le même type d'erreur de communication "prétentieuse" que tu faisais chez PulseHeberg.

Leon.
« Modifié: 17 janvier 2021 à 09:28:37 par Leon »

oliviermis

  • Officiel dc2scale + AS49434 Harmony Hosting
  • Expert
  • *
  • Messages: 82
  • Vélizy (78) et Brest (29)
DC2SCALE - Présentation du projet
« Réponse #10 le: 17 janvier 2021 à 11:39:59 »
Salut Léon,

Salut. Beau projet, sincèrement.
Et vu les retours positifs que l'on peut lire, la qualité du premier datacenter semble être au rendez-vous. Bravo!
Et merci de partager ça ouvertement, c'est vraiment sympa. J'adore les petites entreprises à taille humaine qui font ce genre de choses.

Merci pour ces encouragements!

Citer
3 questions et remarques chiantes, désolé, mais ce sont des questions réelles et sincères.
Pas de soucis !

Citer
1) le nom "D2Scale". On parle de scalabilité donc. J'aurais bien vu un très gros opérateur de datacenter porter ce nom, avec plusieurs datacenters géants, offrant tout type d'espaces (de 1u à des salles entières). Un datacenter qui accompagne un client dans la croissance de ses projets, en commençant petit et s'adaptant à une croissance exponentielle. Mais je trouve ce nom très étrange pour un mini datacenter de 60 baies seulement. Ou alors j'ai pas compris le nom...
Effectivement, le "sens du vent" est surtout de pouvoir accompagner un client qui prends aujourd'hui une baie, mais peut être demain une, plusieurs... voir une cage privative. C'est bien le sens du second datacenter (3.5MW, 350 baies et plusieurs cages privatives) qui sera bientôt dévoilé, mais quand on parle de "scalabilité", on parle d'accompagner nos clients de 1U à quelques baies. Probablement, d'ici à ce que le second datacenter sorte de terre, nos clients auront bien évolué (c'est tout le mal qu'on leur souhaite) et il y aura de vrais besoins pour une cage privée, etc.

Citer
2) Si je comprends bien votre coeur de métier c'est à la fois fournir de l'espace en datacenter, mais surtout beaucoup de flexibilité (puissance par baie, redondance), de personnalisation et des "remote hands" très expérimentées, le tout à un bon rapport qualité-prix. Ne peux-tu pas proposer la même chose en sous-louant de l'espace en datacenter (acheter une cage de ~50 baies et sous louer à la baie), avec les mêmes remote-hands expériementées? Comme le font beaucoup d'autres. Quelle est la différence fondamentale entre les 2 approches qui vous a fait choisir cette voie (la plus difficile)? Surtout que pour le rapport qualité-prix, on a l'habitude de dire que la taille compte, et qu'on fait des économies d’échelle avec de gros datacenter par rapport à des petits.
Aux USA, ils font aussi des datacenter "multi tenant", où plusieurs acteurs partagent une partie de l'infrastructure commune, partagent les investissements, mais qui permettent de la personnalisation sur des salles entières (niveau de redondance des onduleurs par ex, ou densité de puissance des baie). Je ne sais pas si ça se fait en France. Mais ça pourrait être un modèle encore plus économique pour des acteurs comme vous : acheter 1/4 d'un datacenter et personnaliser votre partie à volonté et apporter des solutions innovantes.
Ca aurait pu totalement être "le sens" de l'histoire, oui ! Ce qui nous intéresse à travers le projet, c'est aussi toute la partie technique/ingénierie. Sans cette partie, nous n'aurions probablement pas fait le projet. Economiquement parlant, ça se discute mais ce projet est globalement sans prétention : les investissement sont contenus, la taille est raisonnable, tout est modulaire => on a fait en sorte que ce premier pas dans le monde du Datacenter soit à moindre impact pour le reste de nos activités. Je ne parle évidemment pas beaucoup des sujets financiers par ici, mais nous avons déjà largement franchi le seuil de rentabilité pour ce premier site sur lequel nous avons 100% le contrôle et nous ne dépendons pas d'acteurs extérieurs.

Citer
3) refroidissement adiabatique
J'ai pas compris. Pour le 1ier datacenter, je suppose que c'est de l'adiabatique indirect? Qui refroidissent, à l'extérieur du bâtiment, de l'eau à destination des groupes de climatisation? Parce que faire cohabiter dans la même pièce, avec le même air, refroidissement par clim et refroidissement adiabatique direct, j'ai compris que c'était impossible : la clim force inutilement (et perd de l'énergie) pour déshumidifier l'air humide apporté par le refroidissement adiabatique direct.

C'est exact, je n'en ai pas trop parlé car je comptais en faire un sujet par ailleurs. Pour le premier datacenter, c'est de l'adiabatique direct, mais qui vient en remplacement total de la climatisation "classique" par détente directe. Pour l'instant, les deux parties du datacenter (zone 1 et zone 2) seront totalement séparées : l'une bénéficiera d'une climatisation "classique" en détente directe et la seconde en 100% adiabatique. Dans les deux cas, nous aurons un "secours" en détente directe. C'est très similaire à ce que font Netwise à Londres, par exemple.

Citer
Pour finir, une remarque: votre site est rempli (comme beaucoup d'autres) d'images à la con de datacenters fictifs, de salles de 1000m², etc... Pour moi, ça n'est pas vendeur. Si vous êtes fiers de vos infrastructure, montrez-les sur le site! Ca sera beaucoup moins impersonnel que ces images à la con, qui font inutilement prétentieuses. C'est le même type d'erreur de communication "prétentieuse" que tu faisais chez PulseHeberg.
Il y a beaucoup d'images "à la con", on est bien d'accord et de marketing encore plus à la con. On s'efforce de maintenir une ligne de communication "claire" et sincère en termes techniques mais les deux personnes qui s'occupent du marketing ont tendance à s'enflammer  ::)
Concernant ces images, je note le conseil et effectivement il fait partie de notre todo list. Le site a été majoritairement rempli en pré-vente : nous n'avions pas vocation à mettre des photos de datacenter en construction (jusqu'à il y a quelques mois, il n'y avait par exemple pas de toit sur le cube APC). C'était un peu loreum ipsum temporaire qui a fini par... durer  ;)

Olivier

vivien

  • Administrateur
  • *
  • Messages: 48 311
    • Twitter LaFibre.info
DC2SCALE - Présentation du projet
« Réponse #11 le: 17 janvier 2021 à 12:08:59 »
Je suis intéressé par le sujet adiabatique.

Un secours à l'adiabatique est en effet une bonne idée, car il y a certains cas où l'adiabatique peut ne pas fonctionner (incendie à proximité de l'entrée d'air).

Merci de continuer de nous tenir informé !