La Fibre

Hébergeurs et opérateurs pro / entreprises => Hébergeurs et opérateurs pro / entreprises => Online Online / Scaleway => Discussion démarrée par: Leon le 27 mai 2014 à 22:35:29

Titre: Online : 24 serveurs dans 3u
Posté par: Leon le 27 mai 2014 à 22:35:29
Voici la nouvelle gamme de serveurs Online à 20€ HT. Avoton 8c8t ; RAM 8Go ECC ; SATA3 1To 7.2krpm.
https://www.online.net/fr/serveur-dedie/dedibox-xc (https://www.online.net/fr/serveur-dedie/dedibox-xc)
Mais surtout, on arrive à 24 serveurs dans un chassis de 3u. Ca fait une densité assez délirante! 8 serveur par 1u!
Il y a 2 serveurs par carte, 12 carte dans un chassis.

Ce sont des chassis Supermicro Microcloud : http://www.supermicro.nl/products/nfo/MicroCloud.cfm (http://www.supermicro.nl/products/nfo/MicroCloud.cfm)
https://twitter.com/online_fr/status/471321318932353024/photo/2 (https://twitter.com/online_fr/status/471321318932353024/photo/2)

Je suis surpris de voir des baies sans caches contre le reflux d'air. Ils ne sont sans doute pas en allées cloisonnées, mais quand même. Du coup, c'est peut-être d'anciennes salles de DC1 (Bezons) ou DC2 (Vitry).

Leon.
Titre: 24 serveurs dans 3u
Posté par: butler_fr le 27 mai 2014 à 23:30:39
la densité de taré ....

niveau perf ça donne quoi ces petites machines?
Titre: 24 serveurs dans 3u
Posté par: BadMax le 28 mai 2014 à 13:30:50

Je suis surpris de voir des baies sans caches contre le reflux d'air. Ils ne sont sans doute pas en allées cloisonnées, mais quand même. Du coup, c'est peut-être d'anciennes salles de DC1 (Bezons) ou DC2 (Vitry).

Leon.

Sur le lien que tu donnes c'est marqué DC3. Le reflux d'air n'est pas un phénomène très très important, à voir selon la température en ambiance et le système de clim' (IN-Row ou par faux-plancher).



Titre: 24 serveurs dans 3u
Posté par: Leon le 28 mai 2014 à 14:03:17
OK,
Mais je croyais que DC3 était intégralement en allées (frioides) cloisonnées. Et clairement, ici ça n'est pas le cas, ce sont des allées ouvertes; je me demande bien pourquoi, vu que c'est censé être moins performant d'un point de vue énergétique (rendement de la clim).
Titre: 24 serveurs dans 3u
Posté par: BadMax le 28 mai 2014 à 19:26:21
Ou alors les caches ne sont que du coté allée froide. Ca éviterait que de l'air chaud stagne dans les baies.
Titre: 24 serveurs dans 3u
Posté par: vivien le 28 mai 2014 à 19:31:28
Dans les exemples que j'ai vu, les caches sont toujours coté allé froide, le devant des serveurs, pour une simple raison, il est difficile de mettre des caches a l’arrière vu que les équipements ne sont alignés que en façade.

Là, la photo montre l’allée froide (a moins que le serveur rejette l'air chaud en façade, ce qui semble assez peu réaliste)
Titre: 24 serveurs dans 3u
Posté par: BadMax le 28 mai 2014 à 19:34:50
Ah bon ? J'aurai dit le contraire ! Je cable toujours coté allée chaude :)

Où est le cul-cul ? Où est la te-tete ?
Titre: 24 serveurs dans 3u
Posté par: vivien le 28 mai 2014 à 19:47:10
Les vis sont visibles, c'est ça qui me fait dire que c'est la face avant qui est visible et donc qu'on est coté allé froide.

Les connecteurs d'alim et réseau sont effectivement en face avant du serveur ce qui est rare sur des serveurs mais habituel sur des routeurs.
Titre: 24 serveurs dans 3u
Posté par: Leon le 28 mai 2014 à 19:56:49
Ne vous battez pas, de toutes façon il n'y a pas de cache non plus sur la face arrière (allée chaude). Voir la photo ci dessous, ce sont bien les mêmes serveurs.

Je confirme qu'on met tout le temps les cache côté allée froide, là où l'air est aspiré, car tous les équipements ne font pas la même profondeur et ne sont alignés que côté "froid" (aspiration d'air). C'est vrai que le confinement soit fait par allée froide, ou par allée chaude.
Donc la photo N°1 c'est bien allée froide, et N°2 allée chaude.

Leon.
Titre: 24 serveurs dans 3u
Posté par: Leon le 28 mai 2014 à 20:48:08
Et voici le flyer de Supermicro.

Leon.
Titre: 24 serveurs dans 3u
Posté par: Optrolight le 31 mai 2014 à 11:57:03
J'ai vu les photos sur le twitter de Online en effet !!
Titre: 24 serveurs dans 3u
Posté par: BadMax le 01 juin 2014 à 10:43:32
En fait, le seul "défaut" est que le backplane ne sert qu'à fournir de l'électricité. Pas de réseau intégré, pas de SAN. A voir si les "grands" constructeurs (HP, IBM, Dell) suivent sur leur Blade car la solution peut etre plus intéressante dans pas mal de cas.

Titre: 24 serveurs dans 3u
Posté par: Leon le 02 juin 2014 à 21:35:46
En fait, le seul "défaut" est que le backplane ne sert qu'à fournir de l'électricité. Pas de réseau intégré, pas de SAN. A voir si les "grands" constructeurs (HP, IBM, Dell) suivent sur leur Blade car la solution peut etre plus intéressante dans pas mal de cas.
D'un autre côté, je ne suis pas certain que le concept de "blade server" intéresse tout le monde, justement à cause des switch imposés. Ces switches sont plus chers que les switches normaux, et ne s'intègrent pas forcèment bien dans le réseau existant. Visiblement, il est préférable d'avoir des switches tous de la même marque dans un réseau L2, de choisir ses switches. D'ailleurs, je n'ai pas l'impression que le concept de blade serveur ait eu le succès escompté.

Leon.
Titre: 24 serveurs dans 3u
Posté par: vivien le 02 juin 2014 à 22:04:39
Et certaines utilisations nécessitent des ports Ethernet dédies.

Un exemple, c'est la société IP-Label qui virtualise des client sur des serveurs connectés sur des box des différentes opérateurs.
Chaque VM a donc son propre port Ethernet.

Certaines sociétés ont un réseau d'admin qui doit être totalement distinct du réseau de prod. Il est hors de question d'avoir un équipement un même switch d'un blade center connecté à la fois au réseau d'admin et au réseau de prod même si l'isolation est totale. Le réseau d'admin a ses propres switchs, routeurs et liens trans.
Titre: 24 serveurs dans 3u
Posté par: DamienC le 02 juin 2014 à 22:05:31
Pourquoi faut-il des switchs spécifiques ?
Titre: 24 serveurs dans 3u
Posté par: vivien le 02 juin 2014 à 22:25:38
Quand tu mets un switch dans un blade center, ce sont forcèment des switchs spécifiques pour rentrer dans le serveur.

Dans certains cas, c'est un switch du fabriquant de serveur, mais souvent, ils proposent du Cisco pour ceux qui le souhaitent, un fabriquant de serveur n'étant pas expert en switch !

Switch Cisco pour blade HP :
(https://lafibre.info/images/materiel/200605_cisco_catalyst_blade_switch_3020.png)

Switch Cisco pour blade Dell :

(https://lafibre.info/images/materiel/201305_cisco_nexus_b22_blade_fabric_extender.png)

(https://lafibre.info/images/materiel/201305_cisco_nexus_b22_blade_fabric_extender_2.png)
Titre: 24 serveurs dans 3u
Posté par: BadMax le 02 juin 2014 à 22:48:47
Et oui, on peut mettre du Cisco dans les Blade Dell, IBM et HP (Siemens ?). Ca s'intègre donc parfaitement dans un environnement existant, le management est identique. Avant on avait 14 serveurs avec 2 switches (2 cartes réseaux chacun), en Blade on a la meme chose :-D. On a les memes modèles : switch L2 de base, avec L3, lien de stack entre modules et dernièrement en Fabric Extender Nexus.

Où est le gain alors ? Aucune connexion réseau physique à gérer excepté les uplinks des switches. Applicable aussi au monde du SAN avec Brocade entre autres.

On peut aussi mettre des modules path-through mais du coup on a la problématique du cablage qui revient. Chaque constructeur a aussi son switch propriétaire mais l'intégration à un réseau existant est moins poussée qu'avec Cisco.

Titre: 24 serveurs dans 3u
Posté par: Leon le 05 juillet 2014 à 12:07:10
Voilà les dernières photos de ces serveurs Online (24 serveurs dans 3u).
Les caches pour éviter le reflux d'air ont finalement été installés, tout va bien.
On voit qu'il y a "seulement" 6 rack par baie, soit 144 serveur par baie, certainement pour des raisons de puissance totale par baie (dissipation thermique). Ca fait quand même plus de 1000 serveurs sur la photo.

Leon.
Titre: 24 serveurs dans 3u
Posté par: BadMax le 05 juillet 2014 à 12:33:50
La doc de Supermicro parle d'alimentations de 1,6kW (x2). A 50% de charge, ça donne 6x 800W = 4800W / baie.

Dans ta dernière photo, on remarque un "toit" en haut à gauche donc en effet les caches sont nécessaires car il doit s'agir d'un bloc de baies fermé afin d'optimiser le refroissement.

Titre: 24 serveurs dans 3u
Posté par: Optrolight le 05 juillet 2014 à 13:16:59
La photo montre des choses intéressantes:
-la concentration des serveursfait que le switch est très proche d'eux.
- Peu de possibilité de faire des noeux (où alors il faut se prendre la tête)
- simplicité de maintenance.
Titre: 24 serveurs dans 3u
Posté par: BadMax le 05 juillet 2014 à 14:27:22
La proximité switch-serveur c'est du classique et du bon sens. Ce qui est nouveau, c'est l'utilisation de cables RJ de 30cm : avec un serveur rackable, t'es obligé d'avoir 1,5m voir 2 mètres de cables par serveur car ils sont montés sur rails coulissants. En cas d'intervention technique interne, on les fait glisser sans rien débrancher -> faut prévoir le mou !
Titre: 24 serveurs dans 3u
Posté par: Optrolight le 05 juillet 2014 à 20:46:01
C'est bien de cela que je parlais  ;D