La Fibre
Hébergeurs et opérateurs pro / entreprises => Hébergeurs et opérateurs pro / entreprises => Scaleway => Discussion démarrée par: Leon le 27 mai 2014 à 22:35:29
-
Voici la nouvelle gamme de serveurs Online à 20€ HT. Avoton 8c8t ; RAM 8Go ECC ; SATA3 1To 7.2krpm.
https://www.online.net/fr/serveur-dedie/dedibox-xc (https://www.online.net/fr/serveur-dedie/dedibox-xc)
Mais surtout, on arrive à 24 serveurs dans un chassis de 3u. Ca fait une densité assez délirante! 8 serveur par 1u!
Il y a 2 serveurs par carte, 12 carte dans un chassis.
Ce sont des chassis Supermicro Microcloud : http://www.supermicro.nl/products/nfo/MicroCloud.cfm (http://www.supermicro.nl/products/nfo/MicroCloud.cfm)
https://x.com/online_fr/status/471321318932353024/photo/2 (https://x.com/online_fr/status/471321318932353024/photo/2)
Je suis surpris de voir des baies sans caches contre le reflux d'air. Ils ne sont sans doute pas en allées cloisonnées, mais quand même. Du coup, c'est peut-être d'anciennes salles de DC1 (Bezons) ou DC2 (Vitry).
Leon.
-
la densité de taré ....
niveau perf ça donne quoi ces petites machines?
-
Je suis surpris de voir des baies sans caches contre le reflux d'air. Ils ne sont sans doute pas en allées cloisonnées, mais quand même. Du coup, c'est peut-être d'anciennes salles de DC1 (Bezons) ou DC2 (Vitry).
Leon.
Sur le lien que tu donnes c'est marqué DC3. Le reflux d'air n'est pas un phénomène très très important, à voir selon la température en ambiance et le système de clim' (IN-Row ou par faux-plancher).
-
OK,
Mais je croyais que DC3 était intégralement en allées (frioides) cloisonnées. Et clairement, ici ça n'est pas le cas, ce sont des allées ouvertes; je me demande bien pourquoi, vu que c'est censé être moins performant d'un point de vue énergétique (rendement de la clim).
-
Ou alors les caches ne sont que du coté allée froide. Ca éviterait que de l'air chaud stagne dans les baies.
-
Dans les exemples que j'ai vu, les caches sont toujours coté allé froide, le devant des serveurs, pour une simple raison, il est difficile de mettre des caches a l’arrière vu que les équipements ne sont alignés que en façade.
Là, la photo montre l’allée froide (a moins que le serveur rejette l'air chaud en façade, ce qui semble assez peu réaliste)
-
Ah bon ? J'aurai dit le contraire ! Je cable toujours coté allée chaude :)
Où est le cul-cul ? Où est la te-tete ?
-
Les vis sont visibles, c'est ça qui me fait dire que c'est la face avant qui est visible et donc qu'on est coté allé froide.
Les connecteurs d'alim et réseau sont effectivement en face avant du serveur ce qui est rare sur des serveurs mais habituel sur des routeurs.
-
Ne vous battez pas, de toutes façon il n'y a pas de cache non plus sur la face arrière (allée chaude). Voir la photo ci dessous, ce sont bien les mêmes serveurs.
Je confirme qu'on met tout le temps les cache côté allée froide, là où l'air est aspiré, car tous les équipements ne font pas la même profondeur et ne sont alignés que côté "froid" (aspiration d'air). C'est vrai que le confinement soit fait par allée froide, ou par allée chaude.
Donc la photo N°1 c'est bien allée froide, et N°2 allée chaude.
Leon.
-
Et voici le flyer de Supermicro.
Leon.
-
J'ai vu les photos sur le twitter de Online en effet !!
-
En fait, le seul "défaut" est que le backplane ne sert qu'à fournir de l'électricité. Pas de réseau intégré, pas de SAN. A voir si les "grands" constructeurs (HP, IBM, Dell) suivent sur leur Blade car la solution peut etre plus intéressante dans pas mal de cas.
-
En fait, le seul "défaut" est que le backplane ne sert qu'à fournir de l'électricité. Pas de réseau intégré, pas de SAN. A voir si les "grands" constructeurs (HP, IBM, Dell) suivent sur leur Blade car la solution peut etre plus intéressante dans pas mal de cas.
D'un autre côté, je ne suis pas certain que le concept de "blade server" intéresse tout le monde, justement à cause des switch imposés. Ces switches sont plus chers que les switches normaux, et ne s'intègrent pas forcèment bien dans le réseau existant. Visiblement, il est préférable d'avoir des switches tous de la même marque dans un réseau L2, de choisir ses switches. D'ailleurs, je n'ai pas l'impression que le concept de blade serveur ait eu le succès escompté.
Leon.
-
Et certaines utilisations nécessitent des ports Ethernet dédies.
Un exemple, c'est la société IP-Label qui virtualise des client sur des serveurs connectés sur des box des différentes opérateurs.
Chaque VM a donc son propre port Ethernet.
Certaines sociétés ont un réseau d'admin qui doit être totalement distinct du réseau de prod. Il est hors de question d'avoir un équipement un même switch d'un blade center connecté à la fois au réseau d'admin et au réseau de prod même si l'isolation est totale. Le réseau d'admin a ses propres switchs, routeurs et liens trans.
-
Pourquoi faut-il des switchs spécifiques ?
-
Quand tu mets un switch dans un blade center, ce sont forcèment des switchs spécifiques pour rentrer dans le serveur.
Dans certains cas, c'est un switch du fabriquant de serveur, mais souvent, ils proposent du Cisco pour ceux qui le souhaitent, un fabriquant de serveur n'étant pas expert en switch !
Switch Cisco pour blade HP :
(https://lafibre.info/images/materiel/200605_cisco_catalyst_blade_switch_3020.png)
Switch Cisco pour blade Dell :
(https://lafibre.info/images/materiel/201305_cisco_nexus_b22_blade_fabric_extender.png)
(https://lafibre.info/images/materiel/201305_cisco_nexus_b22_blade_fabric_extender_2.png)
-
Et oui, on peut mettre du Cisco dans les Blade Dell, IBM et HP (Siemens ?). Ca s'intègre donc parfaitement dans un environnement existant, le management est identique. Avant on avait 14 serveurs avec 2 switches (2 cartes réseaux chacun), en Blade on a la meme chose :-D. On a les memes modèles : switch L2 de base, avec L3, lien de stack entre modules et dernièrement en Fabric Extender Nexus.
Où est le gain alors ? Aucune connexion réseau physique à gérer excepté les uplinks des switches. Applicable aussi au monde du SAN avec Brocade entre autres.
On peut aussi mettre des modules path-through mais du coup on a la problématique du cablage qui revient. Chaque constructeur a aussi son switch propriétaire mais l'intégration à un réseau existant est moins poussée qu'avec Cisco.
-
Voilà les dernières photos de ces serveurs Online (24 serveurs dans 3u).
Les caches pour éviter le reflux d'air ont finalement été installés, tout va bien.
On voit qu'il y a "seulement" 6 rack par baie, soit 144 serveur par baie, certainement pour des raisons de puissance totale par baie (dissipation thermique). Ca fait quand même plus de 1000 serveurs sur la photo.
Leon.
-
La doc de Supermicro parle d'alimentations de 1,6kW (x2). A 50% de charge, ça donne 6x 800W = 4800W / baie.
Dans ta dernière photo, on remarque un "toit" en haut à gauche donc en effet les caches sont nécessaires car il doit s'agir d'un bloc de baies fermé afin d'optimiser le refroissement.
-
La photo montre des choses intéressantes:
-la concentration des serveursfait que le switch est très proche d'eux.
- Peu de possibilité de faire des noeux (où alors il faut se prendre la tête)
- simplicité de maintenance.
-
La proximité switch-serveur c'est du classique et du bon sens. Ce qui est nouveau, c'est l'utilisation de cables RJ de 30cm : avec un serveur rackable, t'es obligé d'avoir 1,5m voir 2 mètres de cables par serveur car ils sont montés sur rails coulissants. En cas d'intervention technique interne, on les fait glisser sans rien débrancher -> faut prévoir le mou !
-
C'est bien de cela que je parlais ;D