Auteur Sujet: Online : 24 serveurs dans 3u  (Lu 5683 fois)

0 Membres et 1 Invité sur ce sujet

Leon

  • Client SFR sur réseau Numericable
  • Modérateur
  • *
  • Messages: 4 201
24 serveurs dans 3u
« Réponse #12 le: 02 juin 2014 à 21:35:46 »
En fait, le seul "défaut" est que le backplane ne sert qu'à fournir de l'électricité. Pas de réseau intégré, pas de SAN. A voir si les "grands" constructeurs (HP, IBM, Dell) suivent sur leur Blade car la solution peut etre plus intéressante dans pas mal de cas.
D'un autre côté, je ne suis pas certain que le concept de "blade server" intéresse tout le monde, justement à cause des switch imposés. Ces switches sont plus chers que les switches normaux, et ne s'intègrent pas forcèment bien dans le réseau existant. Visiblement, il est préférable d'avoir des switches tous de la même marque dans un réseau L2, de choisir ses switches. D'ailleurs, je n'ai pas l'impression que le concept de blade serveur ait eu le succès escompté.

Leon.

vivien

  • Administrateur
  • *
  • Messages: 29 564
    • Twitter LaFibre.info
24 serveurs dans 3u
« Réponse #13 le: 02 juin 2014 à 22:04:39 »
Et certaines utilisations nécessitent des ports Ethernet dédies.

Un exemple, c'est la société IP-Label qui virtualise des client sur des serveurs connectés sur des box des différentes opérateurs.
Chaque VM a donc son propre port Ethernet.

Certaines sociétés ont un réseau d'admin qui doit être totalement distinct du réseau de prod. Il est hors de question d'avoir un équipement un même switch d'un blade center connecté à la fois au réseau d'admin et au réseau de prod même si l'isolation est totale. Le réseau d'admin a ses propres switchs, routeurs et liens trans.

DamienC

  • FTTH 2 Gbps : SFR 1Gb/s +
  • Client Orange Fibre
  • *
  • Messages: 1 874
  • Brest (29)
    • Maroquinerie Bysance
24 serveurs dans 3u
« Réponse #14 le: 02 juin 2014 à 22:05:31 »
Pourquoi faut-il des switchs spécifiques ?

vivien

  • Administrateur
  • *
  • Messages: 29 564
    • Twitter LaFibre.info
24 serveurs dans 3u
« Réponse #15 le: 02 juin 2014 à 22:25:38 »
Quand tu mets un switch dans un blade center, ce sont forcèment des switchs spécifiques pour rentrer dans le serveur.

Dans certains cas, c'est un switch du fabriquant de serveur, mais souvent, ils proposent du Cisco pour ceux qui le souhaitent, un fabriquant de serveur n'étant pas expert en switch !

Switch Cisco pour blade HP :


Switch Cisco pour blade Dell :




BadMax

  • Client Free adsl
  • Modérateur
  • *
  • Messages: 3 327
  • Malissard (26)
24 serveurs dans 3u
« Réponse #16 le: 02 juin 2014 à 22:48:47 »
Et oui, on peut mettre du Cisco dans les Blade Dell, IBM et HP (Siemens ?). Ca s'intègre donc parfaitement dans un environnement existant, le management est identique. Avant on avait 14 serveurs avec 2 switches (2 cartes réseaux chacun), en Blade on a la meme chose :-D. On a les memes modèles : switch L2 de base, avec L3, lien de stack entre modules et dernièrement en Fabric Extender Nexus.

Où est le gain alors ? Aucune connexion réseau physique à gérer excepté les uplinks des switches. Applicable aussi au monde du SAN avec Brocade entre autres.

On peut aussi mettre des modules path-through mais du coup on a la problématique du cablage qui revient. Chaque constructeur a aussi son switch propriétaire mais l'intégration à un réseau existant est moins poussée qu'avec Cisco.


Leon

  • Client SFR sur réseau Numericable
  • Modérateur
  • *
  • Messages: 4 201
24 serveurs dans 3u
« Réponse #17 le: 05 juillet 2014 à 12:07:10 »
Voilà les dernières photos de ces serveurs Online (24 serveurs dans 3u).
Les caches pour éviter le reflux d'air ont finalement été installés, tout va bien.
On voit qu'il y a "seulement" 6 rack par baie, soit 144 serveur par baie, certainement pour des raisons de puissance totale par baie (dissipation thermique). Ca fait quand même plus de 1000 serveurs sur la photo.

Leon.

BadMax

  • Client Free adsl
  • Modérateur
  • *
  • Messages: 3 327
  • Malissard (26)
24 serveurs dans 3u
« Réponse #18 le: 05 juillet 2014 à 12:33:50 »
La doc de Supermicro parle d'alimentations de 1,6kW (x2). A 50% de charge, ça donne 6x 800W = 4800W / baie.

Dans ta dernière photo, on remarque un "toit" en haut à gauche donc en effet les caches sont nécessaires car il doit s'agir d'un bloc de baies fermé afin d'optimiser le refroissement.


Optrolight

  • Client Orange Fibre
  • Modérateur
  • *
  • Messages: 4 587
  • Grenoble (38) @Optrolight
    • Optroastro
24 serveurs dans 3u
« Réponse #19 le: 05 juillet 2014 à 13:16:59 »
La photo montre des choses intéressantes:
-la concentration des serveursfait que le switch est très proche d'eux.
- Peu de possibilité de faire des noeux (où alors il faut se prendre la tête)
- simplicité de maintenance.

BadMax

  • Client Free adsl
  • Modérateur
  • *
  • Messages: 3 327
  • Malissard (26)
24 serveurs dans 3u
« Réponse #20 le: 05 juillet 2014 à 14:27:22 »
La proximité switch-serveur c'est du classique et du bon sens. Ce qui est nouveau, c'est l'utilisation de cables RJ de 30cm : avec un serveur rackable, t'es obligé d'avoir 1,5m voir 2 mètres de cables par serveur car ils sont montés sur rails coulissants. En cas d'intervention technique interne, on les fait glisser sans rien débrancher -> faut prévoir le mou !

Optrolight

  • Client Orange Fibre
  • Modérateur
  • *
  • Messages: 4 587
  • Grenoble (38) @Optrolight
    • Optroastro
24 serveurs dans 3u
« Réponse #21 le: 05 juillet 2014 à 20:46:01 »
C'est bien de cela que je parlais  ;D

 

Mobile View