La Fibre
Datacenter et équipements réseaux => Équipements réseaux => NAS, serveurs et micro-serveurs => Discussion démarrée par: vivien le 25 juillet 2016 à 22:06:36
-
Voici quelques photos de l'infrastructure modulaire Dell PowerEdge FX2 : un serveur 2u qu'il est possible d'aménager de 2 serveurs à 4 sockets jusqu'à 16 petits serveurs Atom indépendants,
Une baie, remplie de serveurs 2u modulaires :
(https://lafibre.info/images/materiel/201608_dell_poweredge-fx_1.jpg)
FC630 : 1U mi-largeur à 2 sockets Xeon E5-2600 v4 (max de 22 cœurs x2). Jusqu’à 1,5 To de mémoire DDR4 (24 emplacements DIMM). Connexions via adaptateur deux ou quatre ports 10 Gbit/s et quatre ports 1 Gbit/s + Accès à deux emplacements d’extension PCIe dans le boîtier FX2.
(https://lafibre.info/images/materiel/201608_dell_poweredge-fx_2.jpg)
FC430 : 1U quart de largeur à 2 sockets Xeon E5-2600 v4 (max de 18 cœurs x2) avec configuration InfiniBand en option. Jusqu’à 256 Go de mémoire DDR4 (8 emplacements DIMM). Si les 2 u sont équipés de 8 FC430, on a 8 serveurs indépendants et un maximum de 288 cœurs ! Connexion avec 2 ports 10 GbE
+ Accès à un logement d’extension PCIe dans le boîtier FX2.
(https://lafibre.info/images/materiel/201608_dell_poweredge-fx_3.jpg)
FM120x4 : 1U demi-largeur pouvant accueillir jusqu’à quatre Intel Atom série C2000 indépendants de chacun 8 cœurs max. Si les 2 u sont équipés de 4 FM120x4, on a 16 microserveurs indépendants (128 cœurs Atom sur 2u).
(https://lafibre.info/images/materiel/201608_dell_poweredge-fx_4.jpg)
Deux barrettes de mémoire DIMM DDR3 par serveur (jusqu’à 32 barrettes de mémoire DIMM par boîtier FX2)
Un disque dur de 2,5 pouces par serveur ou deux disques durs de 1,8 pouce par serveur (jusqu’à 16 disques durs 2,5 pouces ou 32 disques durs de 1,8 pouce par boîtier FX2)
-
C'est une solution plus onéreuse que les serveurs Dell 1u équivalents, mais Dell note pleins d'avantages :
(https://lafibre.info/images/materiel/201608_dell_poweredge-fx_5.png)
- Based on December 2014 report "Consolidating Web servers with the Dell PowerEdge FX2 and PowerEdge FM120x4 nodes" by Principled Technologies, commissioned by Dell, comparing performance per Watt of a Dell PowerEdge FX2 with 16 FM120 web servers vs. 12 HP ProLiant DL320e servers. Actual performance will vary based on configuration, usage and manufacturing variability.
- Based on Dell internal testing of FC430 and FD332 vs. HPDL380p using Teragen, Terasort, and Teraval benchmark performance. Actual performance will vary based on configuration, usage, and manufacturing variability.
- Based on December 2014 Dell internal comparison of U.S. list pricing taken from dell.com for a Dell PowerEdge FX2 with 4 FC430 servers and 2 FD332 modules to 4 Dell PowerEdge R730XD servers.
- Based on Dell internal analysis comparing the aggregate SPECint processing capability with Intel E5-2600v3 processors supported in a standard EIA server rack.
- Based on "Oracle RAC performance: Dell PowerEdge FX2 with Fluid Cache for SAN vs. competing cache solution", a January 2015 Principled Technologies report commissioned by Dell comparing a Dell PowerEdge FX2 and HP ProLiant DL380p. Actual performance will vary based on configuration, usage and manufacturing variability. Pricing claim based on internal analysis using U.S. list pricing taken from dell.com and hp.com in October 2014.
- Based on “VDI Performance comparison: Dell PowerEdge FX2 and FC430 servers with VMware Virtual SAN” a December 2014 Principled Technologies report commissioned by Dell.
- Based on October 2014 Dell analysis of Dell PowerEdge FX2 and Cisco C-Series rack servers comparing the number of networking cables required per server
- Based on December 2014 Principled Technologies report, “Increasing density and simplifying setup with Intel processor-powered Dell PowerEdge FX2 architecture” commissioned by Dell, comparing deployment of the 11 Dell PowerEdge FX2 with 42 FC630 servers and 42 HP ProLiant Gen9 DL360 servers.
- Based on December 2014 Principled Technologies report, “Dell PowerEdge FX2 rack enclosure with FN IO Aggregator: Savings through reduced networking costs” commissioned by Dell, using U.S. list pricing for the Dell PowerEdge FX2 with IO Aggregator versus the HP ProLiant DL360 Gen 9.
- Based on October 2014 Dell internal analysis of Dell PowerEdge FX2 and HP SL2500 comparing the maximum capacity of 1.8” and 2.5” form factor server side storage supported by each platform
-
les mini serveurs ressemblent a ceux des blade M1000e genre des m630 ou autre
c'est compatibles entre les deux?
-
Pareil que butler, la ressemblance est frappante. Vu la (censuré) que c'est avec leurs modules I/O propriétaires pour châssis M1000, j'espère que ce ne sont pas les mêmes et que c'est mieux fait.
-
Hello,
Est-ce que certains d'entre vous ont pu tester/utiliser ces FX2 un peu ? Ce serait intéressant d'avoir un retour pratique sur ce matos :)
-
Si Dell m'en envoie un je veux bien tester. Pour cet hiver ça va être sympa.
-
Si Dell m'en envoie un je veux bien tester. Pour cet hiver ça va être sympa.
Bah c'est justement ce qu'on va faire, mais j'aurais aimé des retours d'expérience (et les problèmes potentiels) avant qu'on taquine la bête de test.
-
Ca doit pas être beaucoup différent d'un Blade. C'est quoi comme lame qui t'intéresse ?
-
Ca doit pas être beaucoup différent d'un Blade. C'est quoi comme lame qui t'intéresse ?
FC430 pour du traitement purement CPU et FC630 pour du serveur plus conventionnel.
Oui je pense que c'est un peu comme les blades, mais justement je n'ai pas eu que des bonnes expériences avec les blades Dell historiquement (mais ça date)
-
C'est possible de dé&tailler ce qui n'était pas bien avec les blades Dell ?
-
Principalement des problèmes de fiabilité du système de DRAC, la lenteur sur les premiers modèle pour PE1855/PE1955, des problèmes d'alims qui crament en emmenant assez souvent le disjoncteur de la baie avec. Je me souviens plus de tout mais comparativement à HP c'était pas au niveau.
-
Les premiers retours d'expériences des FX2 que je peux avoir de 2 sources me font état de probleme niveau CMC ou equivalent, et autre truc peu sympas niveau switch interne.
Bref pas sec, et si les blades Dell t'on laissé un gout amer, je crois qu'il faut passer son tour.
Bizarrement je trouvais les blades Dell pas si mal.
-
Ah zut :/
Il y aurait quoi d'équivalent intéressant en 1/2U pour mettre 4 serveurs un peu corrects sans trop consommer mais en ayant de la patate ?
-
C'est juste pour gagner de la place ?
Les serveurs 1u traditionnels prennent le double de place, mais ils reviennent généralement bien moins cher et la consommation est équivalente si tu prend les mêmes composants (à quelques watts prés). L'évolution est aussi nettement simplifiée quand il faut remplacer du matériel.
-
C'est juste pour gagner de la place ?
Les serveurs 1u traditionnels prennent le double de place, mais ils reviennent généralement bien moins cher et la consommation est équivalente si tu prend les mêmes composants (à quelques watts prés). L'évolution est aussi nettement simplifiée quand il faut remplacer du matériel.
Le FX2 permet de coller 8 serveurs sur 2U, c'est le format qui m'intéresse, 4 serveurs ça fait plus réfléchir mais ça reste intéressant et ça me fait beaucoup moins de cordons d'alim à gérer également.
Le but c'est de remplacer un serveur 2U actuel qui gère 4 à 8 VM sous hyperviseur pour passer en hardware pur, pour des traitements bien spécifiques où on n'est pas satisfait de la virtualisation. Je ne veux pas cramer 8U de baie pour ça (plus encore vu que chez nous on espace les serveurs).
Avoir 2 blocs d'alims au lieu de 4x2 blocs d'alims ça consommera de toute manière moins, même à composants égaux. Et changer/ajouter une lame est plus simple également pour mes besoins.
Le but c'est de ne pas prendre plus de place, de ne pas consommer autant que X serveurs, d'avoir la simplicité ce gestion.
-
Les premiers retours d'expériences des FX2 que je peux avoir de 2 sources me font état de probleme niveau CMC ou equivalent, et autre truc peu sympas niveau switch interne.
Bref pas sec, et si les blades Dell t'on laissé un gout amer, je crois qu'il faut passer son tour.
Bizarrement je trouvais les blades Dell pas si mal.
La CMC est moins pire que la MM des Blade IBM ou l'admin des Blade HP.
Le switch interne c'est toujours une horreur à base de PowerConnect ?
-
Le FX2 permet de coller 8 serveurs sur 2U, c'est le format qui m'intéresse, 4 serveurs ça fait plus réfléchir mais ça reste intéressant et ça me fait beaucoup moins de cordons d'alim à gérer également.
Le but c'est de remplacer un serveur 2U actuel qui gère 4 à 8 VM sous hyperviseur pour passer en hardware pur, pour des traitements bien spécifiques où on n'est pas satisfait de la virtualisation. Je ne veux pas cramer 8U de baie pour ça (plus encore vu que chez nous on espace les serveurs).
C'est le use-case classique du blade.
Avoir 2 blocs d'alims au lieu de 4x2 blocs d'alims ça consommera de toute manière moins, même à composants égaux. Et changer/ajouter une lame est plus simple également pour mes besoins.
Avec un FX2 je ne sais pas, mais avec les autres Blade (Dell M1000/IBM/HP), tu as jusqu'à 6 (voir 8 ) cordons d'alim C19/C20 par chassis. Côté consommation, ça reste égal, un chassis 8x lames consommera autant que 8x serveurs avec les mêmes CPU. Chez IBM, il y a un cordon spécifique à utiliser qui permet de répartir l'alimentation sur plusieurs PDU.
Le but c'est de ne pas prendre plus de place, de ne pas consommer autant que X serveurs, d'avoir la simplicité ce gestion.
La simplicité de gestion:
- oui car une seule interface d'admin globale
- oui pour le remplacement d'une lame
- oui pour la simplification du cablage
- non pour la gestion du réseau interne, souvent propriétaire, parfois remplaçable par du Cisco (cher)
- non pour la limitation des options en I/O : soit Nx10Gb ou N*2x1Gb ou N/2*10Gb+N*FC, etc pas extensible, doit être pensé très tôt et les besoins doivent être identiques entre les lames
Pour la consommation, le problème que j'ai rencontré à chaque fois c'est qu'un Blade créé un point chaud dans ton DC quand il est mixé avec des serveurs classiques. Ca ventile aussi bien plus fort en sortie. Si t'es déjà en haute densité (>6kW/baie) aucun problème pour toi sinon attention à bien les répartir dans la salle.
Avantage du FX2 : il est plus petit que son "grand frère" M1000e donc sans doute plus facile à intégrer.
-
Oui on parle bien d'un chassis 2U où tu as 2 alims assez classiques de serveur 2U et non 4 cordons 16A, la conso est censée être optimisée, après niveau disques/mémoire on aura des confs peu groumandes, même s'il reste le CPU (v4)
Niveau câblage il y a des slots PCIe en fond de châssis que tu assignes aux lames, ça permet de mettre un peu ce que tu veux directement sans être obligé de passer par le PowerConnect. Sur les anciens on avait pris des modèles Cisco mais ça posait aussi des soucis je me souviens, les passthru non par contre.
Le blade classique ne m'intéresse pas trop pour ce cas, d'ailleurs pour tout dire, le but est de gérer du firewalling sur ces serveurs.
-
Et un 2U avec deux gros CPU (genre E5-2650Lv4) avec les cartes réseaux en PCI-passthrough avec l'hyperviseur avec chaque VM firewall ?
-
Et un 2U avec deux gros CPU (genre E5-2650Lv4) avec les cartes réseaux en PCI-passthrough avec l'hyperviseur avec chaque VM firewall ?
C'est ce qu'on a actuellement, ce n'est pas suffisamment satisfaisant, même en dédiant CPU, passthrough, etc.
Après on pourrait prendre des serveurs plus puissants (en CPU v4 récents), mais tant qu'à faire cette option m'intéresse pour être moins dépendant des aléas de versions d'hyperviseur où le comportement change.
Déjà discuté avec VMWare et Dell, chacun se renvoie la balle d'ailleurs.
Petit truc amusant pour les interfaces en passthrough, d'un côté c'est vu comme MSI, de l'autre comme IRQ entre hyperviseur et VM. On avait déjà eu un gros problèmes d'interfaces passthrough qui freezaient souvent quelques secondes (sur la 2eme et 3eme quad port) avec les premiers CPU qu'on a du changer. On était en 2014 et on avait l'impression de revenir à l'époque de notre bonne vieille carte mère Abit BH6 et ses IRQ...
-
Sur du Supermicro, je suis très satisfait du pass-trough avec un ESX et ma VM firewall. Sinon t'as la gamme Microblade chez Supermicro à partir de 3U si tu cherches un équivalent.