La Fibre
Datacenter et équipements réseaux => Datacenter => Datacenter => Discussion démarrée par: mattmatt73 le 15 octobre 2018 à 20:14:21
-
je recherche la possibilité d'avoir 16 nuc / mini pc en format rackable.
Chaque pc doivent pouvoir se connecter à une VM en rdp et rester fluide.
Connexion vidéo HD en DP / HDMI
Si ça existe sous la forme de modules / lames avec châssis double alim et switch distribués.....
-
Il y'a ca : http://www.mikrotik.co.kr/NUCserver/?lang=en#section-148 (http://www.mikrotik.co.kr/NUCserver/?lang=en#section-148)
Trouvé par l'intermédiaire de NextInpact https://www.nextinpact.com/news/107116-prm01-adaptateur-pour-monter-deux-mini-pc-shuttle-dans-emplacement-2u.htm (https://www.nextinpact.com/news/107116-prm01-adaptateur-pour-monter-deux-mini-pc-shuttle-dans-emplacement-2u.htm)
-
mattmatt73, les serveurs 1u prennent trop de place ?
Financièrement, ce n'est pas plus cher (moins de 1000€ le serveur double alim avec un petit Xeon 4 cœurs)
Avec SuperMicro il est possible de descendre à moins de 500€ le serveur avec une config plus bas de gamme.
Après il est possible d'avoir plusieurs serveurs qui partagent une double alimentation (un chassis Dell de 2u permet d'avoir 4 serveurs indépendant, seul l'alimentation est mutualisée, mais c'est plus cher que des serveurs indépendants)
-
mattmatt73, les serveurs 1u prennent trop de place ?
Financièrement, ce n'est pas plus cher (moins de 1000€ le serveur double alim avec un petit Xeon 4 cœurs)
Avec SuperMicro il est possible de descendre à moins de 500€ le serveur avec une config plus bas de gamme.
Après il est possible d'avoir plusieurs serveurs qui partagent une double alimentation (un chassis Dell de 2u permet d'avoir 4 serveurs indépendant, seul l'alimentation est mutualisée, mais c'est plus cher que des serveurs indépendants)
Oui, on a pas autant de place à consacrer à ces machines.
car 18 machine 1U avec un U de vide entre chaque, on arrive à presque une baie qui va servir à ça
on commence à regarder ce genre de produits :
https://www.cobaltdigital.com/products/4766/og-pc-x86
dans des caissons de type avec double alim et snmp :
https://www.rossvideo.com/signal-processing/ogx-frame/
-
Pourquoi 1u libre entre chaque serveur ?
C'est complètement inutile !
-
Pourquoi 1u libre entre chaque serveur ?
C'est complètement inutile !
On laisse souvent 1U entre appareils commme des PC car on ne climatise pas comme dans un dc.
Pour des questions de câblage, c'est aussi plus facile.
Classiquement, on n'utilise pas les rails pour monter les serveurs en baies. Si les machines sont jointives ça devient vite compliqué pour changer celles qui sont au centre.
-
Justement, sans climatisation, ce qui est important, c'est la puissance dans la baie et la capacité des machines à fonctionner à haute température.
Si tu prends des serveurs basse consommation 1u Dell PowerEdge R330 (consommation typique de 50watts dans mon cas, avec deux SSD de 1 To, 32 Go de ram, une carte Raid et une carte 10 Gb/s et un trafic moyen qui dépasse 1 Gb/s cf stats sur http://fr.archive.ubuntu.com/stats/stats_server.html) tu peut sans problème en mettre un serveur par U, a condition de mettre les rails.
Pour la température, pas de souci, ce type de serveur fonctionne parfaitement avec une allée froide à 40 degrés (possibilité d'aller à 45°c en en allée froide 1% du temps)
(https://lafibre.info/images/online/201810_dell_poweredge_c6400.png)
Ce type de serveur coûte moins de 1000€ en configuration de base avec 2 alimentations, c'est donc pas si éloigné d'un NUC.
Le problème des nuc / mini pc, c'est leur fiabilité bien inférieur à des serveurs et le fait qu'il ne faut pas dépasser 30°c.
Après on peut monter en densité, mais le prix augmente. Je ne sais pas si le prix est un élèment important pour toi.
-
Justement, sans climatisation, ce qui est important, c'est la puissance dans la baie et la capacité des machines à fonctionner à haute température.
Si tu prends des serveurs basse consommation 1u Dell PowerEdge R330 (consommation typique de 50watts dans mon cas, avec deux SSD de 1 To, 32 Go de ram, une carte Raid et une carte 10 Gb/s et un trafic moyen qui dépasse 1 Gb/s cf stats sur http://fr.archive.ubuntu.com/stats/stats_server.html) tu peut sans problème en mettre un serveur par U, a condition de mettre les rails.
Pour la température, pas de souci, ce type de serveur fonctionne parfaitement avec une allée froide à 40 degrés (possibilité d'aller à 45°c en en allée froide 1% du temps)
(https://lafibre.info/images/online/201810_dell_poweredge_c6400.png)
Ce type de serveur coûte moins de 1000€ en configuration de base avec 2 alimentations, c'est donc pas si éloigné d'un NUC.
Le problème des nuc / mini pc, c'est leur fiabilité bien inférieur à des serveurs et le fait qu'il ne faut pas dépasser 30°c.
Après on peut monter en densité, mais le prix augmente. Je ne sais pas si le prix est un élèment important pour toi.
merci pour ces précisions Vivien, je ne savais pas que ça pouvait consommer si peu un serveur de nos jours.
le prix n'est pas l'élèment majeur dans cette opération.
-
Tu peux descendre à 35 watts pour un Dell PowerEdge R330 si tu n'a pas besoin de raid ni de carte 10 Gb/s. Si ton commercial n'arrive pas a supprimer le RAID ,c'est qu'il faut prendre un châssis avec 4 disques dur SATA non "hots swap". Il est possible d'avoir des SDD sur ces configurations en demandant, même si le site web ne le propose pas.
Ensuite si tu souhaites avoir 4 serveurs indépendants dans un chasis de 2u, regarde du coté des Dell PowerEdge C6320p ou Dell PowerEdge C6420. Ce sont 4 serveurs plutôt haut de gamme (2 sockets) qui partagent deux alimentations et les ventilateurs. Chacun à un maximum de 6 disques dur de 2,5 pouces, d'où le fait qu'il y a 24 disques en façade. Chaque serveur a ses propres cartes réseau et emplacement pour une carte d'extension PCIe 3.0 x16 PCIe.
-
Bonjour,
Je sais qu'il existe ce qu'on pourrait appeler des châssis slots pour nuc.
En gros, cela se présente comme un serveur :
(https://www.itinstock.com/ekmps/shops/itinstock/images/HP-ProLiant-DL360-G6-2-x-QUAD-Core-XEON-E5540-24GB-Ram-1u-Rack-Mount-Server-20894-p.png)
Et à la place des disques durs, il y a des nucs et donc tout est redondé (alim, réseau etc).
Un nuc lâche, pouf on le retire et on le remplace.
Chaque nuc à sa sortie hdmi/vga/usb à l'arrière et il y a une matrice pour tous les afficher sur une sortie avec en plus un kvm intégré pour tous les gérer d'un seul poste.
Parcontre, ça doit faire 3 ans que je l'est vu donc pour ce qui est de la marque ou nom de produit je ne l'est plus en tête.
Il faut rechercher (ce que je fais) avec les mots : nuc et bank, basket, fond de panier, board, rack etc
J'avoue c'est le top pour bidouiller 😉
-
C'est un chassis Blade quoi. Par contre c'est 4Kw d'alims.
-
Il y a genre ça que j'ai retrouvé :
(https://img1.lemondeinformatique.fr/fichiers/telechargement/tyan-micro-serveur.jpg)
-
pourquoi autant de sorties video dans un meme rack ?
tu ne peux pas "mutualiser" (virtual gpu) avec du nvidia grid par exemple.
-
Il n'y a pas la redondance de l'alimentation demandée.
Chez Dell il est possible d'avoir 4 serveurs indépendants dans un chasis de 2u + alim redondantes avec les Dell PowerEdge C6320p ou Dell PowerEdge C6420. C'est par contre du plus haut de gamme.
Online a fait aussi développer une version propriétaire, sans redondance de l'alimentation :
(https://lafibre.info/images/datacenter/201509_online_dc3_salle4_11.jpg)
Dedibox SC gen2 : Le premier prix en serveur dédié => 5,99€ HT/mois
C'est un petit serveur avec un petit processeur, 2Go de ram et un disque dur 2,5 pouces :
(https://lafibre.info/images/datacenter/201509_Dedibox_SC_gen2.png)
Sa consommation électrique ? seulement 11 watts !
Voici un bloc hébergeant des Dedibox SC gen2 :
- 12 serveurs dédies par châssis 2u Dell (proche des châssis utilisés pour des disques dur 3,5 pouces pour du SAN)
- 14 châssis par baie, soit 168 serveurs dédié par baie (Arnaud a déjà parlé d'une densité de 252 serveurs par baie mais cela doit être à DC1, car là j'ai bien compté: il y en a 168)
- 7 switchs par baie (2 liens 1 Gb/s par baie qui apportent Internet)
(https://lafibre.info/images/datacenter/201509_online_dc3_salle4_06.jpg)
(https://lafibre.info/images/datacenter/201509_online_dc3_salle4_07.jpg)
(https://lafibre.info/images/datacenter/201509_online_dc3_salle4_08.jpg)
-
Tu as la solution HPE Moonshot
https://www.hpe.com/fr/fr/servers/moonshot.html
(https://image.slidesharecdn.com/leg-keynote-lindalinarokeynote6-141003102243-phpapp02/95/leg-keynote-linda-knippers-hp-10-638.jpg?cb=1412331809)
(http://www.bitcon.be/wp-content/uploads/2014/01/moonshotm300.png)
-
pourquoi autant de sorties video dans un meme rack ?
tu ne peux pas "mutualiser" (virtual gpu) avec du nvidia grid par exemple.
Je suppose que mattmatt a justement besoin de générer physiquement plein de signaux HDMI, vu qu'il est dans l'audiovisuel. Il parle bien d'affichage de remote desktop.
Donc j'imagine que le besoin c'est d'alimenter une dizaine d'écrans différents, avec 10 flux vidéo différents.
Mais je peux me tromper...
Leon.
-
Oui, mattmatt73, cela serait bien d'indiquer les pré-rquis.
Si tu as besoin d'une sortie HDMI dans un serveur Dell, cela oblige a rajouter une carte vidéo dans le slot PCI express.
-
Oui, mattmatt73, cela serait bien d'indiquer les pré-rquis.
Si tu as besoin d'une sortie HDMI dans un serveur Dell, cela oblige a rajouter une carte vidéo dans le slot PCI express.
Oui Léon, tu as complétement raison.
Il faut une sortie vidéo au moins HD (1920*1080) par machine. HDMI, Display port, DVI, je m'en fiche
Ainsi que l'usb par machine pour du clavier / souris et le son.
On veut des machines indépendantes pour pouvoir en rebooter une sans faire tomber d'autres sorties vidéo que la machine plantée.
-
J'ai trouvé quelque chose qui pourrait t'intéresser.
Blade pc avec 2 display port 4 port usb facade chassis 3U 8 lames avec alimentation redondante 😋
R3162D Blade PC :
https://www.clearcube.com/wp-content/uploads/2016/12/DS_Blade-PC_R3162D_20170206_RevB.pdf
(https://www.clearcube.com/wp-content/uploads/2016/12/R3162D.png)
(https://www.clearcube.com/wp-content/uploads/2016/12/R3162D_Blade_PC_open_side_view.png)
Chassis :
(https://www.clearcube.com/wp-content/uploads/2017/05/R4300-Chassis-front.png)
(https://www.clearcube.com/wp-content/uploads/2017/05/R4300-Chassis-rear-view.png)
-
J'ai trouvé quelque chose qui pourrait t'intéresser.
Blade pc avec 2 display port 4 port usb facade chassis 3U 8 lames avec alimentation redondante 😋
R3162D Blade PC :
c'est mignon ça, par contre combien ça coute et si c'est vendu en europe....
-
Bon je viens de voir une chose, il y a en faite 2 pc par blade d'où les 2 DP ports et 4 USB (2 par PC) maintenant si les 2 peuvent être reboot indépendamment c'est enjoy le truc vu les caractéristiques de la bête 😎
-
c'est mignon ça, par contre combien ça coute et si c'est vendu en europe....
Sur Ebay USA on trouve des choses en occaz parcontre oui faut trouver un revendeur Europe.
-
J'ai trouvé ça pour l'Europe :
European Headquarters
Dick Hardy | Director of Sales, EMEA
DDI: +44 20 3290 3500
Mobile: +44 7876 685223
Email: dick.hardy@clearcube.com
ClearCube Technology International, Inc.
-
Si tu prend des serveurs Dell et que tu décide de rajouter une carte graphique, fait attention, certaines cartes pleine hauteur avec 3 connecteurs (VGA + HDMI + DVI) ont un connecteur trop bas et la carte ne peut pas être insérée dans le serveur.
Bref, fait des tests avec une carte graphique avant d'en acheter pour toutes tes machines.
-
Chez Dell il est possible d'avoir 4 serveurs indépendants dans un chasis de 2u + alim redondantes avec les Dell PowerEdge C6320p ou Dell PowerEdge C6420. C'est par contre du plus haut de gamme.
Sans trop m'éloigner du sujet,
Je ne connais pas assez les gammes des autres constructeurs, mais chez DELL Il y a aussi les châssis FX2.
Il tiennent dans 2U, on peut y mettre 4 lames bi-socket (FC630) ou 8 lames mono-socket (FC830).
Le tout avec alimentation redondée, passthrough PCI, KVM, etc.
Ça commence à faire assez dense ;)
Par contre pas de DP natif, la sortie est en VGA avec un KVM interne.
-
Sans trop m'éloigner du sujet,
Je ne connais pas assez les gammes des autres constructeurs, mais chez DELL Il y a aussi les châssis FX2.
Il tiennent dans 2U, on peut y mettre 4 lames bi-socket (FC630) ou 8 lames mono-socket (FC830).
Le tout avec alimentation redondée, passthrough PCI, KVM, etc.
Ça commence à faire assez dense ;)
Par contre pas de DP natif, la sortie est en VGA avec un KVM interne.
c'est bien comme gamme, mais le VGA n'est pas possible sur mon cas.
on a dit aux constructeurs que le VGA est has been même dans les DC ?
-
Non puisque ce n'est pas le cas. On utilise encore du VGA partout dans les DC.
-
Non puisque ce n'est pas le cas. On utilise encore du VGA partout dans les DC.
Bah oui, idem chez nous ::)
Bien qu'on devra bientôt passer au KVM DP car les nouveaux nœuds cloud (DELL C6420) sont en miniDP ...
Il faut certainement vivre avec son temps.
-
Bah oui, idem chez nous ::)
Bien qu'on devra bientôt passer au KVM DP car les nouveaux nœuds cloud (DELL C6420) sont en miniDP ...
Il faut certainement vivre avec son temps.
Je comprends pour le HDMI, mais pour mettre du DVI qui a presque 20 ans ou du DP...
-
DisplayPort c'est le futur. Sur de l'USB-C par exemple.
-
@mattmatt73 : Finalement quel à été ton choix ?