ha ha

alors les raspberry pi servent au déploiement et au debug quand on a besoin d'une console

connexion wifi + console serie en usb tout simplement

(on sait prêter aux clients DC2/DC3 si besoin temporaire

)
pour les Nexus, on ne fait pas (encore) de 40gb/s (enfin on en fait depuis peu, mais vous ne le voyez pas dans les photos)
en fait, sur ASR9k, le 40gb/s, bah c'est pas encore ca ... (merci cisco :/ )
sur la partie ASR, le plus rentable niveau coût (linecards + optiques) ca reste le 10gb/s et le 100gb/s , le 40gb/s reste un truc "a part" (et heu, chiant)
du coup, les uplinks de salles (monomode obligatoire vu nos distances vers les salles OPE) sont du x*10gb/s
sauf erreur, Vivien a pris en photo la baie B11 en S3-5 qui n'a pour le moment (on déploie encore des serveurs dedans) que 2x2x10gb/s d'uplinks (vous pouvez voir des adaptateurs "QSA" pour plugguer les SFP+ dans des ports QSFP) , ca fait donc une boucle 40gb/s (c'est notre unité de base, on upgrade en 80gb/s quand le besoin est là), c'est par exemple le cas en S3-4 (cf le n9k-s34-2.dc3 et n9k-s34-3.dc3 sur
http://map.online.net ). Vu notre map, l'upgrade en 80gb/s de la S3-5 va sans doute se lancer dans pas longtemps.
Le n9k-s34-1.dc3 par exemple n'a pas (encore?) eu besoin d'une boucle 80gb/s (sans doute une majorité d'offres servers avec des BPs garanties inférieures)
n9k-s34-2.dc3# show int status | i Eth2
Eth2/1 -- connected trunk full 10G 10Gbase-LR
Eth2/2 -- connected trunk full 10G 10Gbase-LR
Eth2/3 -- connected trunk full 10G 10Gbase-LR
Eth2/4 -- connected trunk full 10G 10Gbase-LR
Eth2/5 -- xcvrAbsen 1 auto auto --
Eth2/6 -- xcvrAbsen 1 auto auto --
Eth2/7 -- xcvrAbsen 1 auto auto --
Eth2/8 -- xcvrAbsen 1 auto auto --
Eth2/9 -- connected trunk full 10G 10Gbase-LR
Eth2/10 -- connected trunk full 10G 10Gbase-LR
Eth2/11 -- connected trunk full 10G 10Gbase-LR
Eth2/12 -- connected trunk full 10G 10Gbase-LR
si le besoin en terme de capa se fait sentir, on saura tout de même plugguer des QSFP et réutiliser les mêmes fibres, mais pour le moment ça tient bien avec 2x40gb/s (on peut encore rajouter du 10gb/s pour faire 2*50 ou 2*60gb/s par Nexus 9000 sans trop se prendre la tete),
au final nos routeurs savent gérer une boucle max de 6*40gb/s (soit 480gb/s capa total uplink max)
on peut aussi mettre des modules uplinks x*100gb/s sur les nexus 9000 , ca fait partie de mes réflexions en cours d'aggréger des uplinks 40gb/s en salle OP sur des n9k et repartir en uplink 100gb/s vers nos ASR, ca rajoute un niveau d'aggrégation en plus à gérer par contre et le coût n'est pas encore forcèment intéressant aujourd'hui,
l'alternative c'est du port 40gb/s sur les ASR directement mais cisco n'a pas de solution à coûts raisonnables pour le moment (clairement il y un trou dans leur catalogue sur le 40gb/s et l'ASR ... mais c'est pas nouveau ... il est probable que le 100gb/s gagnera avant que ca n'arrive...)
en tout cas, même en x*10gb/s, je suis serein pour le moment , le seul inconvénient c'est la multiplication de ports physiques (10gb/s) à gérer (un cold-co = 16 ports uplinks/fibres à maintenir ...)
pour le multimode, on s'en sert uniquement à desservir les baies d'une même salle, les optiques restent largement moins chères.
On fait même du twinax (passif) quand les distances le permettent
Pour le moment c'est du 10gb/s vers les baies pour le réseau public (les 2960X ne savent pas mieux faire de toute facon ...)
Mik