Auteur Sujet: Data center DC3 de Scaleway: reportage photo de la visite  (Lu 189024 fois)

0 Membres et 1 Invité sur ce sujet

mikmak

  • AS12876 Expert Scaleway
  • Expert
  • *
  • Messages: 177
    • @mmarcha
Data center DC3 d'Iliad: reportage photo de la visite
« Réponse #96 le: 24 octobre 2015 à 21:02:49 »
Pour les ASR et 40G tu parles :
 - du non-support des 40G-SR-BiDi qui oblige à utiliser des 40G-SR4 avec des MPO ?

ha bah multimode déjà moi c'est mort ;)

- de l'obligation d'utiliser les MOD160 au lieu d'avoir une carte native façon 100G ?

oui, l'alternative c'est les CPAK 2x40gb/s (qui se plugguent sur un port 100gb/s , donc 20gb/s perdu sur la linecard ...) (je vous laisse imaginer le prix du CPAK aussi)

Mik

vivien

  • Administrateur
  • *
  • Messages: 48 042
    • Twitter LaFibre.info
Data center DC3 d'Iliad: reportage photo de la visite
« Réponse #97 le: 24 octobre 2015 à 21:10:50 »
Ah, encore un point sur lequel je me suis complètement trompé.

On le vois bien sur http://map.online.net/ : chaque routeur Cisco Nexus 9396PX est directement connecté aux deux routeurs.

J'avais imaginé que chaque switch était connecté a ses voisins au vu de la capacité que j'avais imaginé (2 x 80 Gb/s)

J'ai alors une question : Pourquoi acheter un module pour les Cisco Nexus 9396PX avec un module 12 ports 40-Gbps QSFP+, si c'est pour utiliser uniquement des ports 10 Gb/s ? Les ports 48 ports 10 Gb/s ne peuvent pas être utilisées pour ça ? Un module avec des ports SFP+ ne serait plus économique ?


mikmak

  • AS12876 Expert Scaleway
  • Expert
  • *
  • Messages: 177
    • @mmarcha
Data center DC3 d'Iliad: reportage photo de la visite
« Réponse #98 le: 24 octobre 2015 à 21:25:13 »
déjà tu as des cold-corridor de 46 baies, ca fait au moins 45 uplinks de baies , tu as déjà bien rempli les 48x10gb/s du nexus , difficile d'y rajouter les uplinks vers les ASR ensuite.

ensuite on ne veut plus revivre ca : https://status.online.net/index.php?do=details&task_id=69 ;)

Mik

BadMax

  • Client Free adsl
  • Expert
  • *
  • Messages: 3 479
  • Malissard (26)
Data center DC3 d'Iliad: reportage photo de la visite
« Réponse #99 le: 24 octobre 2015 à 21:26:00 »
oui, l'alternative c'est les CPAK 2x40gb/s (qui se plugguent sur un port 100gb/s , donc 20gb/s perdu sur la linecard ...) (je vous laisse imaginer le prix du CPAK aussi)
Forcèment, si tu prends la linecard 4x100G en CPAK... 510000 $ prix public :)
Par contre, pas vu que l'ASR supportait les CPAK 2x40G.

En CFP c'est moins "cher", 150000$ la 1x100G mais pas de 40G possible. Tant qu'on est dans les chiffres et histoire que tout le monde nous suive, pour du 40G sur ASR9K, il faut un module MOD160 (genre de fond de panier) à 60000$ sur lequel on peut mettre 2x cartes 2x40G à 150000$ pièce.

Pour ne rien oublier, compter un peu plus de 100000$ pour le chassis avec ses 2 Supervisor.

Tout ça c'est des prix publics, hein :)

Nico

  • Modérateur
  • *
  • Messages: 44 557
  • FTTH 1000/500 sur Paris 15ème (75)
    • @_GaLaK_
Data center DC3 d'Iliad: reportage photo de la visite
« Réponse #100 le: 24 octobre 2015 à 21:29:02 »
Des gens paient les prix catalogue ?

BadMax

  • Client Free adsl
  • Expert
  • *
  • Messages: 3 479
  • Malissard (26)
Data center DC3 d'Iliad: reportage photo de la visite
« Réponse #101 le: 24 octobre 2015 à 21:29:44 »

J'ai alors une question : Pourquoi acheter un module pour les Cisco Nexus 9396PX avec un module 12 ports 40-Gbps QSFP+, si c'est pour utiliser uniquement des ports 10 Gb/s ? Les ports 48 ports 10 Gb/s ne peuvent pas être utilisées pour ça ? Un module avec des ports SFP+ ne serait plus économique ?

Y'a pas de module uplink 10Gb pour Nexus 9300. Le minimum c'est 6x 40Gb :)

La gamme Nexus 9000 est particulière car prévue pour supporter le SDN de Cisco : ACI qui est construit autour d'une Fabric Spine/Leaf en VXLAN (modifié par Cisco évidemment). Mais on peut l'utiliser "classiquement" sous NX-OS comme les Nexus 5000/6000/7000.

BadMax

  • Client Free adsl
  • Expert
  • *
  • Messages: 3 479
  • Malissard (26)
Data center DC3 d'Iliad: reportage photo de la visite
« Réponse #102 le: 24 octobre 2015 à 21:31:22 »
Des gens paient les prix catalogue ?

Bien sur que non le rabais "standard" chez un grossiste c'est 36% si tu négoties pas.

Ensuite c'est fonction de qui tu es et du montant de la commande :)

mikmak

  • AS12876 Expert Scaleway
  • Expert
  • *
  • Messages: 177
    • @mmarcha
Data center DC3 d'Iliad: reportage photo de la visite
« Réponse #103 le: 24 octobre 2015 à 21:32:45 »
Par contre, pas vu que l'ASR supportait les CPAK 2x40G.

tu as le CPAK 10x10gb/s et 2x40gb/s, ca existe et c'est supporté, faut juste 6 mois pour avoir un exemplaire d'une optique ;)
(Cisco n'a pas l'habitude de produire des optiques en masse et ils ont eu des pbls dans leurs usines qui a retardé énormèment la prod il me semble ...)

Mik

Leon

  • Client SFR sur réseau Numericable
  • Modérateur
  • *
  • Messages: 6 213
Data center DC3 d'Iliad: reportage photo de la visite
« Réponse #104 le: 25 octobre 2015 à 06:53:12 »
Modération:
Je me suis permis de séparer le hors sujet sur le débat "fibre monomode/multimode en datacenter" ici :

https://lafibre.info/datacenter/data-center-dc3-diliad-reportage-photo-de-la-visite/

Leon.

vivien

  • Administrateur
  • *
  • Messages: 48 042
    • Twitter LaFibre.info
Data center DC3 d'Iliad: reportage photo de la visite
« Réponse #105 le: 25 octobre 2015 à 09:17:28 »
déjà tu as des cold-corridor de 46 baies

46 baies dans un cold-corridor ?
3 cold-corridor par salle de 250m², c'est ça ?
=> Donc cela fait 138 baies par salle de 250m², non ?

Je me suis trompé avec mon 132 baies par salle de 250m²

mikmak

  • AS12876 Expert Scaleway
  • Expert
  • *
  • Messages: 177
    • @mmarcha
Data center DC3 d'Iliad: reportage photo de la visite
« Réponse #106 le: 25 octobre 2015 à 11:10:28 »
46 baies dans un cold-corridor ?
3 cold-corridor par salle de 250m², c'est ça ?
=> Donc cela fait 138 baies par salle de 250m², non ?

Je me suis trompé avec mon 132 baies par salle de 250m²

les cold-co ont 3 tailles dans un module : 2x23 / 2x22 / 2x21
ca doit faire 132 :)

Mik

vivien

  • Administrateur
  • *
  • Messages: 48 042
    • Twitter LaFibre.info
Data center DC3 d'Iliad: reportage photo de la visite
« Réponse #107 le: 25 octobre 2015 à 11:19:50 »
Ok, je comprend, c'est l'espace pris par la clim qui fait que à cet endroit là, on doit être dans un cold-corridor de 2x21 baies

Face au tableau électrique, cela doit être 2x22baies et là où il n'y a ni clim ni tableau électrique, c'est 2x23 baies.

J'ai bon ?