La Fibre

Datacenter et équipements réseaux => Datacenter => hébergement Datacenter => Discussion démarrée par: ruchard5 le 28 mai 2013 à 22:24:55

Titre: Les data centers de Googles
Posté par: ruchard5 le 28 mai 2013 à 22:24:55
Ce soir je vous propose de faire le tour des DataCenters de Google, si vous ne les avez pas déjà visités!!!

Sans commentaire :D.

(https://lafibre.info/images/datacenter/201305_datacenter_google_mini_CBF_002.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_CBF_002.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_CBF_003.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_CBF_003.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_CBF_018.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_CBF_018.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_CBF_025.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_CBF_025.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_CBF_005.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_CBF_005.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_DLS_002.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_DLS_002.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_DLS_006.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_DLS_006.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_DLS_008.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_DLS_008.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_DLS_021.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_DLS_021.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_GBL_001.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_GBL_001.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_GBL_009.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_GBL_009.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_GBL_010.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_GBL_010.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_IDI_001.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_IDI_001.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_IDI_003.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_IDI_003.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LNR_015.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LNR_015.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LNR_028.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LNR_028.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LNR_029.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LNR_029.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_001.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_001.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_004.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_004.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_007.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_007.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_009.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_009.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_MNK_004.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_MNK_004.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_MNK_011.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_MNK_011.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_MNK_020.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_MNK_020.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_MNK_021b.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_MNK_021b.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_MNK_022.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_MNK_022.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_PRY_01.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_PRY_01.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_PRY_03.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_PRY_03.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_PRY_06.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_PRY_06.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_PRY_07.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_PRY_07.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_PRY_13.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_PRY_13.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_PRY_14.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_PRY_14.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_PRY_18.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_PRY_18.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_CBF_009.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_CBF_009.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_CBF_013.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_CBF_013.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_CBF_019.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_CBF_019.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_DLS_007.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_DLS_007.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_DLS_013.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_DLS_013.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_DLS_019.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_DLS_019.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_GBL_018.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_GBL_018.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_GBL_019.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_GBL_019.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_IDI_012.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_IDI_012.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_IDI_014.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_IDI_014.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_IDI_015B.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_IDI_015B.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_IDI_017.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_IDI_017.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_IDI_018.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_IDI_018.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_IDI_020.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_IDI_020.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_IDI_022.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_IDI_022.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LNR_003.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LNR_003.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_014a.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_014a.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_016.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_016.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_017.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_017.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_019.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_019.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_021.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_021.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_027.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_027.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_030.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_030.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_MNK_002.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_MNK_002.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_MNK_003.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_MNK_003.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_MNK_005.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_MNK_005.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_MNK_006.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_MNK_006.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_MNK_019.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_MNK_019.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_PRY_20.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_PRY_20.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_PRY_21.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_PRY_21.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_PRY_22.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_PRY_22.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_CBF_020.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_CBF_020.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_DLS_007.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_DLS_007.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_DLS_015.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_DLS_015.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_DLS_025.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_DLS_025.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_GBL_022.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_GBL_022.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_IDI_022.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_IDI_022.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_IDI_023B.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_IDI_023B.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_IDI_025.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_IDI_025.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LNR_011.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LNR_011.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LNR_026.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LNR_026.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LNR_030.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LNR_030.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_023.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_023.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_024.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_024.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_026.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_026.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_MNK_024.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_MNK_024.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_PRY_16.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_PRY_16.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_PRY_21.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_PRY_21.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_DLS_017.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_DLS_017.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_012.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_012.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_013.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_013.jpg)

Source: Google (https://www.google.com/about/datacenters/)
Titre: Les data centers de Googles
Posté par: butler_fr le 28 mai 2013 à 22:31:13
sympa! merci du partage!
Titre: Les data centers de Googles
Posté par: vivien le 28 mai 2013 à 22:32:25
Superbe !

Pour mémoire, le site de Google en 1998 : 25 millions de pages indexées à l'époque
(https://lafibre.info/images/datacenter/199801_google_en_1998.jpg)
Titre: Les data centers de Googles
Posté par: ruchard5 le 28 mai 2013 à 22:39:49
Le plaisir et pour moi.

Si je devais choisir une de ses image je pense que l’intérieur a Council Bluffs est une bonne indication de ce que veux dire "géant du web", d'autant que si ne me trompe pas ceci n'est qu'un des deux data hall du centre, avec la salle de routage au milieu.

(https://lafibre.info/images/datacenter/201305_datacenter_google_mini_CBF_009.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_CBF_009.jpg)
Titre: Les data centers de Googles
Posté par: Nico le 28 mai 2013 à 22:47:56
Très très sympa en effet ;).
Titre: Les data centers de Googles
Posté par: BadMax le 29 mai 2013 à 09:49:57
Juste énorme.

Quand tu vois pas (ou à peine) le fond d'un datacentre, ça veut tout dire sur sa taille.

Sur l'une des photos, un tech a une trotinette avec lui.

Question: on a le PU quelque part de ce type d'installation ?
Titre: Les data centers de Googles
Posté par: ruchard5 le 29 mai 2013 à 13:07:25
Salut,

PU, ca veux dire quoi? Power Usage comme dans PUE?

Dans ce cas en 2012 annonçait ~260MW [1]. Avec un PUE de 1.12 [2] ça fait quand même ~30MW d'overhead.

[1] http://www.nytimes.com/2011/09/09/technology/google-details-and-defends-its-use-of-electricity.html (http://www.nytimes.com/2011/09/09/technology/google-details-and-defends-its-use-of-electricity.html).
[2] https://www.google.com/about/datacenters/efficiency/internal/#tab0=1 (https://www.google.com/about/datacenters/efficiency/internal/#tab0=1)
Titre: Les data centers de Googles
Posté par: BadMax le 29 mai 2013 à 13:26:48
Oui pardon PUE.

Vache 1.12 c'est un bon score.
Titre: Les data centers de Googles
Posté par: ruchard5 le 29 mai 2013 à 13:41:56
Pour la taille, le DC de Council Bluffs fait ~350 metres de long.

On voit mieux sur carte: http://binged.it/174sJsI (http://binged.it/174sJsI)

De quoi mettre un paquet de serveur  - je dirais pourquoi pas ~320k!?!?
Titre: Les data centers de Googles
Posté par: BadMax le 29 mai 2013 à 13:52:31
Avec une température de 27°C en allée froide, je comprends mieux leur score. Sur qu'il vaut mieux des serveurs prévus pour.

Pour le nombre de serveurs, encore faudrait savoir la densité par rack. Pas évident à voir sur les photos.

Titre: Les data centers de Googles
Posté par: ruchard5 le 29 mai 2013 à 15:00:33
Les racks on 28 baies [1]. Je compte au premier plan [2] 12 racks (lumière bleue), 24 (jaune), 24 (vides) et 12 (jaune), ce qui fait 72 racks. Je ne pense pas que cela fasse une demie largeur du bâtiment, mais soyons conservateur.

Pour la longeur c'est plus difficile, mais on compte 10 allée (avec hot aisle) sans rentrer vraiment dans la profondeur.

Donc dire qu'il y a 40 allées de 72 baies sur un demi halle me semblent une estimation timide.

Mais cela nous fait quand même 40 x 72 x 28 = 80 640 baies, sur 1/2 hall. Donc x4 ca donne ~320k baies.

[1] (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_IDI_020.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_IDI_020.jpg)

[2] (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_CBF_009.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_CBF_009.jpg)
Titre: Les data centers de Googles
Posté par: octal le 29 mai 2013 à 16:01:25
GÉANT MERCI POUR CETTE DÉCOUVERTE  ;)
Titre: Les data centers de Googles
Posté par: kgersen le 29 mai 2013 à 16:15:45
Pour ceux qui veulent savoir comment sont utilisé ces datacenters, voir la présentation suivante:

(cliquez sur la miniature ci-dessous - le document est au format PDF - page 5 à 20, après ça devient plus 'logiciel')
(https://lafibre.info/images/datacenter/200910_google_large_distributed_systems.jpg) (https://lafibre.info/images/datacenter/200910_google_large_distributed_systems.pdf)

On voit clairement que l'unité de base c'est le cluster, le groupe de 24 (ou 48?) racks de forme rectangulaire tel qu'on voit sur la photo [2] plus haut.

Ca date un peu (octobre 2009) mais ça explique bien pourquoi ils ont choisi d'utiliser du matériel 'pas cher et standard' (cpu middle gamme, disques sata) plutôt que des serveurs chers spécifiques pour DC comme on trouve dans les DC plus traditionnels.

Il faut dire aussi que les DCs de Google ne servent qu'aux services Google et a leur offre 'cloud' qui est a un niveau logiciel plus haut que les autres (bien qu'ils aient aussi une offre de location de VMs plus traditionnelle). Difficile donc de comparer ca avec un DC qui offre de la coloc ou du dédié par exemple.

Titre: Les data centers de Googles
Posté par: ruchard5 le 29 mai 2013 à 22:43:18
Pour l'offre VM "traditionnel", nommement le Google Compute Engine (GCE), on est sur du Linux sous KVM (Kernel Based Virtual Machine), dans les infrastructures Google.

Il y a un démo très intéressante d'un cluster de 600,000 coeur (!!!) faite lors de l'annonce de GCE durant la conférence IO 2012:

Google I/O 2012 - Urs Hoelzle's Keynote on Google Cloud Platform (https://www.youtube.com/watch?v=IheEApKdgC8#ws)
Titre: Les data centers de Googles
Posté par: bedou974 le 29 mai 2013 à 23:47:12
J'aime bien les disques dur HS qui sont quand meme percé au milieu pour etre sur qu'aucunes donnée ne puisse être récup  :)
Titre: Les data centers de Googles
Posté par: ZmK le 30 mai 2013 à 09:17:30
dommage de ne pas avoir les légendes sous les photos ;-)
https://www.google.com/about/datacenters/gallery/ (https://www.google.com/about/datacenters/gallery/) ^^

le "streetview": https://www.google.com/about/datacenters/inside/streetview/ (https://www.google.com/about/datacenters/inside/streetview/) ;-)
Titre: Les data centers de Googles
Posté par: ruchard5 le 30 mai 2013 à 10:42:07
Ça peut se faire . Mais je dois avouer que comme introduction j'ai préféré mettre en valeur la matière première: de très jolies images :D.

En attendant, voici une petite aide pour décrypter les photos par url (qui contiennent les codes des datacentres):

CBF:: Council Bluffs, IOWA
DLS:: The Dalles, OREGON
GBL:: St Ghislain, BELGIUM
IDI:: Douglas County, GEORGIA
LNR:: Lenoir, NORTH-CAROLINA
LPP:: Hamina, FINLAND
MNK:: Berkeley County, SOUTH-CAROLINA
PRY:: Mayes County, OKLAHOMA
Titre: Les data centers de Googles
Posté par: ruchard5 le 30 mai 2013 à 12:15:41
Coucil Bluffs, Iowa

Les arrivées vidéo satellites pour les offres Google Fibre (Gigabit + TV)  (https://fiber.google.com/about/) se font sur se site ou elle sont ensuite router vers les PoP Google Fibre (Kansas City Mo / Ks pour l'instant):
(https://lafibre.info/images/datacenter/201305_datacenter_google_mini_CBF_002.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_CBF_002.jpg)  (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_CBF_003.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_CBF_003.jpg)

Ce data centre d'approximativement 350 x 60 mètre est le troisième plus large, derrière Douglas County et St Ghislain (~380x60m). On peut se rendre compte de la longueur du site ici.
(https://lafibre.info/images/datacenter/201305_datacenter_google_mini_CBF_025.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_CBF_025.jpg)  (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_CBF_018.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_CBF_018.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_CBF_005.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_CBF_005.jpg)

Dans le data centre les serveurs sont mis dans des baies utilisant des "hot huts" - une hot aisle avec les équipement de refroidissement au plus pres des serveurs qui retourne un air rafraîchit directement dans le halle:
(https://lafibre.info/images/datacenter/201305_datacenter_google_mini_CBF_009.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_CBF_009.jpg)   (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_CBF_013.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_CBF_013.jpg)

Une salle de routage. On semble distinguer des équipements Infinera (DWDM) et Juniper, même si Google utilise ses propres switch router (128 x 10GE) depuis 2010 pour ses réseaux distant (et certainement pour les réseaux interne au data centres):
(https://lafibre.info/images/datacenter/201305_datacenter_google_mini_CBF_019.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_CBF_019.jpg)

Un Googler au travail: avec toute l'infrastructure hors IT (réseau électrique et humide) la maintenance ou les ameliorations / amenagements sont très importants:
(https://lafibre.info/images/datacenter/201305_datacenter_google_mini_CBF_020.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_CBF_020.jpg)
Titre: Les data centers de Googles
Posté par: ruchard5 le 30 mai 2013 à 16:45:40
The Dalles, Oregon

Ceci est le premier data centre construit par Google, en 2008. On peux voir que la hauteur des bâtiments limites de volume d'air a l’intérieur des data halls, alors que les tours de refroidissement sont plus hautes, donnant l'impression de voir deux "pétrolier" échouer sur les berges de la rivière Columbia.

La plomberie sous les tours de refroidissement suit un code de couleur qui rends l'ensemble très jolie: Rouge pour les circuits chaud, Bleue pour les circuits froid, Vert et Jaune pour les échangeurs thermique et groupes de refroidissement.

(https://lafibre.info/images/datacenter/201305_datacenter_google_mini_DLS_002.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_DLS_002.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_DLS_006.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_DLS_006.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_DLS_008.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_DLS_008.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_DLS_021.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_DLS_021.jpg)

(https://lafibre.info/images/datacenter/201305_datacenter_google_mini_DLS_007.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_DLS_007.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_DLS_013.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_DLS_013.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_DLS_019.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_DLS_019.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_DLS_015.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_DLS_015.jpg)
Titre: Les data centers de Googles
Posté par: ruchard5 le 30 mai 2013 à 17:21:45
St Ghislain, Belgique

Google a investit sur le site de St Ghislain à partir de 2007 (250 million d'euro) et construit en ce moment même une extension pour 300 millions de plus:

http://www.rtbf.be/video/detail_di-rupo-visite-le-datacenter-de-google-a-saint-ghislain?id=1814191 (http://www.rtbf.be/video/detail_di-rupo-visite-le-datacenter-de-google-a-saint-ghislain?id=1814191)

St Ghislain est un site sans refroidisseurs (chillers) grâce aux faibles variations de température (qui ne sont pas souvent trop chaude). De plus Google se fournit en eau dans un canal a proximité, ce qui leur permet de ne pas dépendre du système d'eau publique (potable)  grace a leur usine de traitement des eaux:

Google data center water treatment plant (https://www.youtube.com/watch?v=nPjZvFuUKN8#)

(https://lafibre.info/images/datacenter/201305_datacenter_google_mini_GBL_001.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_GBL_001.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_GBL_009.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_GBL_009.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_GBL_010.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_GBL_010.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_GBL_018.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_GBL_018.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_GBL_019.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_GBL_019.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_GBL_022.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_GBL_022.jpg)
Titre: Les data centers de Googles
Posté par: kgersen le 30 mai 2013 à 18:55:53
J'ai 'maper' les batiments des DC sur MapsEngine ici: http://mapsengine.google.com/map/view?mid=zUFNNGDtrepc.kreW74DOiigg (http://mapsengine.google.com/map/view?mid=zUFNNGDtrepc.kreW74DOiigg) avec mesures faites avec l'outils de mesure de Google Maps. (zoomer a fond sur un puis passer de l'un a l'autre dans la liste, changer le fond de carte au besoin).
Les emplacements des DC de Berkeley County et Hamina ne sont pas officiels Google mais un recoupement très probable d’après des infos et des photos.

Les mesures en mètres (la feuille de calcul en live (https://docs.google.com/spreadsheet/ccc?key=0Apma-el6j-bDdGt2VTM4NktHaVdaZ1FaeWRMejNRcVE&usp=sharing)):
(http://i.imgur.com/CmTXook.png)

Ce sont des mesures approximatives de la surface de chaque batiment. Ce n'est pas la surface intérieure réellement disponible mais un plafond probable. Le DC de Douglas est vraiment gros ...
Titre: Les data centers de Googles
Posté par: ruchard5 le 30 mai 2013 à 22:38:36
Les emplacements des DC de Berkeley County et Hamina ne sont pas officiels Google mais un recoupement très probable d’après des infos et des photos.

Le recoupement est bon, il n'y a pas de doute à avoir ;).

Pour le total, tu peux rajouter le deuxième data centre a Lenoir, qui fait aussi approximativement 250 x 70 mètre, soit 17,500 mètre carre de plus. Même si on ne peux pas savoir comment l'espace est utilise il ne fait _aucun_ doute que Google maximise son immobilier informatique (pour l'informatique).
Titre: Les data centers de Googles
Posté par: ruchard5 le 30 mai 2013 à 23:36:14
Douglas County, Géorgie

Comme kgersen (https://lafibre.info/profile/kgersen/) disais plus haut, Douglas County (IDI) est très impressionnant, avec plus de 40,000 m2 de surface extérieur.

La preuve par l'image: les tours de refroidissement, que l'on a en gros plan sur l' images 2, sont au fond en tout petit sur la première, alors que le premier plan ne dévoile qu'une partie de la largeur du bâtiments - puisqu'il y a trois tours de refroidissement a chaque extrémité.

Pour finir sur le coté mastodonte, image 4, nous avons une vu intérieur sur la _largeur_ du centre.

Au niveau des équipements informatique, on peut voir précisèment sur l'image 9, outre le faut plancher, les détails des serveurs de stockage (GFS, Colossus ou autre) a gauche:
Ce qui nous donne 14 serveurs par rack. Sachant qu'un serveur standard a 2 disque de 1 TO, combien de disque peuvent ils mettre sur une baie? Puisqu'un cable SATA peut connecter 5 disques (comme sur les storage pods de Backblaze (http://blog.backblaze.com/2009/09/01/petabytes-on-a-budget-how-to-build-cheap-cloud-storage/) cela nous fait donc 10 TO de disponible (Google utilisant des replicas sur plusieurs serveurs plutôt qu'une redondance par RAID) ou plus (si ils utilisent des disque de 2 ou 4 TO).

Sur un rack, on arrive quand même a un total de 140 TO, soit un peu plus de 7 rack pour 1 Peta-octet.

(https://lafibre.info/images/datacenter/201305_datacenter_google_mini_IDI_001.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_IDI_001.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_IDI_003.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_IDI_003.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_IDI_012.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_IDI_012.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_IDI_014.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_IDI_014.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_IDI_015B.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_IDI_015B.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_IDI_017.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_IDI_017.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_IDI_018.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_IDI_018.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_IDI_020.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_IDI_020.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_IDI_022.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_IDI_022.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_IDI_023B.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_IDI_023B.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_IDI_025.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_IDI_025.jpg)
Titre: Les data centers de Googles
Posté par: vivien le 31 mai 2013 à 00:07:00
Merci pour toutes ces infos.

Comment relier 5 disques SATA sur un même connecteur ?

Il ne faut pas des disques spécifiques ?
Titre: Les data centers de Googles
Posté par: ruchard5 le 31 mai 2013 à 00:33:16
Voici un extrait de la documentation Backblaze précédemment référencé [1] (a noter que leur storage pods sont a 180 TO avec la version 3.0 [2]):

The SATA wiring diagram is seen below.

(http://blog.backblaze.com/wp-content/uploads/2009/08/backblaze-storage-pod-sata-cable-wiring-diagram.jpg)

The Intel Motherboard has four SATA cards plugged into it: three SYBA two-port SATA cards and one Addonics four-port card. The nine SATA cables connect to the top of the SATA cards and run in tandem with the power cables. All nine SATA cables measure 36 inches and use locking 90-degree connectors on the backplane end and non-locking straight connectors into the SATA cards.

A note about SATA chipsets:

Each of the port multiplier backplanes has a Silicon Image SiI3726 chip so that five drives can be attached to one SATA port.

Each of the SYBA two-port PCIe SATA cards has a Silicon Image SiI3132, and the four-port PCI Addonics card has a Silicon Image SiI3124 chip. We use only three of the four available ports on the Addonics card because we have only nine backplanes. We don’t use the SATA ports on the motherboard because, despite Intel’s claims of port multiplier support in their ICH10 south bridge, we noticed strange results in our performance tests. Silicon Image pioneered port multiplier technology, and their chips work best together.

[1] http://blog.backblaze.com/2009/09/01/petabytes-on-a-budget-how-to-build-cheap-cloud-storage/ (http://blog.backblaze.com/2009/09/01/petabytes-on-a-budget-how-to-build-cheap-cloud-storage/)
[2] http://blog.backblaze.com/2013/02/20/180tb-of-good-vibrations-storage-pod-3-0/ (http://blog.backblaze.com/2013/02/20/180tb-of-good-vibrations-storage-pod-3-0/)
Titre: Les data centers de Googles
Posté par: ruchard5 le 31 mai 2013 à 00:55:07
Lenoir, Georgie

La salle réseau, image 1, nous offre une bonne vue sur les équipements actifs, avec 8 switch-routeurs au premier plan, dont 4 sont en attente. Ceci est tout a fait compréhensible, vu que les coûts d’équipements réseau chez Google se situe principalement au niveau des cartes d'interface et des transmetteurs optique (étant donnes que leurs switch router sont fait "maison"). Au milieu de l'image on voit les répartiteurs de fibres, le coeur du réseau Google.

Pour information, le premier data centre Google (un hangar en location avec 45 containers) en 2005 contenait ~45,000 serveurs [1].

Donc la question du soir: comment feriez vous un réseau pour connecter tout cela au monde?
Et comment faire un réseau moderne avec des data centre pouvant acceuillir plusieurs centaines de milliers de machine?

(https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LNR_003.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LNR_003.jpg)  (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LNR_015.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LNR_015.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LNR_028.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LNR_028.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LNR_029.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LNR_029.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LNR_011.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LNR_011.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LNR_026.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LNR_026.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LNR_030.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LNR_030.jpg)

[1]
Google container data center tour (https://www.youtube.com/watch?v=zRwPSFpLX8I#ws)
Titre: Les data centers de Googles
Posté par: BadMax le 31 mai 2013 à 09:02:22
C'est pas tellement la problématique du nombre qui est gênante. La question est plutôt à quel débit entre les serveurs ?

S'il faut garantir du 10Gb, voir même du "simple" 1gb en tout point, ça devient un peu plus coton.

Titre: Les data centers de Googles
Posté par: ruchard5 le 31 mai 2013 à 09:35:48
Les deux sont liée, non?

Par example, si tu garantis 10 Mbps WAN par serveur (1%), avec 10,000 serveur tu as un WAN  de 100,000 Mbps -> 100G. Si tu as 125,000 machines dans les même conditions, comment tu architectecture un réseau pour 1,250,000 Mbps -> 1250G? Avec combien de switch et port 10G?

Dans le document [1] et via Google Research (http://research.google.com) [2] on sait que les racks sont connectés a des TOR (Top-of-Rack switch), eux même connecté a un cluster switch. Mais c'est après le cluster switch (CS) que les choses deviennent intéressantes (même si au niveau TOR-CS il reste des questions sur la redondance, l’agrégation de liens, ou même le nombre de rack par TOR).

Google parle alors d'interconnect fabric [2], et il faut recherche un pour voir ce que cela implique - Google n'utilisant pas de topology de type butterfly [3] mais des topologies avancée de type flattened butterfly ou dragon fly [4].

Le but de ses topologies est d'utiliser des switchs avec une grande quantité de port (high radix, 128 x 10GE) pour simplifier l’interconnexion horizontal (de CS a CS) et vertical (de CS au cœur de réseau WAN).

[1]
(https://lafibre.info/images/datacenter/200910_google_large_distributed_systems.jpg) (https://lafibre.info/images/datacenter/200910_google_large_distributed_systems.pdf)
[2] http://static.googleusercontent.com/external_content/untrusted_dlcp/research.google.com/fr//pubs/archive/36863.pdf (http://static.googleusercontent.com/external_content/untrusted_dlcp/research.google.com/fr//pubs/archive/36863.pdf)
[3] http://static.googleusercontent.com/external_content/untrusted_dlcp/research.google.com/fr//pubs/archive/36740.pdf (http://static.googleusercontent.com/external_content/untrusted_dlcp/research.google.com/fr//pubs/archive/36740.pdf)
[4] http://static.googleusercontent.com/external_content/untrusted_dlcp/research.google.com/fr//pubs/archive/34926.pdf (http://static.googleusercontent.com/external_content/untrusted_dlcp/research.google.com/fr//pubs/archive/34926.pdf)
Titre: Les data centers de Googles
Posté par: BadMax le 31 mai 2013 à 10:24:35
C'est plus simple de gérer du WAN que du LAN. Si tu brides à 10Mb par serveur, un seul serveur ne pourra jamais saturer un uplink 1Gb. De plus en WAN, tu n'as pas un seul et unique point de sortie mais plusieurs avec chacun des liens 10Gb en agrégat, voire du 40Gb et du 100Gb vu les moyens de Google. Tu auras plus le problème de trouver des peerings à de tels débits que de gérer des saturations sur ton réseau.

Ton archi ressemble à ça :
 - par baie : un ou plusieurs switches suivant la densité de serveurs et les besoins en redondance, les "Top-of-Rack". Ces switches seront de type à configuration fixe en 1U ou 2U
 - en fin de rangée (soit d'un seul coté soit des deux cotés) : tu récupéres les uplinks des switches ToR sur un ou deux switches modulaires de type chassis mais on peut aussi faire avec du "fixe"
 - tu regroupes tes rangées par zone vers plusieurs switches modulaires. Tu peux t'arreter là et t'en servir de coeur de réseau ou remonter encore vers un niveau au-dessus

Pour le type de liens à utiliser (1Gb, 10Gb, n x 1Gb, n x 10Gb, 40Gb, etc), tu fais en fonction du taux de contention et des burst possibles. Si tu n'as que 10Mb à garantir, c'est "facile". 1Gb ça devient plus dur.
Titre: Les data centers de Googles
Posté par: ruchard5 le 31 mai 2013 à 12:15:58
Google a 2 WAN: la partie ISP (connection vers leurs PoPs et points de peering) et la partie Interne pour la communication entre Data Centre (et entre clusters).

Cotée ISP Google est présent sur 71 point d’échange public [1] avec 1 971Gbps en IPv4 et 1 207Gbps disponible via IPv6 [2] (mais je ne doute pas que les réseaux IPv4 et IPv6 ne soient superposé), sachant qu'ils font aussi beaucoup de peering privée (via 77 facilities) on voit quand même l’échelle de leur partie ISP (qui représentait 6.4% du traffic internet total en 2010 [3])

Par contre, en interne a un data centre, il faut beaucoup plus que 10 Mbps puisque Google repose sur d’énormes cluster hautes performance (plusieurs milliers de machines) , et que les serveurs de type GFS sont connectés avec 2 voir 4 x 1 GE (et c'est pas pour la redondance mais bien pour les flux).

(https://lafibre.info/images/datacenter/201305_datacenter_google_mini_IDI_022.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_IDI_022.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_PRY_20.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_PRY_20.jpg)

[1] https://www.peeringdb.com/private/participant_view.php?id=433&peerParticipantsPublics_mOrder=Sorter_speed&peerParticipantsPublics_mDir=DESC (https://www.peeringdb.com/private/participant_view.php?id=433&peerParticipantsPublics_mOrder=Sorter_speed&peerParticipantsPublics_mDir=DESC)
[2] https://docs.google.com/spreadsheet/ccc?key=0Ah50T8rsbU3rdF9BMjlpRzhLSTg5bDBPc1llUVlXcGc&usp=sharing (https://docs.google.com/spreadsheet/ccc?key=0Ah50T8rsbU3rdF9BMjlpRzhLSTg5bDBPc1llUVlXcGc&usp=sharing)
[3] http://ddos.arbornetworks.com/2010/10/google-breaks-traffic-record/ (http://ddos.arbornetworks.com/2010/10/google-breaks-traffic-record/)
[4] http://static.googleusercontent.com/external_content/untrusted_dlcp/research.google.com/de//archive/gfs-sosp2003.pdf (http://static.googleusercontent.com/external_content/untrusted_dlcp/research.google.com/de//archive/gfs-sosp2003.pdf)
Titre: Les data centers de Googles
Posté par: vivien le 31 mai 2013 à 13:56:01
Regardez sur la photo ci-dessous en zoomant : on voit bien la présence de 4 ports 1 Gb/s cuivre par serveur :

(https://lafibre.info/images/datacenter/201305_datacenter_google_mini_PRY_20.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_PRY_20.jpg)
Titre: Les data centers de Googles
Posté par: BadMax le 31 mai 2013 à 14:48:03
En fait, on voit pleins de détails sur cette dernière :

Et amène des questions : où sont les uplinks des switches ?! pas de prise à main à distance ? à quoi servent les blocs d'alimentations tout en haut qui ont des interfaces RJ-45 ? des STS ?
Titre: Les data centers de Googles
Posté par: BadMax le 31 mai 2013 à 16:11:01
Je viens de voir que la distribution électrique est en triphasée :
 - des étiquettes Bleu, Rouge et Jaune indiquent la phase
 - chaque PDU est étiqueté pour indiquer quelle prise utilise quelle phase
 - tout en haut, au-dessus des armoires et des passages de cables, on retrouve ces couleurs sur les cables sortant d'armoires électriques de distribution (avec un petit panneau de disjoncteurs juste en-dessous).
Titre: Les data centers de Googles
Posté par: kgersen le 31 mai 2013 à 19:21:08
En fait, on voit pleins de détails sur cette dernière :
  • les serveurs n'ont pas de boitiers
  • 4 connexions Gigabit (2x 2) avec des cables non-blindes (les connecteurs RJ-45 sont transparents)
  • ports USB inutilisés
  • 1x switch Gigabit 48 ports par rack
  • 2x onduleurs APC Back-UPS CS (pour les switches je pense)

Et amène des questions : où sont les uplinks des switches ?! pas de prise à main à distance ? à quoi servent les blocs d'alimentations tout en haut qui ont des interfaces RJ-45 ? des STS ?

Oui curieux pas d'uplink sur les switches. Photo prise en cours d'installation peut-etre ?

Le brassage est bizarre aussi:
je compte 4 switch 48 ports pour 3 baies de 14 "elements" (serveur+disques). Chaque element a 4 ports.
Je pensais qu'ils brassaient 1 element vers les 4 switchs mais a priori c'est pas le cas si on regarde la couleur des cables. voir les jaunes du premier rack par exemple: a priori les 4 ports arrivent au meme switch ... c'est curieux non ?

Autre question, les 'elements' ont donc 2 parties, en bas le cpu (ou les cpu?), les 4 ports Giga et a priori 2 ports SATA (cables plats oranges). En theorie on peut mettre jusqu'a 15 disques par port SATA mais la disons plutot 4 ou 5 (donc 8 ou 10 disques en haut)
Donc un element c'est en fait 2 serveurs avec chacun 2 ports ethernet et un port SATA ou c'est plus compliqué que ca.

car 4 ports pour un serveur ca fait beaucoup d'autant qu'ils brassent les 4 ports sur le meme switch...ou c'est pour avoir du burst a 4 Gb par serveur  et donc par disque...dans ce cas on qu'un seul cpu et 2 ports SATA dessus et 8 ou 10 disques derriere.

ou la photo est bidon pour embrouiller les chinois :p
Titre: Les data centers de Googles
Posté par: Leon le 31 mai 2013 à 19:30:25
Et amène des questions : où sont les uplinks des switches ?! pas de prise à main à distance ? à quoi servent les blocs d'alimentations tout en haut qui ont des interfaces RJ-45 ? des STS ?
Uplink des switches : certains switch ont leur connexion d'uplink à l'arrière, à côté de l'alimentation. Ici, on voit aussi de simples onduleurs certainement pour les switches.

Pour la prise en main à distance, désormais des serveurs le gèrent sans avoir besoin d'une carte réseau supplèmentaire.

Ce que tu appelle le bloc d'alimentation n'en n'est sans doute pas un, vu qu'il est alimenté par un câble tout petit. Je pense plutôt à un petit boitier de gestion, de mesure (température courant). Ou alors la gestion de la clim (ventilateur, débit). Ou alors une alim 48V pour un équipement 48V...
[EDIT]Après vérification, on voit sur la photo suivante qu'il y a 1 de ces boitiers par "ventilateur de clim", donc ça doit être ça!
https://lafibre.info/images/datacenter/201305_datacenter_google_CBF_009.jpg (https://lafibre.info/images/datacenter/201305_datacenter_google_CBF_009.jpg)[/EDIT]

On voit aussi les baies avec des roulettes, ce qui est quand même très rare...

Je suis également étonné que Google utilise encore des faux plancher, que beaucoup d'autres ont abandonné.

Leon.
Titre: Les data centers de Googles
Posté par: vivien le 31 mai 2013 à 19:54:32
Pour m'être penché sur la question, un serveur actuel (équipé eux aussi en standard de 4 connecteurs Ethernet) arrivent à streamer sans problème 4 Gb/s de trafic vers des milliers de clients. La limitation est plus au niveau des disques. Avec deux disques dur SATA et de la mémoire vive pour cacher ce qui est le plus utilisé, on arrive sans problème au 4 Gb/s (sans cache en RAM par contre c'est pas possible a moins d'avoir une belle lecture séquentielle ce qui n'est pas le cas en réalité).

Pour pouvoir agréger les ports et ne faire qu'un lien de 4 Gb/s, il faut mettre tous les câbles sur le même switch. Si on va plusieurs switch, c'est pour faire de la tolérance aux panne, pas du partage de charge.
Titre: Les data centers de Googles
Posté par: kgersen le 31 mai 2013 à 20:55:34
Pour pouvoir agréger les ports et ne faire qu'un lien de 4 Gb/s, il faut mettre tous les câbles sur le même switch. Si on va plusieurs switch, c'est pour faire de la tolérance aux panne, pas du partage de charge.

oui pour du NIC bonding classique car c'est fait au niveau Ethernet.

Mais on peut tres bien faire les 2 (tolérance et partage) au niveau plus haut (style IP failover).
J'aurais cru qu'ils faisaient ca la mais a priori c'est juste de l'aggregation Ethernet classique, ce qui a du sens si cette rangée de baies (voir tout le DC) est la que pour faire du GFS par exemple.
Titre: Les data centers de Googles
Posté par: kgersen le 31 mai 2013 à 21:45:11
Uplink des switches : certains switch ont leur connexion d'uplink à l'arrière, à côté de l'alimentation.
Je savais pas que ca existait des switches avec ports a l'arriere ... ca pose pas des problemes d'interferences avec l'alim et la ventil ?! et c'est pas trop pratique a brasser non plus.

Sinon l'uplink est peut-etre fait par de l'aggrégation de ports normaux.

Y'a un document de 120 pages (ouch) du VP infra de Google qui explique pas mal de chose. Lecture tres interesante, ca parle aussi de clims, d'alims, de ROI, etc.

(cliquez sur la miniature ci-dessous - le document est au format PDF)
(https://lafibre.info/images/datacenter/200909_the_datacenter_as_a_computer.jpg) (https://lafibre.info/images/datacenter/200909_the_datacenter_as_a_computer.pdf)

Pour le faux plancher y'a pas de cable dedans c'est juste pour l'air frais du cooling (cf page 54).
Titre: Les data centers de Googles
Posté par: ruchard5 le 31 mai 2013 à 21:54:58
Mais on peut tres bien faire les 2 (tolérance et partage) au niveau plus haut (style IP failover).
J'aurais cru qu'ils faisaient ca la mais a priori c'est juste de l'aggregation Ethernet classique, ce qui a du sens si cette rangée de baies (voir tout le DC) est la que pour faire du GFS par exemple.

Les clusters GFS / Colossus (la version GFS + 1) sont l’infrastructure de stockage, mais ils faut des cluster client pour lire , ecrire ou analyser les données.

Voici des stats de Google sur GFS en Octobre 2009 (il y a 4 ans!!!)

• 200+ clusters
• Many clusters of 1000s of machines
• Pools of 1000s of clients
• 4+ PB Filesystems
• 40 GB/s read/write load – (in the presence of frequent HW failures)
Titre: Les data centers de Googles
Posté par: BadMax le 02 juin 2013 à 10:22:21
Uplink des switches : certains switch ont leur connexion d'uplink à l'arrière, à côté de l'alimentation. Ici, on voit aussi de simples onduleurs certainement pour les switches.

Leurs switches sont de la marque Quantas. Il n'y a pas de connexion réseau à l'arrière (j'y ai pensé aussi en plus d'un éventuel cable de stack).

D'ailleurs ce modèle ne se fait plus.
Titre: Les data centers de Googles
Posté par: ruchard5 le 02 juin 2013 à 10:54:18
Hamina, Finland

Donc voici deux video Youtube:

https://www.youtube.com/watch?v=aFhlGgcU0To#ws (https://www.youtube.com/watch?v=aFhlGgcU0To#ws)

https://www.youtube.com/watch?v=VChOEvKicQQ#ws (https://www.youtube.com/watch?v=VChOEvKicQQ#ws)

(https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_001.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_001.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_004.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_004.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_007.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_007.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_009.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_009.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_014a.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_014a.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_016.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_016.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_017.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_017.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_019.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_019.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_021.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_021.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_027.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_027.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_030.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_030.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_023.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_023.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_024.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_024.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_026.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_026.jpg)  (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_012.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_012.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_LPP_013.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_LPP_013.jpg)
Titre: Les data centers de Googles
Posté par: ruchard5 le 02 juin 2013 à 12:13:06
Leurs switches sont de la marque Quantas. Il n'y a pas de connexion réseau à l'arrière (j'y ai pensé aussi en plus d'un éventuel cable de stack).

D'ailleurs ce modèle ne se fait plus.

Quel qu’eut été les offres public de Quantas il ne fait _aucun_ doute que Google n'utilise pas 4 x 48 GE switches pour interconnecter 3 x 4 x 14 servers uniquement entre eux.

En faits on peut plutôt penser que les switchs sont connecter vers les cluster switch via 2 x 10GE ou 4 x 10GE, puisqu'il y a clairement un besoin de haute capacité réseau à partir de ses serveurs.
Titre: Les data centers de Googles
Posté par: Leon le 02 juin 2013 à 14:07:10
Leurs switches sont de la marque Quantas. Il n'y a pas de connexion réseau à l'arrière (j'y ai pensé aussi en plus d'un éventuel cable de stack).

D'ailleurs ce modèle ne se fait plus.
Tu es certain qu'il n'y a pas d'uplink à l'arrière?
Regarde par exemple ce switch de la marque Quanta (que tu nous as donné), il a 4 ports SFP+ 10Gb/s à l'arrière.
http://www.quantaqct.com/en/01_product/02_detail.php?mid=30&sid=114&id=115&qs=61 (http://www.quantaqct.com/en/01_product/02_detail.php?mid=30&sid=114&id=115&qs=61)

Leon.
Titre: Les data centers de Googles
Posté par: Leon le 02 juin 2013 à 16:38:36
Bon, je me répond à moi même. Sur ces 2 photos, on voit des switch de baie placés verticalement, avec les connexion d'uplink à l'arrière du switch, donc orienté vers le haut.

(https://lafibre.info/images/datacenter/201305_datacenter_google_DLS_019_1.jpg)

(https://lafibre.info/images/datacenter/201305_datacenter_google_DLS_019_2.jpg)

C'est extrait de cette photo:
https://lafibre.info/images/datacenter/201305_datacenter_google_DLS_019.jpg (https://lafibre.info/images/datacenter/201305_datacenter_google_DLS_019.jpg)

Leon.
Titre: Les data centers de Googles
Posté par: BadMax le 02 juin 2013 à 19:05:15
Tu es certain qu'il n'y a pas d'uplink à l'arrière?
Regarde par exemple ce switch de la marque Quanta (que tu nous as donné), il a 4 ports SFP+ 10Gb/s à l'arrière.
http://www.quantaqct.com/en/01_product/02_detail.php?mid=30&sid=114&id=115&qs=61 (http://www.quantaqct.com/en/01_product/02_detail.php?mid=30&sid=114&id=115&qs=61)

Leon.

En effet, c'est toi qui as raison. Je m'étais basé sur un autre modèle de Quanta en 48x 1Gb qui n'avait pas d'uplinks à l'arrière mais deux alims.

Le modèle exact serait le Quanta LB4 :
http://cgi.ebay.fr/HP-Model-LB4-Quanta-48-Port-1-Gbps-Gigabit-Ethernet-Switch-100-240V-w-Rack-Ears-/261135956519?pt=US_Network_Switches&hash=item3cccea7a27 (http://cgi.ebay.fr/HP-Model-LB4-Quanta-48-Port-1-Gbps-Gigabit-Ethernet-Switch-100-240V-w-Rack-Ears-/261135956519?pt=US_Network_Switches&hash=item3cccea7a27)

Titre: Les data centers de Googles
Posté par: BadMax le 02 juin 2013 à 19:10:49
Bon, je me répond à moi même. Sur ces 2 photos, on voit des switch de baie placés verticalement, avec les connexion d'uplink à l'arrière du switch, donc orienté vers le haut.


Du coup, il n'y a que 2 uplinks 10Gb par switch. Par rapport au nombre de ports, ça fait pas beaucoup ce qui laisse supposer qu'il n'y a donc pas tant de trafic que cela.
Titre: Les data centers de Googles
Posté par: Leon le 02 juin 2013 à 19:48:34
Du coup, il n'y a que 2 uplinks 10Gb par switch. Par rapport au nombre de ports, ça fait pas beaucoup ce qui laisse supposer qu'il n'y a donc pas tant de trafic que cela.
J'ai l'impression que ça dépend des baies et des types de serveurs dans la baie.
On dirait que sur la première photo, chaque switch a 2 uplink, alors que sur la 2ieme, chaque switch en a 4. Mais les photos ne sont pas nettes...
Mais ce n'est qu'une impression. Ceci dit, 20Gb/s c'est déjà beaucoup!

Leon.
Titre: Les data centers de Googles
Posté par: vivien le 02 juin 2013 à 19:53:24
Effectivement, on dirait que c'est 4 x 10 Gb/s sur ces switchs :

(https://lafibre.info/images/datacenter/201305_datacenter_google_DLS_019_2.jpg)
Titre: Les data centers de Googles
Posté par: Leon le 02 juin 2013 à 20:50:17
Et sur ces autres photos, on voit d'autres techno de lien entre switch et serveurs. Je pense que c'est du 10Gb/s CX4. Les serveurs ont alors une carte d'extension, que l'on voit verticale.

(https://lafibre.info/images/datacenter/201305_datacenter_google_PRY_21_1.jpg)

(https://lafibre.info/images/datacenter/201305_datacenter_google_PRY_21_2.jpg)

(https://lafibre.info/images/datacenter/201305_datacenter_google_PRY_21_3.jpg)

Leon.
Titre: Les data centers de Googles
Posté par: vivien le 02 juin 2013 à 21:16:29
La photo source :

(https://lafibre.info/images/datacenter/201305_datacenter_google_mini_PRY_21.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_PRY_21.jpg)
Titre: Les data centers de Googles
Posté par: ruchard5 le 02 juin 2013 à 21:40:35
Ce qui nous donne 14 serveurs par rack. Sachant qu'un serveur standard a 2 disque de 1 TO, combien de disque peuvent ils mettre sur une baie? Puisqu'un cable SATA peut connecter 5 disques (comme sur les storage pods de Backblaze (http://blog.backblaze.com/2009/09/01/petabytes-on-a-budget-how-to-build-cheap-cloud-storage/) cela nous fait donc 10 TO de disponible (Google utilisant des replicas sur plusieurs serveurs plutôt qu'une redondance par RAID) ou plus (si ils utilisent des disque de 2 ou 4 TO).
J'ai trouvé la réponse a cet question (pas sur la taille, mais sur la quantité de disque) grace a une autre video Youtube de CBS [vidéo supprimée] :

Les baies de stockage on 2x6 disques. Donc au moins 12 TO, voir 24 TO ou plus.

Dans cette vidéo on apprends aussi qu'il y a 55,200 serveurs a Lenoir, alors que les DC semble plein au 7/8eme, pour une surface externe de 11,700 m2.

(https://lafibre.info/images/datacenter/201210_google_data_center_cbs_1.jpg)

(https://lafibre.info/images/datacenter/201210_google_data_center_cbs_2.jpg)

(https://lafibre.info/images/datacenter/201210_google_data_center_cbs_3.jpg)

(https://lafibre.info/images/datacenter/201210_google_data_center_cbs_4.jpg)
Titre: Les data centers de Googles
Posté par: BadMax le 02 juin 2013 à 22:51:50
Sur la dernière photo, vous avez vu la largeur de la carte mère ???

C'est moi ou c'est plus large que du 19" ?!

Titre: Les data centers de Googles
Posté par: BadMax le 02 juin 2013 à 22:57:18
Et sur ces autres photos, on voit d'autres techno de lien entre switch et serveurs. Je pense que c'est du 10Gb/s CX4. Les serveurs ont alors une carte d'extension, que l'on voit verticale.

A la réflexion, je pense que c'est de l'infiniband au sens large c'est à dire qui transporte LAN et SAN (FCoE ou natif FC ?). Google en faisait la promotion en 2010 : http://www.datacenterstocks.com/2010/06/google-network-architects-endorse.html (http://www.datacenterstocks.com/2010/06/google-network-architects-endorse.html)

Titre: Les data centers de Googles
Posté par: ruchard5 le 02 juin 2013 à 23:24:15
Je pense que DataCenterStock fait référence a ce document (mais il n'est pas sourcé):

(cliquez sur la miniature ci-dessous - le document est au format PDF)
(https://lafibre.info/images/datacenter/201004_energy_proportional_datacenter_networks.jpg) (https://lafibre.info/images/datacenter/201004_energy_proportional_datacenter_networks.pdf)

Si c'est le cas alors ils se trompent - Google ne parle pas d' Infiniband comme d'une solution mais comme d'un exemple de spécification définissant des Liens a gamme dynamic (Link's Dynamic Range):

Extrait de la Page 5 du document (page 342 de la publication original):

"One good example of dynamic channel range is the InfiniBand architectural specification, which defines multiple operational data rates (see Table 2). Figure 5 illustrates the normalized dynamic range of an off-the-shelf InfiniBand switch available today, where it is possible to manually adjust the link rates corresponding to Table 2.".
Titre: Les data centers de Googles
Posté par: Leon le 03 juin 2013 à 07:01:32
Effectivement, c'est surement de l'infiniband. D'autres articlent en parlent.
http://www.cablinginstall.com/articles/2010/06/google-says-infiniband.html (http://www.cablinginstall.com/articles/2010/06/google-says-infiniband.html)

Après, comme infiniband et Ethernet 10Gb/s peuvent tous les 2 utiliser des connecteurs CX4, c'est impossible de choisir entre les 2 juste avec des photos!

Leon.
Titre: Les data centers de Googles
Posté par: BadMax le 03 juin 2013 à 15:20:28
Ce qui me fait pencher pour de l'infiniband est qu'il est plus facile de trouver un switch de ce protocole en connectique CX4 qu'un switch Ethernet en CX4. En Ethernet, en cuivre, il y a une préférence pour les cables DAC/DirectAttach.

Mais ce n'est que supputation :)
Titre: Les data centers de Googles
Posté par: ruchard5 le 03 juin 2013 à 17:38:20
Honnêtement je vois pas Google passer sur une infrastructure mixed Ethernet / Infiniband. Le passage 4 x 1 GE -> 10GE est compréhensible.

Vers l'infiniband? Beaucoup moins d'un point de vu opérationnel et expertise interne etc. Surtout si c'est juste pour le top-of-rack.

Titre: Les data centers de Googles
Posté par: ruchard5 le 04 juin 2013 à 09:58:27
Berkeley County, South Carolina

(https://lafibre.info/images/datacenter/201305_datacenter_google_mini_MNK_004.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_MNK_004.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_MNK_011.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_MNK_011.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_MNK_020.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_MNK_020.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_MNK_021b.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_MNK_021b.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_MNK_022.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_MNK_022.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_MNK_002.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_MNK_002.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_MNK_003.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_MNK_003.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_MNK_005.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_MNK_005.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_MNK_006.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_MNK_006.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_MNK_019.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_MNK_019.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_MNK_024.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_MNK_024.jpg)
Titre: Les data centers de Googles
Posté par: BadMax le 04 juin 2013 à 10:01:47
Tiens ils ont du Sun pour le robot de sauvegarde. Doit y en avoir d'autres car il me parait bien "petit" vu la taille de Google. Ou alors ils sont très optimistes sur les sauvegardes et font de la dedup à fond.
Titre: Les data centers de Googles
Posté par: Leon le 04 juin 2013 à 21:10:31
Moi, il y a un truc que je ne comprends pas.

Pourquoi ils mettent des faux planchers? On voit bien sur plein de photos que les clims (échangeurs) sont directement au plafond des "allées chaudes".
(https://lafibre.info/images/datacenter/201305_datacenter_google_mini_MNK_019.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_MNK_019.jpg)
Donc il est peu probable que les faux planchers soient choisis pour la circulation de l'air. Pour les chemins de câble non plus, puisqu'on voit que tout est en hauteur: alimentation électrique, et fibre. Circulation d'eau? Si oui, c'est vraiment étrange. s'embêter à mettre des faux planchers juste pour ça, ça ne me parait pas logique.

Leon.
Titre: Les data centers de Googles
Posté par: ruchard5 le 04 juin 2013 à 22:24:13
Tiens ils ont du Sun pour le robot de sauvegarde. Doit y en avoir d'autres car il me parait bien "petit" vu la taille de Google. Ou alors ils sont très optimistes sur les sauvegardes et font de la dedup à fond.

Va voir a Lenoir - il y a 6 ou 7 robots - derrière la salle réseau. Pour 55,200 machines. Ca fait combien d'archivage sur un robots?

https://www.google.com/about/datacenters/inside/streetview/ (https://www.google.com/about/datacenters/inside/streetview/)
Titre: Les data centers de Googles
Posté par: ruchard5 le 04 juin 2013 à 22:28:19
Moi, il y a un truc que je ne comprends pas.

Pourquoi ils mettent des faux planchers?
...
Circulation d'eau? Si oui, c'est vraiment étrange. s'embêter à mettre des faux planchers juste pour ça, ça ne me parait pas logique.

Leon.

Ca parait pas logique, je suis d'accord, mais on ne connais pas la taille des faux plancher. Donc circulation d'eau, oui, plus isolation du sol en béton.

Ce qui permet certainement un nettoyage plus efficace, parce que la propretés est super important (dixit un des responsables du DC de St Ghislain).
Titre: Les data centers de Googles
Posté par: vivien le 04 juin 2013 à 22:49:47
C'est pas facile de nettoyer dans un faux plancher...

Par contre en cas de fuite d'eau, il y a moins de pb que si cela passe en hauteur.
Titre: Les data centers de Googles
Posté par: ruchard5 le 04 juin 2013 à 22:56:01
Oui mais c'est plus facile d'entretenir la surface d'un faux plancher qu'un sol en béton, non?
Titre: Les data centers de Googles
Posté par: ruchard5 le 04 juin 2013 à 22:56:43
Mayes County, Oklahoma

Un deuxième Data centre est prévu pour Pryor. Les cuves visible sur l'image 1 sont la pour l'extension, ou comme stock pour le data centre existant?

(https://lafibre.info/images/datacenter/201305_datacenter_google_mini_PRY_01.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_PRY_01.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_PRY_03.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_PRY_03.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_PRY_06.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_PRY_06.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_PRY_07.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_PRY_07.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_PRY_13.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_PRY_13.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_PRY_14.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_PRY_14.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_PRY_16.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_PRY_16.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_PRY_18.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_PRY_18.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_PRY_20.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_PRY_20.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_PRY_21.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_PRY_21.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_mini_PRY_22.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_PRY_22.jpg)
Titre: Les data centers de Googles
Posté par: ruchard5 le 04 juin 2013 à 23:18:15
Bon, pour en finir un peu avec les data centres Google, voici quelques éléments concernant le réseau distant:
Au sujet des Google switchs, je ne pense pas que Google ait développer un switch pour déployer quelques boxes par data centre (les salles réseau sont très petites pour la tailles des data floors) - donc je pense qu'ils les utilisent comme cluster switch, pour connecter les TORs et former _the_ interconnect fabric (et avec 128x10GE on peut faire de jolie flattened butterflies ou dragon flies).
(https://lafibre.info/images/datacenter/201206_google_core_switches.jpg)

OpenFlow @ Google - Urs Hoelzle, Google (https://www.youtube.com/watch?v=VLHJUfgxEO4#ws)

(https://lafibre.info/images/datacenter/201206_google_gwan.png)

(cliquez sur la miniature ci-dessous - le document est au format PDF)
(https://lafibre.info/images/datacenter/201206_google_network_openflow.jpg) (https://lafibre.info/images/datacenter/201206_google_network_openflow.pdf)
Titre: Les data centers de Googles
Posté par: Leon le 05 juin 2013 à 06:53:00
Oui mais c'est plus facile d'entretenir la surface d'un faux plancher qu'un sol en béton, non?
Il y a béton et béton. Il existe à la fois des bétons avec un surfaçage très lisses, et il existe aussi des revêtements  que l'on mets sur le béton, et qui sont très lisses et très résistants. C'est souvent ce qu'il y a dans les usines, ateliers. Ca coute beaucoup moins cher et c'est beaucoup moins complexe à gérer que du faux plancher. Encore une fois, plusieurs acteurs de datacenter ont abandonné les faux planchers : Facebook, OVH, etc...

L'explication de Vivien (sensibilité aux fuites d'eau) est peut-être la bonne, mais ça reste surprenant.

Leon.
Titre: Les data centers de Googles
Posté par: vivien le 05 juin 2013 à 07:28:45
A noter un nouveau point de présence en France pour Google pour monter des PNI :

Après :
- SFR Netcenter Paris (Courbevoie 92)
- Telehouse 2 Voltaire (Paris 75)

2011 :
- SFR Netcenter (Marseille 13)
Google a pour ambition que Marseille soit le point de peering pour l’Afrique du nord (les problèmes politiques font qu'il est difficile de mettre un GIX international en Afrique)

2013 :
- Interxion Paris 2 (Aubervilliers 93)

Je me demande dans quels POP ils ont des serveurs de cache et dans quels pop ils ont uniquement de la trans.
TH2 par exemple cela semble être uniquement de la trans.
Titre: Les data centers de Googles
Posté par: ruchard5 le 06 juin 2013 à 09:26:55
Je me demande dans quels POP ils ont des serveurs de cache et dans quels pop ils ont uniquement de la trans.
TH2 par exemple cela semble être uniquement de la trans.
Je pense qu'ils mettent des gros PoP en place est qu'ensuite ils rajoutent d'autre PoP en formant un topology en étoile (hub and spoke). Pour la France je parierais que le NetCenter LDCom SFR de CBV et que TH2, Marseille et ne sont que des point de routages.

D'autant que Paris est un point du cœur de réseau Google interne, ou ils ont de la transmission vers Dublin, Hamina, Lenoir et St Ghislain.

Sinon, d'u point de vue factuel je viens de me brancher sur Youtube pour regarder la derniere video de Psy et IPvFoo me permet de voir une pair nom/adresse qui sortent de l'ordinaire:

www.youtube.com (https://www.youtube.com)2a00:1450:400c:c06::5d
apis.google.com2a00:1450:4007:809::1005
csi.gstatic.com2404:6800:4006:804::100f
gp3.googleusercontent.com2a00:1450:4007:809::100a
i2.ytimg.com2a00:1450:4007:809::1001
i3.ytimg.com2a00:1450:4007:809::1005
i4.ytimg.com2a00:1450:4007:809::100e
lh3.googleusercontent.com2a00:1450:4007:806::100b
plus.google.com2a00:1450:4007:809::1009
r11---sn-25ge7n7l.c.youtube.com2a00:1450:4007:11::10
s.youtube.com2a00:1450:4007:809::1005
s.ytimg.com2a00:1450:4007:809::1006
s2.youtube.com2a00:1450:4007:809::1000
ssl.gstatic.com2a00:1450:4007:806::100f
www.youtube-nocookie.com (https://www.youtube-nocookie.com)2a00:1450:400c:c06::5b

Un petit traceroute nous donne (example vers www.youtube.com (https://www.youtube.com)):

 3  th2-crs16-1.intf.routers.proxad.net (2a01:e00:2:e::1)  16.205 ms  16.548 ms  16.503 ms
 4  cbv-9k-1-be1000.intf.routers.proxad.net (2a01:e00:2:c::2)  16.257 ms  15.991 ms  15.748 ms
 5  2001:4860:1:1:0:3022:0:5 (2001:4860:1:1:0:3022:0:5)  84.043 ms  74.871 ms  74.142 ms
 6  2001:4860::1:0:4a3a (2001:4860::1:0:4a3a)  23.878 ms  16.456 ms  15.755 ms
 7  2001:4860::8:0:3df5 (2001:4860::8:0:3df5)  16.993 ms  17.483 ms  18.901 ms
 8  2001:4860::8:0:507c (2001:4860::8:0:507c)  21.414 ms  21.878 ms  21.171 ms
 9  2001:4860::2:0:87d (2001:4860::2:0:87d)  22.371 ms  22.023 ms  22.037 ms
10  * * *
11  wb-in-x5d.1e100.net (2a00:1450:400c:c06::5d)  21.433 ms  21.87 ms  21.401 ms

alors que r11--... donne:

 3  th2-crs16-1.intf.routers.proxad.net (2a01:e00:2:e::1)  16.858 ms  16.244 ms  16.688 ms
 4  cbv-9k-1-be1000.intf.routers.proxad.net (2a01:e00:2:c::2)  15.641 ms  16.727 ms  16.961 ms
 5  google-pni-3.intf.routers.proxad.net (2a01:e00:4:5::2)  78.369 ms  83.502 ms  79.512 ms
 6  2001:4860:0:1::722 (2001:4860:0:1::722)  16.465 ms  16.466 ms  16.749 ms
 7  2a00:1450:4007:11::10 (2a00:1450:4007:11::10)  16.495 ms  16.653 ms  17.062 ms

Donc depuis le PNI Google a CBV il n'y a qu'un autre router avant la vidéo - un serveur de cache.

A noter que j'ai un resultat similaire en Ipv4 (via le PNI a CBV):

13  cbv-9k-1-be1001.intf.routers.proxad.net (212.27.59.5)  25.145 ms  16.107 ms  15.741 ms
14  google-pni-3.routers.proxad.net (212.27.40.102)  58.375 ms 74.125.50.116 (74.125.50.116)  71.913 ms 72.14.216.98 (72.14.216.98)  76.809 ms
15  209.85.250.208 (209.85.250.208)  18.109 ms  16.942 ms  17.453 ms
16  173.194.0.48 (173.194.0.48)  16.500 ms  17.732 ms  17.912 ms

Il seraient intéressant de voir pour ou ca passe pour d'autres ISP vers ce serveur de cache.

Finalement, je me demande si je devrais pas remplir le formulaire suivant pour Free SAS: https://peering.google.com/about/getting_ggc.html (https://peering.google.com/about/getting_ggc.html) parce que Youtube chez Free - c'est minable. Tellement minable que je passe par un serveur que j'ai chez OVH quand je veux une vidéo le soir (j'utilise ssh comme proxy sock).
Titre: Les data centers de Googles
Posté par: vivien le 06 juin 2013 à 09:43:49
Il y a forcèment des serveurs sur Paris quand tu arrives a pinger les serveurs de contenu en moins de 1ms :

$ mtr -rwc100 google.fr
                                                    Loss%   Snt   Last   Avg  Best  Wrst StDev
  1.|-- 89.84.127.61                                 0.0%   100    1.1   0.4   0.3   1.1   0.2
  2.|-- v113.tengec5-10g.core04-t2.club-internet.fr  7.0%   100    0.3   2.2   0.2 145.8  15.2
  3.|-- ae5.tcore01-m.net.bbox.fr                    0.0%   100    0.7  46.0   0.6 130.7  39.3
  4.|-- po109.core02-c.net.bbox.fr                   0.0%   100   44.5  22.5   0.8 206.7  50.7
  5.|-- 72.14.217.60                                 1.0%   100    0.8   1.4   0.7  40.8   4.1
  6.|-- 72.14.238.228                                0.0%   100    1.2   1.7   1.1   7.2   1.3
  7.|-- 209.85.243.47                                0.0%   100    1.4   1.4   1.3   4.8   0.3
  8.|-- par10s10-in-f31.1e100.net                    0.0%   100    1.0   1.1   0.9   1.5   0.1


le nom du serveur qui commence par "PAR" ce ne doit pas être un hasard.
Titre: Les data centers de Googles
Posté par: ruchard5 le 06 juin 2013 à 10:03:09
Complèment d'accord.

Cependant ça fait un moment que j'ai pas vu de "par" dans IPvFoo. C'est certainement que mes usages de Google ne sont pas main stream ;).

Petit check: par10s10-in-f31.1e100.net n'as pas de AAAA, est chez free est routé via Cogent (et Londre!):

10  bzn-crs16-2-be2000.intf.routers.proxad.net (78.254.250.125)  15.690 ms  19.586 ms  19.780 ms
11  te0-1-0-7.369.mag21.par01.atlas.cogentco.com (149.6.161.29)  19.836 ms te0-1-0-4.377.mag21.par01.atlas.cogentco.com (149.6.115.25)  20.538 ms te0-1-0-3.363.mag21.par01.atlas.cogentco.com (149.6.160.97)  20.781 ms
12  te0-7-0-10.mpd21.par01.atlas.cogentco.com (154.54.74.157)  21.741 ms te0-0-0-10.mpd21.par01.atlas.cogentco.com (154.54.74.141)  16.126 ms te0-7-0-7.mpd21.par01.atlas.cogentco.com (154.54.60.29)  16.853 ms
13  te0-0-0-1.mpd22.lon13.atlas.cogentco.com (130.117.50.13)  25.713 ms te0-2-0-1.ccr22.lon13.atlas.cogentco.com (130.117.50.197)  26.921 ms te0-4-0-6.mpd21.lon13.atlas.cogentco.com (154.54.37.157)  27.172 ms
14  te0-4-0-1.ccr22.lon01.atlas.cogentco.com (130.117.0.245)  29.133 ms te0-1-0-0.ccr21.lon01.atlas.cogentco.com (130.117.1.1)  29.332 ms te0-4-0-1.ccr22.lon01.atlas.cogentco.com (130.117.0.245)  31.534 ms
15  te2-2.ccr01.lon18.atlas.cogentco.com (154.54.61.218)  31.268 ms te1-2.ccr01.lon18.atlas.cogentco.com (154.54.61.150)  32.509 ms te2-1.ccr01.lon18.atlas.cogentco.com (154.54.61.214)  33.048 ms
16  149.6.146.30 (149.6.146.30)  33.747 ms  35.188 ms  35.928 ms
17  209.85.255.78 (209.85.255.78)  24.294 ms 209.85.255.76 (209.85.255.76)  85.192 ms 209.85.255.78 (209.85.255.78)  27.896 ms
18  209.85.253.90 (209.85.253.90)  24.423 ms 209.85.253.92 (209.85.253.92)  25.712 ms 209.85.253.196 (209.85.253.196)  24.494 ms
19  209.85.242.79 (209.85.242.79)  24.734 ms 72.14.232.210 (72.14.232.210)  24.362 ms  24.862 ms
20  72.14.235.172 (72.14.235.172)  25.218 ms  25.449 ms  26.035 ms
21  209.85.243.47 (209.85.243.47)  25.366 ms  26.035 ms  24.832 ms
22  par10s10-in-f31.1e100.net (173.194.40.159)  24.022 ms  24.500 ms  24.201 ms

Chez OVH c'est beaucoup mieux:

 2  rbx-g1-a9.fr.eu (178.33.100.33)  1.014 ms  1.185 ms  1.232 ms
 3  th2-g1-a9.fr.eu (91.121.215.132)  4.598 ms  4.441 ms th2-g1-a9.fr.eu (91.121.131.210)  4.417 ms
 4  th2-1-6k.fr.eu (91.121.128.163)  4.154 ms * *
 5  google.as15169.fr.eu (91.121.131.2)  4.669 ms  4.660 ms  4.700 ms
 6  72.14.238.228 (72.14.238.228)  4.665 ms  4.649 ms  4.633 ms
 7  209.85.243.47 (209.85.243.47)  4.960 ms  5.054 ms  5.143 ms
 8  par10s10-in-f31.1e100.net (173.194.40.159)  4.680 ms  4.720 ms  4.647 ms

Même si cela diffère de ce que Youtube me donne:

 2  rbx-g2-a9.fr.eu (178.33.100.121)  0.909 ms  1.104 ms  1.142 ms
 3  gsw-g1-a9.fr.eu (91.121.131.214)  4.273 ms  4.296 ms  4.320 ms
 4  th2-1-6k.fr.eu (91.121.128.165)  4.421 ms * *
 5  google.as15169.fr.eu (91.121.131.2)  4.413 ms  4.402 ms  4.378 ms
 6  209.85.250.208 (209.85.250.208)  5.078 ms  5.048 ms  5.264 ms
 7  173.194.0.48 (173.194.0.48)  4.679 ms  4.648 ms  4.654 ms

Titre: Les data centers de Googles
Posté par: ruchard5 le 06 juin 2013 à 10:06:15
Petit check: par10s10-in-f31.1e100.net n'as pas de AAAA, est chez free est routé via Cogent (et Londre!):

10  bzn-crs16-2-be2000.intf.routers.proxad.net (78.254.250.125)  15.690 ms  19.586 ms  19.780 ms
11  te0-1-0-7.369.mag21.par01.atlas.cogentco.com (149.6.161.29)  19.836 ms te0-1-0-4.377.mag21.par01.atlas.cogentco.com (149.6.115.25)  20.538 ms te0-1-0-3.363.mag21.par01.atlas.cogentco.com (149.6.160.97)  20.781 ms
12  te0-7-0-10.mpd21.par01.atlas.cogentco.com (154.54.74.157)  21.741 ms te0-0-0-10.mpd21.par01.atlas.cogentco.com (154.54.74.141)  16.126 ms te0-7-0-7.mpd21.par01.atlas.cogentco.com (154.54.60.29)  16.853 ms
13  te0-0-0-1.mpd22.lon13.atlas.cogentco.com (130.117.50.13)  25.713 ms te0-2-0-1.ccr22.lon13.atlas.cogentco.com (130.117.50.197)  26.921 ms te0-4-0-6.mpd21.lon13.atlas.cogentco.com (154.54.37.157)  27.172 ms
14  te0-4-0-1.ccr22.lon01.atlas.cogentco.com (130.117.0.245)  29.133 ms te0-1-0-0.ccr21.lon01.atlas.cogentco.com (130.117.1.1)  29.332 ms te0-4-0-1.ccr22.lon01.atlas.cogentco.com (130.117.0.245)  31.534 ms
15  te2-2.ccr01.lon18.atlas.cogentco.com (154.54.61.218)  31.268 ms te1-2.ccr01.lon18.atlas.cogentco.com (154.54.61.150)  32.509 ms te2-1.ccr01.lon18.atlas.cogentco.com (154.54.61.214)  33.048 ms
16  149.6.146.30 (149.6.146.30)  33.747 ms  35.188 ms  35.928 ms
17  209.85.255.78 (209.85.255.78)  24.294 ms 209.85.255.76 (209.85.255.76)  85.192 ms 209.85.255.78 (209.85.255.78)  27.896 ms
18  209.85.253.90 (209.85.253.90)  24.423 ms 209.85.253.92 (209.85.253.92)  25.712 ms 209.85.253.196 (209.85.253.196)  24.494 ms
19  209.85.242.79 (209.85.242.79)  24.734 ms 72.14.232.210 (72.14.232.210)  24.362 ms  24.862 ms
20  72.14.235.172 (72.14.235.172)  25.218 ms  25.449 ms  26.035 ms
21  209.85.243.47 (209.85.243.47)  25.366 ms  26.035 ms  24.832 ms
22  par10s10-in-f31.1e100.net (173.194.40.159)  24.022 ms  24.500 ms  24.201 ms


Alors que Tata (qui fournit du transit a free) a une connection vers Google beaucoup plus proche:

http://lg.as6453.net/lg/ (http://lg.as6453.net/lg/)
Tracing the route to par10s10-in-f31.1e100.net (173.194.40.159)

  1 if-8-2.tcore1.PVU-Paris.as6453.net (80.231.153.37) 4 msec 0 msec 0 msec
  2 72.14.212.77 [AS 15169] 0 msec 44 msec 0 msec
  3 72.14.239.205 [AS 15169] 0 msec 4 msec 0 msec
  4 209.85.243.47 [AS 15169] 0 msec 4 msec 0 msec
  5 par10s10-in-f31.1e100.net (173.194.40.159) [AS 15169] 0 msec 0 msec 0 msec

Autant dire encore un fois que Free ne fait aucun effort pour rendre l’expérience Google agréable a ses clients.
Titre: Les data centers de Googles
Posté par: vivien le 06 juin 2013 à 10:11:40
Même si on prend un contenu très peu vu (Vidéo Youtube perso avec 63 vues en 6mois), les serveurs sont sur Paris avec un ping de 0,8ms :

$ youtube-dl -g youtube.com/watch?v=-tlBs-bgzS4
http://r9---sn-25g7rn76.c.youtube.com/videoplayback?sparams=cp%2Cid%2Cip%2Cipbits%2Citag%2Cratebypass%2Csource%2Cupn%2Cexpire&cp=U0hWRVVNV19OTENONl9NR0FCOnJEdm9wajJ6ZVc0&upn=6f6WQEjoMOc&ip=89.84.127.55&sver=3&mt=1370506038&expire=1370529192&mv=m&source=youtube&ms=au&itag=37&fexp=934302%2C906335%2C916807%2C901209%2C916625%2C900352%2C924605%2C928201%2C901208%2C929123%2C929915%2C929906%2C925714%2C929919%2C929119%2C931202%2C928017%2C912512%2C912518%2C906906%2C904830%2C930807%2C919373%2C906836%2C933701%2C912711%2C930621%2C929606%2C910075&ipbits=8&key=yt1&id=fad941b3e6e0cd2e&ratebypass=yes&newshard=yes&signature=37AE9061DAB492B187FC9FB237162780DA66E371.D20C9F82646A629A67CE559DC97664349A233991 (http://r9---sn-25g7rn76.c.youtube.com/videoplayback?sparams=cp%2Cid%2Cip%2Cipbits%2Citag%2Cratebypass%2Csource%2Cupn%2Cexpire&cp=U0hWRVVNV19OTENONl9NR0FCOnJEdm9wajJ6ZVc0&upn=6f6WQEjoMOc&ip=89.84.127.55&sver=3&mt=1370506038&expire=1370529192&mv=m&source=youtube&ms=au&itag=37&fexp=934302%2C906335%2C916807%2C901209%2C916625%2C900352%2C924605%2C928201%2C901208%2C929123%2C929915%2C929906%2C925714%2C929919%2C929119%2C931202%2C928017%2C912512%2C912518%2C906906%2C904830%2C930807%2C919373%2C906836%2C933701%2C912711%2C930621%2C929606%2C910075&ipbits=8&key=yt1&id=fad941b3e6e0cd2e&ratebypass=yes&newshard=yes&signature=37AE9061DAB492B187FC9FB237162780DA66E371.D20C9F82646A629A67CE559DC97664349A233991)


$ mtr -rwc100 r9---sn-25g7rn76.c.youtube.com
                                                    Loss%   Snt   Last   Avg  Best  Wrst StDev
  1.|-- 89.84.127.61                                 0.0%   100    0.5   0.5   0.3  11.4   1.1
  2.|-- v113.tengec5-10g.core04-t2.club-internet.fr  3.0%   100    0.4   1.4   0.2  70.2   7.3
  3.|-- ae5.tcore01-m.net.bbox.fr                    0.0%   100    0.7   8.7   0.6  77.9  15.4
  4.|-- po109.core02-c.net.bbox.fr                   0.0%   100    0.8  19.0   0.8 434.1  58.6
  5.|-- 72.14.217.60                                 0.0%   100    0.8   1.5   0.6  49.9   5.0
  6.|-- 216.239.48.188                               0.0%   100    1.1   1.4   1.1  16.7   1.5
  7.|-- 173.194.20.142                               0.0%   100    1.0   0.9   0.8   1.2   0.1
Titre: Les data centers de Googles
Posté par: ruchard5 le 06 juin 2013 à 10:57:37
Tu as raison. J'avais pas fait attention avant alors.

Peut on avoir à faire avec un cache super intelligent qui récupère la vidéo en temps réel (proxy)?

On le cache est simplement monstrueux (ce qui serait de-raisonnable et pas Google like).
Titre: Les data centers de Googles
Posté par: vivien le 06 juin 2013 à 22:03:58
D’après ce que j'ai compris, le cache est ton unique interlocuteur.

Si la vidéo est présente dans le cache il te la donne directement.
Si la vidéo n'est pas présente, il la récupérer sur un serveur parent qui possède l'intégralité des contenus en remplacant le contenu qui n'a pas été demandé depuis le temps le plus long.

Avec ma vidéo test peu regardée, j'observe que les performances sont bien différentes si le fichier est dans le cache ou pas.
Le cache semble se vider assez rapidement (une vidéo qui n'est pas demandée pendant quelques dizaines de minutes est éjectée du serveur de cache)

La consommation en bande passante est de 10%.
Si ton serveur de cache génère 10 Gb/s, il faut 1 Gb/s pour l'alimenter en contenu.
Titre: Les data centers de Googles
Posté par: ruchard5 le 07 juin 2013 à 10:35:17
Merci de ces détails!
Titre: Les data centers de Googles
Posté par: vivien le 09 juin 2013 à 10:05:26
L'explication de Vivien (sensibilité aux fuites d'eau) est peut-être la bonne, mais ça reste surprenant.

Le faux plancher c'est aussi pratique en zone inondable.

(https://lafibre.info/images/adsl/201208_repartiteur_en_zone_inondable.jpg)

Source : Mathieu sur twitter (https://twitter.com/oustedaisse/status/233361955719634944) (technicien Free)
Titre: Les data centers de Googles
Posté par: ruchard5 le 09 juin 2013 à 23:57:54
Tiens, j'ai une dernière image que j'ai récupérer je ne sais ou chez Google :

Berkeley County, South Carolina (MNK1).

Les tours de refroidissement sont particulièrement imposantes.

(https://lafibre.info/images/datacenter/201305_datacenter_google_mini_MNK1.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_MNK1.jpg)
Titre: Les data centers de Googles
Posté par: vivien le 11 janvier 2015 à 11:07:11
Une nouvelle vidéo qui date de décembre 2014 :

https://www.youtube.com/watch?v=XZmGGAbHqa0

Une autre sur la sécurité, un peu plus ancienne :

https://www.youtube.com/watch?v=TQoKFovvigI
Titre: Les data centers de Googles
Posté par: Mister59340 le 15 avril 2015 à 20:16:16
Pas mal le datacenter de google :D
Titre: Les data centers de Googles
Posté par: Free_me le 16 avril 2015 à 14:02:03
mouais.

l'electricité de ces Datacenter de google, en californie, est produite par des centrales a charbon, et j'ai vu un reportage sur comment ils se demerdent pour recuperer ce charbon pour le moins cher possible... c'est pas tres beau a voir.

Et tout les deux, Google et apple ont construit un Datacenter 'ecolo' avec quelques centaines de m2 de solaire... la bonne blague.
Titre: Les data centers de Googles
Posté par: corrector le 16 avril 2015 à 15:20:40
(autocensuré)



<---------
Titre: Les data centers de Googles
Posté par: kgersen le 16 avril 2015 à 16:06:45
mouais.

l'electricité de ces Datacenter de google, en californie, est produite par des centrales a charbon, et j'ai vu un reportage sur comment ils se demerdent pour recuperer ce charbon pour le moins cher possible... c'est pas tres beau a voir.

Et tout les deux, Google et apple ont construit un Datacenter 'ecolo' avec quelques centaines de m2 de solaire... la bonne blague.

un peu 'léger et polémique' ce genre de commentaire pour ne pas dire primaire...

Deja Google n'a pas de datacenter en Californie...mais bon c'est un 'détail' hein ...

Apres il faut voir 'le big picture' plutot que de se focaliser sur un seul aspect négatif des choses. voir: https://www.google.com/green/bigpicture/#/ par exemple, mais bon c'est fait par Google donc certainement pas objectif du tout diront certains...

Pour ce qui est du charbon, c'est surtout en Caroline du Nord que ca se passe a cause des conditions géographiques et politiques (proximité et importance des mines de charbon, climat, réseau d'eau, taxes, faible densité habitants, etc).

Et pour les m2 de solaire je préfère m'autocensuré aussi...
Titre: Les data centers de Googles
Posté par: corrector le 16 avril 2015 à 16:25:45
un peu 'léger et polémique' ce genre de commentaire pour ne pas dire primaire...

Deja Google n'a pas de datacenter en Californie...mais bon c'est un 'détail' hein ...
On comprend pourquoi :
(https://lafibre.info/images/cpl/201001_usa_prix_moyen_electricite.svg)

Pour ce qui est du charbon, c'est surtout en Caroline du Nord que ca se passe a cause des conditions géographiques et politiques (proximité et importance des mines de charbon, climat, réseau d'eau, taxes, faible densité habitants, etc).
La part du charbon dans la production d'énergie électrique aux USA est énorme :
(https://lafibre.info/images/cpl/201001_usa_electricite.jpg)
Titre: Les data centers de Googles
Posté par: e-TE le 18 avril 2015 à 11:06:46
petite video sur leur data center en IOWA a $1.5B et ou ils vont réinvestir $1B de plus...

Citer
Today, Google confirmed that it is investing an additional $1 billion in massive Iowa data centers into which it has already put $1.5 billion. And now VentureBeat has obtained video of the massive project.
https://www.youtube.com/watch?v=TbP1UW6Oi_s

on voit pas grand chose a part la taille que ca représente...

Citer
Google told VentureBeat that:

In new video footage we’re sharing, you can see for the first time what our two Council Bluffs data center facilities look like on the inside and from the air — that’s hundreds of thousands of square feet of computing power to deliver your most important search results and your favorite videos, the instant you want them. It’s all managed by more than 300 employees and contractors hard at work across the two campuses.

Google’s data centers are some of the most efficient in the world, using 50 percent less energy than the typical data center. Google is the first major Internet services company to gain external certification of the high environmental, workplace safety, and energy management standards of its data centers. And as always, one of our highest priorities when building a new facility is finding renewable energy sources to power it. For Council Bluffs, we’ve secured 407 [megawatts] of wind power from local utility MidAmerican Energy and 114 MW  of wind power from a facility in Story County, Iowa. Separately, we’ve invested $75 million in a 50 MW wind farm in Greene County, north of Des Moines.
http://venturebeat.com/2015/04/17/go-up-over-and-inside-googles-huge-iowa-data-centers-in-this-new-video/

Donc en gros, google c'est les meilleurs (le marketing parle la ^^ ), 50% de conso d'énergie de moins qu'un datacenter classique, 407+114MW d'éléctricté acheté en provenance d'éolienne de deux boites différentes, et investissement de 75million de $ dans une troisième boite qui a aussi un champ d'éolienne...

donc c'est pas tout green, mais c'est pas tout charbon non plus ;)
Titre: Les data centers de Googles
Posté par: corrector le 18 avril 2015 à 13:31:29
Les éoliennes sont "green"?
Titre: Les data centers de Googles
Posté par: kgersen le 18 avril 2015 à 13:51:21
j'ai du mal a le situer sur la carte. D'apres la video, les 2 batiments sont a coté d'une grand étendue 'vide' (champs):

(https://lafibre.info/images/datacenter/201504_datacenter_google_council_bluffs_1.jpg)

hors le batiment d'origine visible sur Google Maps (loc: https://www.google.com/maps/@41.2206994,-95.8642342,720m/data=!3m1!1e3 )

(https://lafibre.info/images/datacenter/201504_datacenter_google_council_bluffs_2.jpg)

n'est clairement pas au même endroit: au nord il y a la ville et au sud un lac.

Il y aurait donc 2 sites a Council Bluffs ? et 3 DC en tout ?

Si quelqu'un trouve l'emplacement correspondant a la video ca m’intéresse ;)
Titre: Les data centers de Googles
Posté par: Snickerss le 18 avril 2015 à 13:57:28
Les éoliennes sont "green"?

Pour mes poumons oui  ;D
Titre: Les data centers de Googles
Posté par: kgersen le 18 avril 2015 à 14:14:27
A note que le site de Berkeley County s'est fortement agrandi. A l'epoque ou j'avais fais la carte (en mai 2013 voir http://mapsengine.google.com/map/view?mid=zUFNNGDtrepc.kreW74DOiigg ) il n'y avait que 2 batiments.
Depuis il y a 3 batiments de plus et un 6eme en construction. Ca pousse ! :

(https://lafibre.info/images/datacenter/201504_datacenter_google_council_bluffs_3.jpg)

loc: https://www.google.com/maps/@33.0626988,-80.043696,929m/data=!3m1!1e3
Titre: Les data centers de Googles
Posté par: e-TE le 18 avril 2015 à 15:37:27
Les éoliennes sont "green"?
1
vaste débat ;) en tout cas plus que le charbon&pétrole (car même si il en faut pour les fabriquer, il en faut aussi pour les centrales... et il n'en faut presque plus pendant leurs fonctionnements)

je soulignais plus ce point par rapport aux posts précédent sur l'usage du charbon :)

Titre: Les data centers de Googles
Posté par: corrector le 18 avril 2015 à 23:48:12
Pour mes poumons oui  ;D
1
vaste débat ;) en tout cas plus que le charbon&pétrole (car même si il en faut pour les fabriquer, il en faut aussi pour les centrales... et il n'en faut presque plus pendant leurs fonctionnements)
Certains matériaux sont extraits en Chine dans des conditions effroyables, c'est loin donc en s'en fout.

Mais comment tu crois qu'on intègre une énergie ultravariable?

Les éoliennes devront rester marginales dans le "mixte", sinon il faut augmenter les énergies fossiles polluantes.
Titre: Les data centers de Googles
Posté par: e-TE le 19 avril 2015 à 18:50:33
je pense pas que le débat ait sa place ici ;)
Titre: Les data centers de Googles
Posté par: corrector le 19 avril 2015 à 19:01:22
Oui, j'avais pas vu le topic sur le machin de l'ADEME.
Titre: Les data centers de Googles
Posté par: ruchard5 le 14 mai 2015 à 19:10:33
j'ai du mal a le situer sur la carte. D'apres la video, les 2 batiments sont a coté d'une grand étendue 'vide' (champs):

hors le batiment d'origine visible sur Google Maps (loc: https://www.google.com/maps/@41.2206994,-95.8642342,720m/data=!3m1!1e3 )

n'est clairement pas au même endroit: au nord il y a la ville et au sud un lac.

Il y aurait donc 2 sites a Council Bluffs ? et 3 DC en tout ?

Si quelqu'un trouve l'emplacement correspondant a la video ca m’intéresse ;)

Le nouveau DC est au sud est, dans le champs exactement.

Est il est vraiment super-large!

(https://lafibre.info/images/datacenter/201505_datacenter_google_council_bluffs.jpg)
Titre: Les data centers de Googles
Posté par: kgersen le 14 mai 2015 à 20:09:41
ah bien  vu. Sur Maps la photo satellite n'est pas a jour le champs est vide.

A notér la centrale électrique a charbon (!) au bord du fleuve ;)
Titre: Les data centers de Googles
Posté par: kgersen le 14 mai 2015 à 21:25:35
Un nouveau DC de Google est en construction a Eemshaven aux Pays Bas:

(https://lafibre.info/images/datacenter/201505_datacenter_google_eemshaven_pays-bas_1.jpg)

Février 2015:
(https://lafibre.info/images/datacenter/201505_datacenter_google_eemshaven_pays-bas_2.jpg)
Avril 2015:
(https://lafibre.info/images/datacenter/201505_datacenter_google_eemshaven_pays-bas_3.jpg)

Coût : 600 millions d'euros
démarrage prévu: S1 2016

Construit sur une zone d'activité spécialement dédiée aux DC: energie mix (gaz, hydro, eolien) produite sur place ou en mer, arrivé de fibres nationales et internationales par la mer.
site officielle de la zone : http://www.dataports.eu/

Localisation géo de la zone: https://goo.gl/maps/SQVOe
Titre: Les data centers de Googles
Posté par: kgersen le 18 juin 2015 à 07:05:28
Apres B4, leur Software Defined WAN (http://cseweb.ucsd.edu/~vahdat/papers/b4-sigcomm13.pdf) publié en 2013 qui donnait quelques infos sur le "mega WAN" reliant les DC de Google,

Apres Andromeda en 2014 (https://googlecloudplatform.blogspot.fr/2014/04/enter-andromeda-zone-google-cloud-platforms-latest-networking-stack.html),  la "network virtualization stack" utilisée dans leur DC,

Hier, lors de la conférence Open Networking Sumit 2015, Google a dévoilé encore un élèment important de l'architecture utilisée dans leur DC: Jupiter Super Block, leur 5eme génération de SDN qui est le 'LAN' interne de leur DC.

Basé sur un réseau de Clos, utilisant  des composants bas niveau plutôt que des produits d’équipementiers, fonctionnant avec des nouveaux protocoles inventés pour DC plutôt que les standards d'Internet, leur SDN arrive a fournir un total de  1 Petabit/sec de "bisection bandwidth" permettant a 100 000 serveurs d'échanger des informations a 10 Gbps chacun ....  :o

Une publication plus détaillée sera faite lors du SIGCOMM 2015 en août, en attendant voila la keynote de l'Open Networking Sumit 2015:

https://www.youtube.com/watch?v=FaAZAII2x0w
Titre: Les data centers de Googles
Posté par: kgersen le 24 juin 2015 à 22:12:21
Le 14eme DC de Google va être implanté en Alabama a Jackson County.

Celui sera différent: au lieu de construire les bâtiments sur une zone vide, il vont réaménager le site d'une centrale a charbon abandonnée (https://goo.gl/maps/48s5g).
L'idée est de réutiliser au maximum les installations et le réseau électrique existants mais dans l'autre sens. Des énergies renouvelables seront utilisées (a terme 100%) pour alimenter ce DC:

(https://lafibre.info/images/datacenter/201506_datacenter_google_1.jpg)

Les bâtiments paraissent petits mais ils sont énormes en fait, c'est la grande cheminée qui "trompe" car c'est l'une des plus grandes au monde (>300m):

(https://lafibre.info/images/datacenter/201506_datacenter_google_2.jpg)
source : https://googleblog.blogspot.fr/2015/06/a-power-plant-for-internet-our-newest.html

Par ailleurs, 4 autres DC sont en cours d'agrandissement, notamment celui en Belgique qui nous concerne directement.

Il va quasiment doubler (le nouveau bâtiment est a l’arrière plan):
(https://lafibre.info/images/datacenter/201506_datacenter_google_3.jpg)
Titre: Les data centers de Googles
Posté par: miky01 le 24 juin 2015 à 23:42:14
Une toute petite livraison de 2 racks de servers pour Google a Genève.

(https://lafibre.info/images/datacenter/201506_datacenter_google_4.jpg)
Titre: Les data centers de Googles
Posté par: ruchard5 le 07 juillet 2015 à 10:27:34
Apres B4, leur Software Defined WAN (http://cseweb.ucsd.edu/~vahdat/papers/b4-sigcomm13.pdf) publié en 2013 qui donnait quelques infos sur le "mega WAN" reliant les DC de Google,

Apres Andromeda en 2014 (https://googlecloudplatform.blogspot.fr/2014/04/enter-andromeda-zone-google-cloud-platforms-latest-networking-stack.html),  la "network virtualization stack" utilisée dans leur DC,

Hier, lors de la conférence Open Networking Sumit 2015, Google a dévoilé encore un élèment important de l'architecture utilisée dans leur DC: Jupiter Super Block, leur 5eme génération de SDN qui est le 'LAN' interne de leur DC.

Basé sur un réseau de Clos, utilisant  des composants bas niveau plutôt que des produits d’équipementiers, fonctionnant avec des nouveaux protocoles inventés pour DC plutôt que les standards d'Internet, leur SDN arrive a fournir un total de  1 Petabit/sec de "bisection bandwidth" permettant a 100 000 serveurs d'échanger des informations a 10 Gbps chacun ....  :o

Une publication plus détaillée sera faite lors du SIGCOMM 2015 en août, en attendant voila la keynote de l'Open Networking Sumit 2015:

https://www.youtube.com/watch?v=FaAZAII2x0w

D’après le slide tiré de la vidéo / présentation d'Amin Vadhat a ONS, qui nous présente l'architecture Jupiter, la fabrique réseau de Google a les propriété suivante (au maximum):

Aggregation block upstream (up to 256 spine blocks!) capacity:
Aggregation block downstream capacity (down to 32 centauri Top-of-rack switches per aggregation blocks)
Pour ce qui est du compte de serveur, le calcule est plus simple:
Et pour clore le tout, le nombre de port dans la configuration maximum:

Donc, on est bien au delà des 100,000 serveurs annoncer, ou me suis-je tromper quelque par?

En même temps, en partant sur 100k serveurs par fabrique Jupiter, cela laisse de la marge pour migrer vers une version ultérieur de la plateforme (upgrade in-place), et avec 20Tbps de bissectional bandwidth par bloque d'aggregation, on peut avoir 4 ou 8 bloquent pour le super WAN (oui, cela fait 80 a 160 Tbps de WAN - mais on parle de Google après tout)

(https://lafibre.info/images/datacenter/201507_datacenter_google_1.jpg)
Titre: Les data centers de Googles
Posté par: ruchard5 le 07 juillet 2015 à 10:32:12
Just to blow my own trumpet :D.

Bon, pour en finir un peu avec les data centres Google, voici quelques éléments concernant le réseau distant:
  • La présentation de Urs Hoezle ou il présente l’implèmentation d'open flow chez Google, dont la vidéo est accessible ci-dessous.
  • Une image (extrait de la présentation) montrant le liens entre data centres (avec Paris sur la cartes :D - avec un gros PoP s'entends)
  • Une image du Google Switch -> 8 line cards de 8 x 10 GE.
Au sujet des Google switchs, je ne pense pas que Google ait développer un switch pour déployer quelques boxes par data centre (les salles réseau sont très petites pour la tailles des data floors) - donc je pense qu'ils les utilisent comme cluster switch, pour connecter les TORs et former _the_ interconnect fabric (et avec 128x10GE on peut faire de jolie flattened butterflies ou dragon flies).
Titre: Les data centers de Googles
Posté par: kgersen le 07 juillet 2015 à 12:12:56
Donc, on est bien au delà des 100,000 serveurs annoncer, ou me suis-je tromper quelque par?

Les 100k serveurs mentionnés ne sont pas le nombre de serveurs effectifs mais juste la division de  la capacité de Jupiter (1 Petabit/sec) par 10 Gbps (connectique de base d'un serveur). C'était juste pour illustré l'un ordre de grandeur de ce que représente 1 Petabit/sec .

Il va de soi qu'ils ne provisionnent probablement pas leur serveurs a 10Gbps chacun mais probablement beaucoup moins donc en pratique ca supporte nettement plus de serveurs. Apres effectivement ils se laissent peut-être aussi de la marge pour évoluer.
Titre: Les data centers de Googles
Posté par: vivien le 07 juillet 2015 à 13:12:56
Google semble connecter ses serveurs en 4 Gb/s (4 x 1 Gb/s).

Le 10 Gb/s serait réservé à la toute dernière génération et je ne sais pas si c'est généralisé sur les nouveaux déploiements de serveurs.

Regardez sur la photo ci-dessous en zoomant : on voit bien la présence de 4 ports 1 Gb/s cuivre par serveur :

(https://lafibre.info/images/datacenter/201305_datacenter_google_mini_PRY_20.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_PRY_20.jpg)
Titre: Les data centers de Googles
Posté par: ruchard5 le 07 juillet 2015 à 14:43:13
Google semble connecter ses serveurs en 4 Gb/s (4 x 1 Gb/s).

Le 10 Gb/s serait réservé a la toute dernière génération et je ne sais pas si c'est généralisé sur les nouveaux déploiements de serveurs.

La réponse est dans un autre slide d'Amin Vadhat!

Jupiter devait être en plein déploiement lorsque Google a "ouvert" (a seulement une photographe) ses data-centres. Et il est claire que le photographe n'as pas été autoriser près d’éléments encore top-secret a ce moment (n'oublions pas que Jupiter est la 5th génération - donc la plateforme en production a l’époque - Saturn (avec des TOR basées sur des puces en 24x10G).

Donc les 4 * 1G que l'on voit dates de la 3rd génération: Watchtower (2008).

(https://lafibre.info/images/datacenter/201507_datacenter_google_2.jpg)
Titre: Les data centers de Googles
Posté par: ruchard5 le 07 juillet 2015 à 14:50:19
Dans le post ci-dessous je n'ai garder qu'une images (sur huit) qui contiens 1 rack avec 2 switches - apparament de la generation Watchtower" (a comparer avec un autre slide d'Amin Vadhat).

The Dalles, Oregon

Ceci est le premier data centre construit par Google, en 2008. On peux voir que la hauteur des bâtiments limites de volume d'air a l’intérieur des data halls, alors que les tours de refroidissement sont plus hautes, donnant l'impression de voir deux "pétrolier" échouer sur les berges de la rivière Columbia.

La plomberie sous les tours de refroidissement suit un code de couleur qui rends l'ensemble très jolie: Rouge pour les circuits chaud, Bleue pour les circuits froid, Vert et Jaune pour les échangeurs thermique et groupes de refroidissement.

(https://lafibre.info/images/datacenter/201305_datacenter_google_mini_DLS_019.jpg) (https://lafibre.info/images/datacenter/201305_datacenter_google_DLS_019.jpg)

(https://lafibre.info/images/datacenter/201507_datacenter_google_3.jpg)
Titre: Les data centers de Googles
Posté par: ruchard5 le 07 juillet 2015 à 16:35:25
En fait l'erreur est dans le blog poste de Google:

"Our current generation — Jupiter fabrics — can deliver more than 1 Petabit/sec of total bisection bandwidth. To put this in perspective, such capacity would be enough for 100,000 servers to exchange information at 10Gb/s each, enough to read the entire scanned contents of the Library of Congress in less than 1/10th of a second."

Bisection bandwidth veut dire que le "switch" (virtuel) a une capacité a connect 1 Petabit/sec au nord / upstream a 1 Petabit/sec au sud / downstream. [1]

Donc, avec 1,310,720 Gbps disponibles au Nord nous pouvons y connecter 131,072 serveurs et aussi 131,072 serveurs au Sud, ce qui fait que 262,144 serveurs pourrait - en théorie - échanger 10Gbps de trafic de manière non bloquante (si le trafic est parfaitement balancé).

Les 100k serveurs mentionnés ne sont pas le nombre de serveurs effectifs mais juste la division de  la capacité de Jupiter (1 Petabit/sec) par 10 Gbps (connectique de base d'un serveur). C'était juste pour illustré l'un ordre de grandeur de ce que représente 1 Petabit/sec .

Il va de soi qu'ils ne provisionnent probablement pas leur serveurs a 10Gbps chacun mais probablement beaucoup moins donc en pratique ca supporte nettement plus de serveurs. Apres effectivement ils se laissent peut-être aussi de la marge pour évoluer.

[1] https://en.wikipedia.org/wiki/Bisection_bandwidth (https://en.wikipedia.org/wiki/Bisection_bandwidth)
Titre: Les data centers de Googles
Posté par: kgersen le 07 juillet 2015 à 19:34:07
erreur ?

C'est juste des maths pour illustrer ce que 1 Petabit/sec répresente, a savoir 100k serveurs (comprendre 100k "flux") de 10Gbps ou "Library of Congress in less than 1/10th of a second"

La bisection bandwidth (BW) est un total, on sait juste qu'elle vaut 1 Petabit/sec. Ca ne donne aucune info sur le nombre de serveurs ou de ports.

Citer
bisection bandwidth = bandwidth across smallest cut that divides network into two equal halves

Citer
For a given topology, bisection bandwidth, is calculated by dividing
the network into two roughly equal parts—each with half the nodes—and
summing the bandwidth of the links crossing the imaginary dividing line
(tiré d'une lecture conseillée: Computer Architecture: A Quantitative Approach (http://www.amazon.fr/Computer-Architecture-Quantitative-John-Hennessy/dp/012383872X) )

Mais la on  n'est pas dans un cas d'école simple (anneau, bus, mesh, tree, etc) ou tout les liens sont de la même taille et ou à  partir de la valeur de BW et de la vitesse d'un lien d'un nœud (présumé a 10Gbps) on peut déduire le nombre de nœuds en fonction d'une formule (anneau=2, bus=1, 2dmesh=racine(N), etc). On ne sait meme pas s'il parle de BW  bi-directionnelle ou mono-directionnelle.

Prenons des liens a 10Gbps (L=10 Gpbs). Une BW de 1 Petabit/sec ca fait:
BW =  1000 Terabit/sec = 100 000 x 10 Gbits/sec = 100 000 liens (100k x L donc).
Le cas extreme haut: un réseau de N noeuds (serveurs) 'fully meshed' (complètement interconnecté) a un BW de (N/2)2.
Donc pour 100k ca fait 100k = (N/2)2 donc N = sqrt(100k)*2 ~= 632 serveurs.
A comprendre donc: un switch non bloquant de 632 ports 10Gbps a une BW de 1 Petabit/sec
Le cas extreme bas (ou BW dépend de N): un réseau de N noeuds (serveurs) '2d mesh' (une grille) a un BW de sqrt(N).
Donc pour 100k ca fait 100k = sqrt(N) donc N = 100k*100k = 10 000 000 000 serveurs (10 milliards de serveurs)
A comprendre donc: un 2d mesh de 10 milliards de serveurs a 10Gbps a une BW de 1 Petabit/sec
(slides sur le BW: http://www.mat.unimi.it/users/pavarino/par_comp/3networks.ppt )

Le Jupiter se situe entre les 2 mais tout les liens ne sont pas identiques et pas tous a 10Gbps (les liens ToR sont a 40G et plus bas aussi, les hosts (serveurs) sont a 40G ou 10G). Les serveurs sont probablement multi-links (4x10Gbps par exemple) pour certains aussi bref pas simple de déduire le nombre de serveurs ou même de ports de l'information donnée.
On en saura plus en août.
Titre: Les data centers de Googles
Posté par: ruchard5 le 07 juillet 2015 à 21:30:28
L'architecture est détaillé tel que je l'ai poste précédemment (je remet l'image extraite de la vidéo ici)... donc ceci n'est pas une vue de l'esprit ou une théorie :D.

On peux donc calculer le maximum possible en pratique pour cet fabrique réseau non-blocking.

Evidemment l'architecture et les valeur de bandes passante sont full-duplex. Les serveurs sont en 10 ou 40G (pas de précision sur le multi-link).

(https://lafibre.info/images/datacenter/201507_datacenter_google_1.jpg)
Titre: Les data centers de Googles
Posté par: kgersen le 07 juillet 2015 à 21:49:25
L'architecture est détaillé tel que je l'ai poste précédemment (je remet l'image extraite de la vidéo ici)... donc ceci n'est pas une vue de l'esprit ou une théorie :D.

On peux donc calculer le maximum possible en pratique pour cet fabrique réseau non-blocking.

Evidemment l'architecture et les valeur de bandes passante sont full-duplex. Les serveurs sont en 10 ou 40G (pas de précision sur le multi-link).

on ne doit pas se comprendre ou avoir le même background de référence. Ca tourne au dialogue de sourds la ;D

Je n 'ai pas vu mentionné que le Jupiter était non-blocking ca serait énorme...
Pour le full-duplex je parlais de la bisection bandwidth et évidemment pas de l'archi ou des liens des serveurs.
Les 100k dont je parlais sont les 100k qu'il mentionne pas les 100k (ou plutot 131k ports) qu'on peut éventuellement 'calculer' en regardant l'agencement des blocks et des liens.

bref pas grave, on parle pas du tout des memes choses, pas la peine de dérailler le topic pour ca.
Titre: Les data centers de Googles
Posté par: ruchard5 le 07 juillet 2015 à 22:21:50
Je n 'ai pas vu mentionné que le Jupiter était non-blocking ca serait énorme...

C'est un des principe de base des divers design de DCN Google (lien vers la video a t+741 secondes):

https://youtu.be/FaAZAII2x0w?t=741 (https://youtu.be/FaAZAII2x0w?t=741)

Voici le transcript:

"First, we leverage clos topology.This is an old idea, 60+ years ago now, from the telecommunications industry. The notion here is that you can leverage a number of small, commodity switches to build an effectively non-blocking very large scale switch. And it can scale more or less infinitely and certainly to the size of the data centers that we needed. We did this with merchant silicon."

Donc on est d'accord sur une chose: c'est enorme!!!
Titre: Les data centers de Googles
Posté par: BadMax le 12 juillet 2015 à 15:16:52
Attention, dans un DC, il ne faut pas seulement penser Nord/Sud mais aussi Est/Ouest : il y a aussi des flux serveurs à serveurs.

La différence est de taille: pour permettre un flux Est/Ouest sans passer par les SPINE, il faut que l'architecture logique le permette en s'appuyant sur du TRILL ou par une surcouche VXLAN.

Il y a encore 5 ans, on était limité par le fonctionnement d'Ethernet et du protocole Spanning-tree qui imposait de surdimensionner les uplinks. Depuis, non seulement on a amelioré les debits mais on a aussi traité la façon de mieux les flux en les faisant passer 'u plus court'.

L'architecture décrite par Google est helas trop succinte pour comprendre comment ils ont traité ce point.

Chez Facebook, ils ont ecrit leur propre implementation de TRILL.
Titre: Les data centers de Googles
Posté par: kgersen le 12 juillet 2015 à 16:04:45
J'attend les détails en août. 'the devil is in the detail' comme on dit.

Je ne suis pas sur que les notions North/South et Upsteam/downsteam aient le même sens dans ce contexte. Ce sont des notions liées au 'monde classique du réseau' (core - distribution - access) que Cisco a bien "brainwasher" tout le monde avec car c'est leur intérêt.

Une des forces de Google justement est de souvent repartir de zéro, rejeter les modèles traditionnels d'un domaine et faire leur propre 'sauce' à  partir des blocs technologiques qu'ils ne peuvent faire eux même.
Titre: Les data centers de Googles
Posté par: miky01 le 12 juillet 2015 à 16:12:50
Le dernier gros DC que j'ai vu, les seveurs sont connetés en fibre mutimode OM4 avec des Cisco, plus efficace que le LAN GBs.
Titre: Les data centers de Googles
Posté par: BadMax le 12 juillet 2015 à 16:14:11
Depuis la gamme Nexus, il n'y a plus de 'Core - Distrib - Access', sur 9000 on ne parle plus que Spine et Leafs. Sur 7000/5000, on est plus dans la philosophie Google avec Spine / Aggregate / ToR.

Et je suis à peu près certain que tout le monde utilise les memes ASIC, donc peu de difference sur le hard, c'est vraiment sur l'implementation logique qu'on va trouver des écarts.

Il manque aussi le 100G dans les planches Google, ça serait étonnant de ne pas en voir.
Titre: Les data centers de Googles
Posté par: ruchard5 le 13 juillet 2015 à 14:36:20
Et je suis à peu près certain que tout le monde utilise les memes ASIC, donc peu de difference sur le hard, c'est vraiment sur l'implementation logique qu'on va trouver des écarts.

Effectivement. Il y a des différences majeur dans l’implèmentation.

Premièrement Google se base sur des ASIC 16 x 40G et les gèrent indépendamment. CAD que un switch Centauri contient 4 asics mais que cela ne fait pas un switch de 64 x 40G, mais 4 switches de 16 x 40 G. C'est la mise en place de la topologie Clos.

Donc, chaque Centauri switch est une enclosure pour 4 switches de 16 x 40 G (ou 64 X 10G).

(https://lafibre.info/images/datacenter/201507_datacenter_google_4.png)

On voit aussi cela en essayant de comprendre le design des TORs. La seul chose qui est sure c'est que les TOR sont connectées a l'Aggregation (8 x middle blocks) via 2x10GE. Par ASIC. Soit 16 x 10GE = 4 x 40GE sur l'ASIC.  Cela laisse 12 x 40 GE sur l'asic qui sont utilise pour connecter les 3 autres asic dans la même enclosure en mesh (voir l'image attachée - de moi).

Finalement, depuis le debut de l'initiative (il y a 10 ans) Google avait besoin de la gestion de mutlipaths qui n'existait pas.

En gros, chaque asic est gérée en fonction de sa position dans l'architecture global (par software) et permet de mettre en place des flows est/ouest a wire speed (pour la mise en place de reseau virtual non-basee sur les vlan definit par l'IEEE (Network Function Virtualization) ou autre features).
Titre: Les data centers de Googles
Posté par: BadMax le 13 juillet 2015 à 15:20:48
Il est sympa ton schéma, ça me donne des idées... :)

Cisco ne détaille pas autant le fonctionnement interne de sa gamme Nexus 9300. D'après BRKARC-2222, on sait juste que:
 - sur le N9396PX (48x10GbE+12x40GbE), on a 12x40GbE downlink et 12x42GbE uplink : en supposant que le NFE soit composé de 3 ASIC identiques à ceux de Google, ça donne le schéma de gauche.
 - sur le N93128Tx (96x1/10GbT+8x40GbE), on a 24x40GbE downlink et 8x42GbE uplink : toujours avec l'hypothèse des memes ASIC, avec 5 ça colle avec une architecture SPINE&LEAF (schéma de droite). Mais du coup, on perd (un peu) sur les capacités Est/ouest interne du switch.

Donnez-leur un composant, intéressant de voir les différentes approches.

(https://lafibre.info/images/datacenter/201507_datacenter_google_5.png)
Titre: Les data centers de Googles
Posté par: ruchard5 le 14 juillet 2015 à 23:18:34
Pour ce qui est du compte de serveur, le calcule est plus simple:
  • 64 blocks * 32 switch * 32 ports * 4 * 10 Gbps
  • 64 blocks * 32 * 32 * 4 * 10 Gbps
  • 64 blocks * 4 096 * 10 Gbps
  • 262 144 * 10 Gbps

Donc, on est bien au delà des 100,000 serveurs annoncer, ou me suis-je tromper quelque par?


Oui - je me suis bel et bien trompe :D.

(https://lafibre.info/images/datacenter/201507_datacenter_google_5.jpg)

Ayant finalement compris le design des TORs avec les 4 asics connecter en mesh, on peut corriger le compte de port en 10G (qui n'est qu'un point d'information, puisque Google a annoncer que les serveur peuvent être en 10 ou 40GE, amis cela nous donne un maximum théorique pour commencer).


Ce qui, en laissant quelques ports pour l’interconnexion au Campus / Wan (disons 31 072 x 10G quand même!!!) nous laisse exactement 100 000 serveur - ce que correspond au nombre fournit par Google!

Sans parler de la possibilité de mettre le système a jour (sans évolution du design) avec des asics en 16x100GE...
Titre: Les data centers de Googles
Posté par: ruchard5 le 15 juillet 2015 à 08:21:42
Chez Facebook, ils ont ecrit leur propre implementation de TRILL.

En parlant de Facebook, l'illustration [1] de leur plateforme réseau nous permet de comparer le peu de différences entre les implèmentations de Google et Facebook:

(https://fbcdn-dragon-a.akamaihd.net/hphotos-ak-xfp1/t39.2365-6/10734294_775986955823316_1197403205_n.jpg)


A noter que le nombre de POD / fabric switch chez Facebook n'est pas spécifier (mais avec le 6-pack [2] qui est un switch de 128 x 40GE on peut donner un maximum a 64 server pods, moins 4 edge pods = 60).

Les différences majeur sont donc au niveau des TORs et de l'aggregation:

[1] Introducing data center fabric, the next-generation Facebook data center network (https://code.facebook.com/posts/360346274145943/introducing-data-center-fabric-the-next-generation-facebook-data-center-network/)
[2] Introducing “6-pack”: the first open hardware modular switch (https://code.facebook.com/posts/717010588413497/introducing-6-pack-the-first-open-hardware-modular-switch/)
[3] Introducing “Wedge” and “FBOSS,” the next steps toward a disaggregated network (https://code.facebook.com/posts/681382905244727/introducing-wedge-and-fboss-the-next-steps-toward-a-disaggregated-network/)
Titre: Les data centers de Googles
Posté par: ruchard5 le 17 juillet 2015 à 14:11:01
Oui - je me suis bel et bien trompe :D.

Oui, mais non!

L'erreur provient du dessin des TORs qui ne correspond pas a l'architecture définit par Google: 2 x 10GE vers 8 aggregation blocks _par_ asic. Cela fait 16 x 10 GE vers chacune des 4 asics dans chaque enclosure, ce qui nous fait 64 x 10GE (que l'on retrouve a l'aggregation via 256 x 10 GE x 8 middle blocks / 32 TOR = 64 x 10 GE).

Donc, l'agencement des TORs se fait avec:


Ce qui nous donne le schéma suivant:
(https://lafibre.info/images/datacenter/201507_datacenter_google_7.png)
Titre: Les data centers de Googles
Posté par: ruchard5 le 19 juillet 2015 à 17:48:36
Petite question concernant le choix du design des switch Google en mode "clos".

Les middles bloc et spine switches (illustration jointes) sont-ils vraiment mieux que le 6-pack de Facebook par exemple (ou d'autre switch classique en 128 x 40 GE)?

Quels sont les avantages et inconvénient d'un telle design?

(https://lafibre.info/images/datacenter/201507_datacenter_google_8.png)

(https://lafibre.info/images/datacenter/201507_datacenter_google_9.png)
Titre: Les data centers de Googles
Posté par: BadMax le 23 juillet 2015 à 21:39:06
La réponse est dans la couche SDN: ton infra physique est capable d'avoir plusieurs topologies virtuelles. La tendance est à l'utilisation de VXLAN, il y a aussi TRILL. L'infra doit donc etre capable de s'adapter à tous les 'sens'/cas de figure des flux.

Dans tous les cas, ce sont des reseaux où le bon vieux spanning-tree en a été banni.
Titre: Les data centers de Googles
Posté par: ruchard5 le 26 juillet 2015 à 17:34:49
La réponse est dans la couche SDN: ton infra physique est capable d'avoir plusieurs topologies virtuelles. La tendance est à l'utilisation de VXLAN, il y a aussi TRILL. L'infra doit donc etre capable de s'adapter à tous les 'sens'/cas de figure des flux.

Dans tous les cas, ce sont des reseaux où le bon vieux spanning-tree en a été banni.

Je ne pense pas que TRILL soit une option que Google choisirait, du a la nature de trill [1] (emphasis mine):

Citer
"TRILL switches (RBridges) run a link state protocol amongst themselves. A link state protocol is one in which connectivity is broadcast to all the RBridges, so that each RBridge knows about all the other RBridges, and the connectivity between them"

Je vais pas rechercher ou Amin Vadhat a préciser cela mais un protocole qui fonctionne par broadcast ne peut pas convenir pour des "control freaks" comme Google (control freak dans ce cas est plus un compliment qu'autre chose).

Sinon, pour continuer le fun j'ai fait un petit calcule sur le nombre de path qui existent dans le reseau (au maximum, avec les informations fournit pas Google comme base)  le resultat est sans surprise:


Sans surprise donc on retrouve le même nombre de paths en 10GE a chaque niveau, Google ayant choisit un model sans over-subscription (1:1).

Le modèle avec des paths en hardware plutôt qu'en passant par un crossbar et aussi comprehensible puisque le réseau est 100% deterministic (tout peut être calcule est pre-positionner selon un modèle informatique).

Quesiton: Cela a-t-il une incidence (positive) du point de vue économique?

[1]https://en.wikipedia.org/wiki/TRILL_(computing) (https://en.wikipedia.org/wiki/TRILL_(computing))
Titre: Les data centers de Googles
Posté par: BadMax le 26 juillet 2015 à 20:41:15
Je ne pense pas que TRILL soit une option que Google choisirait, du a la nature de trill [1] (emphasis mine):

C'est possible, mais comme Facebook a developpé une implèmentation de TRILL proche du FabricPath de Cisco, toutes les options sont permises.

Citer
Quesiton: Cela a-t-il une incidence (positive) du point de vue économique?

Encore faudrait-il savoir quelle utilisation est prévue ? Interne Google ? Cloud public ? Etc
Titre: Les data centers de Googles
Posté par: pierrecdn le 27 juillet 2015 à 14:29:58
Il y a dans ce thread pas mal d'actualités sur les annonces d'infrastructures Google des 2 dernières années !

Puisque je vois que certains suivent particulièrement les implantations, extensions etc. des DC Google un peu partout sur la planète : au total cela correspond à quelle surface en termes d'emprise au sol ?
Titre: Les data centers de Googles
Posté par: kgersen le 27 juillet 2015 à 16:22:39
Il y a dans ce thread pas mal d'actualités sur les annonces d'infrastructures Google des 2 dernières années !

Puisque je vois que certains suivent particulièrement les implantations, extensions etc. des DC Google un peu partout sur la planète : au total cela correspond à quelle surface en termes d'emprise au sol ?

precisemment je ne sais pas. Il y a 2 ans j'avais fait ce tableau: https://docs.google.com/spreadsheets/d/1ko7vE316YchvBu3LlIJOl_gQfDz4tLFpFT7ba5EEqpg
J'ai rajouter des trucs recemment mais il manque encore les extensions (Belgique notamment) et les sites d'Irlande, Singapour et les Pays bas.
Ca faisait 190k m2 a l'époque + les oublis et inconnus. 438k m2 maintenant...
Les 2 nouveaux bâtiments en construction a Councils Buffs font chacun 78k et 86k , ce sont des monstres (+600m de long, +120m de large).

En tout on doit arriver a 50 ha voir plus.

C'est bien sur juste la surface des bâtiments au sol. Le foncier est plus bien grand puisqu'il y a les accès et le 'non construit' autour des batiments.

Titre: Les data centers de Googles
Posté par: ruchard5 le 27 juillet 2015 à 17:08:13
Les 2 nouveaux bâtiments en construction a Councils Buffs font chacun 78k et 86k , ce sont des monstres (+600m de long, +120m de large).

On peux aussi ajouter la deuxième tranche de Mayes County, un batiment qui était a Gatorade et que Google a acheter qui fait ~ 660 x 200m (132k m2!!!).

Je ne sais pas si l’aménagement du DC a commencer...

Google Maps - Mayes County, tranche 2 (http://"https://www.google.fr/maps/place/36%C2%B014'41.7%22N+95%C2%B019'30.4%22W/@36.24491,-95.325126,785m/data=!3m2!1e3!4b1!4m2!3m1!1s0x0:0x0?hl=en")

Et pour le fun on peut ajouter le premier DC de Google a Douglas County - celui avec les containers, qui est toujours en production si je ne me trompe, mais il est "tout petit" avec 88x64m (~5000m2)

Google Maps - Digital Reality datacenter (http://"https://www.google.fr/maps/place/33%C2%B044'47.6%22N+84%C2%B034'46.9%22W/@33.74657,-84.579683,962m/data=!3m1!1e3!4m2!3m1!1s0x0:0x0")
Titre: Les data centers de Googles
Posté par: kgersen le 27 juillet 2015 à 17:52:00
On peux aussi ajouter la deuxième tranche de Mayes County, un batiment qui était a Gatorade et que Google a acheter qui fait ~ 660 x 200m (132k m2!!!).

Je ne sais pas si l’aménagement du DC a commencer...

Google Maps - Mayes County, tranche 2 (http://"https://www.google.fr/maps/place/36%C2%B014'41.7%22N+95%C2%B019'30.4%22W/@36.24491,-95.325126,785m/data=!3m2!1e3!4b1!4m2!3m1!1s0x0:0x0?hl=en")


T'es sur que le batiment de Gatorade va devenir un DC ? sinon je vois un truc en construction juste en dessous, tranche 3 de Mayes?

J'ai trouvé le DC d'Irlande mais il me parait bien petit: https://www.google.fr/maps/@53.313581,-6.4473421,181m/data=!3m1!1e3?hl=fr
a peine 60m x 60m
Il y en a peut-etre un autre ?

Titre: Les data centers de Googles
Posté par: kgersen le 27 juillet 2015 à 18:03:35
un candidat pour le DC de Singapore: https://www.google.fr/maps/@1.3511879,103.7096826,361m/data=!3m1!1e3?hl=fr
115m sur 120m environ mais il est sur plusieurs niveaux.
Titre: Les data centers de Googles
Posté par: Leon le 27 juillet 2015 à 18:50:48
[...]qui fait ~ 660 x 200m (132k m2!!!).
Je crois que tu confond les unités.
1km² = 1km x 1km = 1000m x 1000m = 1 Million de m²

Donc le datacenter en question ferait 132 000m².

Leon.
Titre: Les data centers de Googles
Posté par: eruditus le 27 juillet 2015 à 19:03:03
Non, il y a sciemment un espace entre k et m. Le k est là pour dire le mille des 132 000 m2 (comme pour les k euros) ;)
Titre: Les data centers de Googles
Posté par: ruchard5 le 27 juillet 2015 à 20:17:34
Je crois que tu confond les unités.
1km² = 1km x 1km = 1000m x 1000m = 1 Million de m²

Donc le datacenter en question ferait 132 000m².

Leon.

Oui Leon! On est d'accord sur 132 000 m2. Désolé pour la confusion.

T'es sur que le batiment de Gatorade va devenir un DC ? sinon je vois un truc en construction juste en dessous, tranche 3 de Mayes?

J'aurais du sourcé mon information plus haut:

http://www.datacenterknowledge.com/archives/2013/09/23/google-buys-former-gatorade-plant-near-oklahoma-data-center/ (http://www.datacenterknowledge.com/archives/2013/09/23/google-buys-former-gatorade-plant-near-oklahoma-data-center/)

Vu la taille, 1,5 million de pied carré (LOL) je ne vois pas autre chose dans la région.
Titre: Les data centers de Googles
Posté par: pierrecdn le 28 juillet 2015 à 00:36:26
>50ha purement DC, c'est assez colossal...
En effet, en ajoutant le foncier, l'énergie et l'eau utilisée + la desserte des différents sites, les accès routiers, les intercos + déports d'infra dans sites en colocation + les GGC ici et là...
cela donne une idée de ce qui est nécessaire pour délivrer aujourd'hui de multiples services "at scale" et worldwide. Ce n'est clairement pas neutre.

Et cela ne s'arrête pas : https://gigaom.com/2015/02/04/google-had-its-biggest-quarter-ever-for-data-center-spending-again/

A leur niveau, il font du capacity-planning au datacenter  ???.
Titre: Les data centers de Googles
Posté par: e-TE le 20 août 2015 à 00:45:24
un petit article qui retrace les grosses ligne de l'évolution du réseau google:

http://techcrunch.com/2015/08/18/how-googles-networking-infrastructure-has-evolved-over-the-last-10-years/


avec différents liens vers les documents publiés par google, dont le dernier du jour:
https://googleresearch.blogspot.fr/2015/08/pulling-back-curtain-on-googles-network.html
Titre: Les data centers de Googles
Posté par: kgersen le 05 avril 2017 à 19:27:15
derniere brique du SDN de Google a être présentée: Expresso

https://blog.google/topics/google-cloud/making-google-cloud-faster-more-available-and-cost-effective-extending-sdn-public-internet-espresso/

Brievement:

C'est l'element qui assure le peering de facon dynamique en fonction de la demande , de l'état du réseau, etc.
Ca permet a Google de servir un utilisateur au mieux sans se baser sur son IP ou , pire, sur la réso DNS qu'il utilise (comme font certains CDN).

Ca fonctionne aux points de peering (Google en a 70+ dans le monde) en ajoutant un label a tout les paquets IP. Ce label permet l'analyse en temps réel des flux via un calcul distribué. Ce calcule manipule ensuite le routage aux points de peering via BGP.

(https://lafibre.info/images/datacenter/201704_google_espresso_juniper_data_center.png)

(c'est ce que j'ai compris en lisant rapidement sans creuser plus  ;D )
Titre: Les data centers de Googles
Posté par: vivien le 24 décembre 2017 à 16:22:08
Par ailleurs, 4 autres DC sont en cours d'agrandissement, notamment celui en Belgique qui nous concerne directement.

Il va quasiment doubler (le nouveau bâtiment est a l’arrière plan):
(https://lafibre.info/images/datacenter/201506_datacenter_google_3.jpg)

Il y a des gros travaux sur la partie sud de terrain, on me parle d'une extension sur la partie en chantier, au sud de la première extension.

(https://lafibre.info/images/datacenter/201712_datacenter_google_belgique.jpg)
Titre: Les data centers de Googles
Posté par: vivien le 24 mars 2022 à 21:40:08
Vidéo vulgarisant le réseau chez Google :

https://www.youtube.com/watch?v=2R-UVdw6thI