Auteur Sujet: Visite du data center Scaleway DC5 (refroidissement adiabatique)  (Lu 305223 fois)

0 Membres et 1 Invité sur ce sujet

vivien

  • Administrateur
  • *
  • Messages: 47 211
    • Twitter LaFibre.info
Visite du data center Scaleway DC5 (refroidissement adiabatique)
« Réponse #324 le: 16 octobre 2022 à 12:46:01 »
Je confirme qu'il est possible de doubler l'alimentation venant du plafond, pour les serveurs qui consomment beaucoup (notamment les serveurs avec de nombreux GPU intégrés), si 32 A est insuffisant.

On rajoute sur la gaine à barre un second boitier de ce type :
À l’intérieur, on retrouve un disjoncteur de 32 ampères, de quoi superviser ce disjoncteur et deux fusibles pour protéger le dispositif de supervision :



lechuck

  • Abonné Orange Fibre
  • *
  • Messages: 1 759
  • 06
Visite du data center Scaleway DC5 (refroidissement adiabatique)
« Réponse #325 le: 07 décembre 2022 à 18:20:26 »
Je redéterre ce topic, à la lumière de ce qui s'est passé depuis plusieurs mois avec la ressource en eau. Ce n'était effectivement dans la conscience collective pas un problème de bazarder 11m3/h en 2018, ca l'est beaucoup plus maintenant. C'est quand même une sacré usine à gaz ce datacenter adiabatique. On peut se demander si l'investissement au final est vraiment judicieux et si le datacenter est vraiment au final si "green" que cela? Personnellement je suis pas super convaincu, tant écologiquement qu'économiquement.

On optimise à mort tout ce qui concerne le refroidissement et la consommation électrique liée, mais ne faudrait il pas se poser les bonnes questions sur les fondamentaux ? On récupère un bâtiment existant surement pour économiser 3 ronds (et peut être aussi pour ne pas artificialiser une nouvelle surface). Mais y'a t'il eu un vrai travail d'isolation thermique ? Et aussi s'interroger sur la localisation de ces datacenter. Ca me semblerait plus logique que les nouvelles installations se fassent dans des pays très au nord. Ou bien si on veut absolument les conserver sur notre territoire, ne vaudrait il pas mieux privilégier des sites en altitude afin de bénéficier d'une température extérieure plus clémente qu'en plaine ? Après à un moment donné, va falloir se pencher sur les services que ces datacenter hébergent. Et légiférer pour classer ces services selon leur niveau d'importance. Le 24/7 ne devrait être réservé qu'à des services stratégiques. Si par exemple Twitter ou Facebook ou je ne sais quelle merde de RS tombe pendant 4h, ca va vraiment poser un problème a part aux influenceurs débiles ? Dans la même idée a quoi bon stocker des décennies de données inutiles et qui dans le fond ne servent à rien ? Certains secteurs économiques sont de plus en plus bassinés concernant le réchauffement climatique et l'économie des ressources (automobile, immobilier, ...) avec des lois qui deviennent hypercontraignantes mais quid de l'IT où ca reste "open-bar", et où on fait plus de greenwashing que de bien pour la planète.

La lecture de ce reportage m'a laissé un goût doux-amer. D'un côté on est admiratif de l'ingéniosité humaine et de tout ce qui est mis en oeuvre, de l'autre on se demande à quoi tout cela rime. C'est une débauche phénoménale et écoeurante de ressources au regard des services hebergés de ce qu'ils offrent "en moyenne".


Leon

  • Client SFR sur réseau Numericable
  • Modérateur
  • *
  • Messages: 6 001
Visite du data center Scaleway DC5 (refroidissement adiabatique)
« Réponse #326 le: 07 décembre 2022 à 20:17:36 »
On optimise à mort tout ce qui concerne le refroidissement et la consommation électrique liée, mais ne faudrait il pas se poser les bonnes questions sur les fondamentaux ? On récupère un bâtiment existant surement pour économiser 3 ronds (et peut être aussi pour ne pas artificialiser une nouvelle surface). Mais y'a t'il eu un vrai travail d'isolation thermique ?
On se moque pas mal de l'isolation thermique pour un datacenter. Imagine, les équipements informatique produisent plus de 1000W au m². Des calories qu'il faut évacuer. Quand il fait froid dehors, on se moque bien de l'isolation. Quand il fait chaud dehors, c'est effectivement judicieux d'avoir une bonne isolation, mais ça n'est pas prioritaire dans la conception du datacenter.

Citer
Et aussi s'interroger sur la localisation de ces datacenter. Ca me semblerait plus logique que les nouvelles installations se fassent dans des pays très au nord. Ou bien si on veut absolument les conserver sur notre territoire, ne vaudrait il pas mieux privilégier des sites en altitude afin de bénéficier d'une température extérieure plus clémente qu'en plaine ?
En altitude, en France, tu vas avoir du mal à installer un tel site industriel à mon avis. Il faut un réseau électrique fiable, redondant, et une bonne densité de fibre autour.
Beaucoup de datacenters s'implantent dans des pays "froid", Suède, Norvège, Canada, oui, c'est déjà le cas. Mais certains usages ont besoin d'une latence faible vers les utilisateurs finaux ou vers d'autres serveurs déjà implantés en France.

Citer
Après à un moment donné, va falloir se pencher sur les services que ces datacenter hébergent. Et légiférer pour classer ces services selon leur niveau d'importance. Le 24/7 ne devrait être réservé qu'à des services stratégiques. Si par exemple Twitter ou Facebook ou je ne sais quelle merde de RS tombe pendant 4h, ca va vraiment poser un problème a part aux influenceurs débiles ?
Ces datacenters hébergent beaucoup plus que des "réseaux sociaux". Énormément d'entreprises vivent grâce au "numérique", directement  (c'est leur business premier) ou indirectement.

Sinon, je suis tout aussi partagé que toi entre admiration et "critique" sur cette débauche d'énergie dans les datacenter.
Ce qui m'a toujours dérangé avec les datacenters "green" (greenwashing), c'est qu'ils communiquent sur l'efficacité de tout ce qui est autour des "équipements IT" (serveurs/routeurs). Mais une fois qu'on est arrivé à un rendement correct de toute cette partie "autour des équipements IT" (PUE 1.2 ou en dessous), on se rend compte que ça n'est pas ça le plus important. Le plus important c'est d'arrêter cette débauche de serveurs qui se tournent les pouces avec une charge CPU faible. Le plus important, c'est de coder des architectures de "système d'information" qui soient efficaces. De coder en pensant toujours aux ressources consommée, en les optimisant (CPU, RAM, bande passante). C'est de choisir les composants les plus efficaces énergétiquement (processeur ARM, accélération matérielle).

Leon.

fansat70

  • Abonné Free fibre
  • *
  • Messages: 4 863
  • 70 - St Loup-sur-Semouse
    • Carte ZANRO/ZASRO-PM Haute Saône
Visite du data center Scaleway DC5 (refroidissement adiabatique)
« Réponse #327 le: 07 décembre 2022 à 22:19:20 »
[Nostalgie...]
Juste pour en rajouter une couche... On a voulu "former" tout un tas de "développeurs" pour ce qui avait pour finalité le "net"... Résultat: Une bonne partie ne sait faire que d'empiler des briques dont aucune n'a un code optimisé et sécure... Les "vieux kroumirs" (dont j'ai fait partie) comptaient leurs octets et devaient optimiser leur code (avec le "langage" adapté! Des jongleries selon la nécessité en assembleur et autres farces du genre, le courant étant le C de base), car la puissance des bécanes l'imposait! J'ai connu l'époque héroïque où pour réaliser une saisie de 6 ou 7 champs, quand on avait bouffé 32k de code (réutilisation à mort de briques système, et on était en mode caractère...), c'était que l'on avait fait très fort! Désormais, pour faire la même chose, il faut 32 ou 64 mégas (et des bibliothèques de centaines de mégas )! et je suis gentil! Mais c'est joli, et le développeur n'a pas coûté cher à sa boite... A court terme! Car ce qu'il va lui faire bouffer en ressources, énergie et en maintenance, ouch! Sans compter la mer... au niveau de la sécurité!
[/Nostalgie...]

simon

  • Abonné Orange Fibre
  • *
  • Messages: 935
Visite du data center Scaleway DC5 (refroidissement adiabatique)
« Réponse #328 le: 08 décembre 2022 à 08:58:39 »
Fansat, la facon de travailler que tu décris n'est pas morte, regarde du côté de l'embarqué (microcontroleurs hein, pas des cortex A-12) :)

Je pense que la facon de développer en assemblant des briques dont tu parles ne date pas d'hier. Quand j'ai commencé à coder il y a ~15 ans, c'était déjà le cas avec Java et Maven, et maintenant c'est surtout dans le dev Web qu'on voit ce genre de choses, à tel point que le quidam lambda revient aux applications natives car "l'internet, c'est lent".

C'est selon moi surtout une question de management qui a mené à ce genre de pratiques : les project managers ont une pression de vélocité et de coût importante, et sortent pour la grande majorité d'écoles de management dans lesquelles on apprend beaucoup de choses, certes, mais pas la technique (ni même les bases de la culture scientifique, dans mon expérience).
Donc il faut SCRUM, Jira et que les développeurs fassent des petits tickets. Si le Kanban ne montre pas un indicateur de vélocité pour l'équipe au plus haut, on ne cherche pas à comprendre quel problème était dur à résoudre, on va assigner "le ticket" à "une ressource" d'une autre équipe pour que ca aille plus vite.
On sépare les équipes responsables de la sécurité applicative et de la protection des données des équipes de dev, car elles ont des objectifs fixés par leurs hiérarchies diamétralement opposées (l'une doit aller vite pour qu'on puisse vendre, l'autre est une assurance sur le long terme).

J'ai vu des mecs satellisés d'équipes de WebDev (un métier avec ses nombreux problèmes, certes, mais dans lequel je ne suis qu'amateur) pour tenter de faire de l'embarqué car il fallait "une ressource en plus".
Je bossais avec l'un d'entre eux, j'ai passé plus d'un mois à tenter de lui faire comprendre que pour piloter des groupes froids de plusieurs centaines de kW, on avait besoin que le code soit robuste, et qu'on pouvait pas dire à l'utilisateur (quel utilisateur?) qu'il fallait "vider le cache et recharger la page".

Ce n'est que peu étonnant de voir le même management dire "si il faut 2-5x plus de serveurs pour contourner le bug, c'est pas grave, ca sera moins cher que de développer un fix".
Bref, pour moi, le souci dans "DSI" a toujours été le "D". Fin du HS :)

Pour en revenir au sujet (plus intéressant!), quand je bossais dans le datacenter il y a une bonne dizaine d'années, on estimait qu'environ 10% des serveurs allumés dans nos parcs étaient "oubliés" par nos clients. En creusant un peu chez un client, j'ai compris que ca fonctionnait comme cela :
- un sysadmin a besoin d'un (ou de plusieurs) serveurs, il en fait la demande.
- 6 mois plus tard, les achats se saisissent de la demandent et approuvent (note qu'ils n'ont souvent même pas à procurer le serveur eux-même, le sysadmin peut l'avoir de lui-même en deux clicks si on l'y autorise)
- l'OS pré-installé n'est pas le bon (trop récent), la boite impose soit RHEL 4 (!) soit une version exotique de windows 2000 (la "souche logicielle" approuvée). Il faut faire une demande spécifique à l'infrastructure provider car cet OS n'existe plus dans les images proposées, et d'ailleurs, fournir une licence pour ledit OS.
- retour aux achats, obtention d'une licence, envoi de la licence au fournisseur d'infrastructure, etc. etc.
- 8 à 10 mois après, le gars dispose de son serveur et peut  commencer à y installer ses applis.

Bien évidemment, le sysadmin avait la pression pour rajouter un serveur de base de données ASAP et se fait taper dessus car il est 10 mois en retard.
Il commande donc un nombre de serveurs en avance pour en avoir sous le coude le vendredi soir à 7pm quand les alertes "server low on disk space" arrivent sur son téléphone, si il n'est pas parti de désespoir entre temps.

Le serveur reste dans le rack, touours allumé (quand j'éteignais les machines dont je n'avais pas besoin, les techs du datacenter les rallumaient lors de leur ronde de maintenance), à dissiper une centaine de watts à se tourner les pouces.

Un jour, le sysadmin part. Personne n'ose toucher à ces serveurs car "ils pourraient servir à quelque chose, mais je ne sais pas quoi". Trop risqué de l'éteindre.

Le fournisseur d'infrastructure n'a rien à gagner à inciter ses clients à les rendre : il réduirait son CA. De toute facon, même avec un paquet de serveurs qui se tournent les pouces, le client paye touours moitié moins (parfois 10x moins) que s'il était sur AWS, donc pas de risque de le perdre.

Ce post est déjà bien assez long pour que j'aborde le côté applicatif...

fansat70

  • Abonné Free fibre
  • *
  • Messages: 4 863
  • 70 - St Loup-sur-Semouse
    • Carte ZANRO/ZASRO-PM Haute Saône
Visite du data center Scaleway DC5 (refroidissement adiabatique)
« Réponse #329 le: 08 décembre 2022 à 09:20:19 »
Four le fun, et ne pas alourdir le thread, j'ai commencé de coder au début des années 1980...  ;)

simon

  • Abonné Orange Fibre
  • *
  • Messages: 935
Visite du data center Scaleway DC5 (refroidissement adiabatique)
« Réponse #330 le: 08 décembre 2022 à 09:24:11 »
T'as 15 ans d'avance, je me couche.

blarglibloup

  • Invité
Visite du data center Scaleway DC5 (refroidissement adiabatique)
« Réponse #331 le: 08 décembre 2022 à 11:55:00 »
Désormais, pour faire la même chose, il faut 32 ou 64 mégas (et des bibliothèques de centaines de mégas )! et je suis gentil!
Très gentil en effet. Regarde à l'occasion la taille de chacune des apps installées sur ton smartphone, des centaines de méga pour afficher une UI avec 3 ou 4 écrans... Le framework Electron, cette abomination...

Et maintenant les langages qui compilent en static, comme Go, histoire d'être sûr de bouffer du stockage, de pourrir la mémoire et les caches, et sans parler du cauchemar que c'est quand il y a une faille de sécurité dans l'un des modules utilisés... Le progrès!

Fansat, la facon de travailler que tu décris n'est pas morte, regarde du côté de l'embarqué (microcontroleurs hein, pas des cortex A-12) :)
Tu veux qu'on parle d'Arduino, ou mieux, de microPython, pour rire 2 minutes? ;P

Pour moi le seul "endroit" où on voit encore des gens capable de faire cracher leur tripes aux transistors, c'est sur la demoscene, notamment sur C64, Amiga, etc.

Citer
Je pense que la facon de développer en assemblant des briques dont tu parles ne date pas d'hier. Quand j'ai commencé à coder il y a ~15 ans, c'était déjà le cas avec Java et Maven, et maintenant c'est surtout dans le dev Web qu'on voit ce genre de choses, à tel point que le quidam lambda revient aux applications natives car "l'internet, c'est lent".
Parlons du NoCode alors ;D

Citer
Ce n'est que peu étonnant de voir le même management dire "si il faut 2-5x plus de serveurs pour contourner le bug, c'est pas grave, ca sera moins cher que de développer un fix".
Bref, pour moi, le souci dans "DSI" a toujours été le "D". Fin du HS :)
Bah tiens. Donc le petit dev qui fait de la merde (et ne s'en rend même plus compte parce que tout ce qu'il a appris à l'école ou sur le tas, c'est comment faire une recherche google qui lui permet de trouver un bout de code à copier-coller, lequelle bout de code est déjà un copier-coller d'un copier-coller d'un copier-coller... bientôt simplifié avec l'AI de GitHub d'ailleurs) il n'y est pour rien? Et le système éducatif qui n'éduque plus rien, aucune responsabilité? Et surtout, pourquoi en on est là? Parce qu'il y a une demande, des Jeanjean qui en veulent toujours plus, dans la poche, dans la maison, sur leur télé, dans leur voiture, etc... Enfin, on est HS mais bon, je trouve ton verdict un peu simpliste.

fansat70

  • Abonné Free fibre
  • *
  • Messages: 4 863
  • 70 - St Loup-sur-Semouse
    • Carte ZANRO/ZASRO-PM Haute Saône
Visite du data center Scaleway DC5 (refroidissement adiabatique)
« Réponse #332 le: 08 décembre 2022 à 12:00:58 »
Il y aurait même des enfoiros qui prétendraient que le Saint Patron du Dev moderne serait un certain Hermann... Peut-être pour la daube? Ok, je sors!  ;)

simon

  • Abonné Orange Fibre
  • *
  • Messages: 935
Visite du data center Scaleway DC5 (refroidissement adiabatique)
« Réponse #333 le: 08 décembre 2022 à 12:04:43 »
Enfin, on est HS mais bon, je trouve ton verdict un peu simpliste.
Disons que l'écosystème dans lequel le dev en question évolue, et qui lui permet de ne pas comprendre grand chose de ce qu'il manipule en important 200-300 libs javascript dans son packages.json, ce n'est pas lui qui l'a créé. Sans cet écosystème, il aurait bien du mal à opérer ainsi.

Je t'invite à regarder qui est derrière les frameworks WebDev les plus en vogue et responsables du bloat dont on parle (angular, react, vue, ainsi qu'une bonne partie de l'ecosystème nodejs). Ce ne sont pas des mecs incompétents bossant pour une petite boite. Les capitaux investis pour développer et supporter cette facon de développer sont monumentaux.

On est trop HS, je m'arrête :)

e-TE

  • Abonné Free fibre
  • *
  • Messages: 1 145
  • Déville-les-Rouen (76)
Visite du data center Scaleway DC5 (refroidissement adiabatique)
« Réponse #334 le: 12 décembre 2022 à 15:13:04 »
on commence a voir dans les marchés publics des contraintes d'efficience sur les datacenters, mais aussi sur l'optimisations du code... mais vu qu'entre la partie IT qui est sensibilisé, les achats, la comm', les politiques, il n'y a pas les mêmes enjeux, volonté, échelle temporelle, ca va mettre du temps avant de vraiment aboutir à des choses intéressantes et contraignantes xD

Leon

  • Client SFR sur réseau Numericable
  • Modérateur
  • *
  • Messages: 6 001
Visite du data center Scaleway DC5 (refroidissement adiabatique)
« Réponse #335 le: 12 décembre 2022 à 15:50:44 »
on commence a voir dans les marchés publics des contraintes d'efficience sur les datacenters, mais aussi sur l'optimisations du code... mais vu qu'entre la partie IT qui est sensibilisé, les achats, la comm', les politiques, il n'y a pas les mêmes enjeux, volonté, échelle temporelle, ca va mettre du temps avant de vraiment aboutir à des choses intéressantes et contraignantes xD
Ca m'intéresse beaucoup ce que tu dis. Tu as des exemples de comment les critères objectifs sur l'optimisation du code sont formulés dans les "cahiers des charges"?

Leon.