Auteur Sujet: Datacenter de 1400 MW pour l'intelligence artificielle en Seine-et-Marne (Fouju)  (Lu 4090 fois)

0 Membres et 2 Invités sur ce sujet

alain_p

  • Abonné Free fibre
  • *
  • Messages: 18 074
  • Delta S 10G-EPON sur Les Ulis (91)
Il faut savoir lire entre les lignes. Ici, c'est un communiqué pour le grand public, pas forcément précis.
"aucun prélèvement dans les ressources en eau locales", c'est sans ambiguïté : pas de refroidissement par évaporation, pas de consommation massive d'eau, et c'est cohérent avec la définition standard du "dry cooling".

Oui, mais on sait qu'il n'est pas possible d'évacuer 1.4 GW (ou même 700 MW, première phase), dans ces conditions, n'est-ce pas ? Vivien a relevé que cela ne concernait que les 3 premiers datacenters, certainement d'une puissance moindre, même si elle n'est pas précisée, malheureusement.

Vivien l'a relevé, toutes les centrales nucléaires de cette gamme de puissance sont situées près d'un fleuve ou de l'océan, pour prélever l'eau pour le refroidissement.

Le texte est plein de flous et d’ambiguïté. Il est surtout rempli de hype.

alain_p

  • Abonné Free fibre
  • *
  • Messages: 18 074
  • Delta S 10G-EPON sur Les Ulis (91)
Voilà d'ailleurs ce que dit une autre IA, Gemini de cette prétention de n'utiliser que du dry cooling.

Question posée : "Le projet de datacenter IA Campus AI dans la Seine-et-Marne prétend évacuer 1.4 GW de puissance électrique par dry cooling. Est-ce réaliste ? " Réponse :

Non, l'affirmation selon laquelle le projet de datacenter IA Campus AI en Seine-et-Marne pourrait évacuer 1,4 GW de puissance électrique par dry cooling (aéroréfrigérants secs) semble hautement irréaliste et techniquement improbable dans le contexte actuel.

Voici une analyse détaillée de ce qui rend ce chiffre peu crédible :

🏭 Échelle de Puissance Absolument Colossale

Un datacenter de 1,4 GW (1400 MW) est une puissance électrique extrêmement massive, comparée à la taille des datacenters actuels en France :

- Les plus grands datacenters en France ont actuellement des puissances de l'ordre de 130 MW à 250 MW.

- Le chiffre de 1,4 GW est comparable à la puissance électrique totale d'une centrale nucléaire (un réacteur EPR est d'environ 1,6 GW).

- Un commentateur a estimé qu'avec un PUE (Power Usage Effectiveness) typique d'un datacenter, près de 90 % de cette puissance, soit environ 1,26 GW, devrait être évacuée sous forme de chaleur.

🌬️ Limites du Dry Cooling pour une Telle Capacité

Le dry cooling (refroidissement sec) est une technique de free cooling très appréciée pour sa faible consommation d'eau (circuit fermé). Cependant, elle présente des limitations significatives, surtout à l'échelle du Gigawatt (GW) :

Capacités Unitaires: Les aéroréfrigérants secs (dry coolers) modulaires sont généralement conçus pour des puissances allant de quelques kW à 1 MW (un seul module) ou jusqu'à 10 MW ou plus pour de très grandes unités. Évacuer 1,26 GW de chaleur nécessiterait une quantité absolument gigantesque d'unités de dry cooling et une surface d'installation phénoménale.

Contrainte par la Température Extérieure: Le dry cooling est une forme de free cooling dont la performance est directement limitée par la température de l'air sec extérieur (Dry Bulb Temperature). En période de forte chaleur estivale, typique de la Seine-et-Marne, la capacité de refroidissement diminue drastiquement, nécessitant souvent le recours à des systèmes de refroidissement complémentaires ou plus intensifs (comme le refroidissement par évaporation ou l'adiabatique, qui consomment de l'eau, ou les groupes froids à compression).

Augmentation de la Densité (IA): Les datacenters d'Intelligence Artificielle (IA Campus AI) ont une densité de puissance beaucoup plus élevée que les datacenters classiques, ce qui nécessite de plus en plus des solutions de refroidissement liquide (par exemple, par immersion ou par contact direct) en complément ou en substitution du refroidissement par air, y compris le dry cooling, pour gérer les points chauds.

Conclusion sur la Faisabilité

Il est extrêmement improbable qu'un projet en région parisienne (Seine-et-Marne), même en utilisant la plus grande surface d'aéroréfrigérants secs imaginable, puisse évacuer 1,4 GW de chaleur uniquement par dry cooling de manière fiable, en particulier en tenant compte des pics de chaleur.

Il est plus probable que :

- Le chiffre de 1,4 GW représente la puissance de raccordement électrique brute totale, et non la chaleur à dissiper (bien que la plupart soit dissipée en chaleur).

- Le système de refroidissement soit un système hybride complexe, combinant le dry cooling (pour le free cooling la majeure partie de l'année) avec d'autres technologies comme le refroidissement par évaporation adiabatique (consommateur d'eau) et des groupes froids traditionnels, pour garantir la redondance et la capacité de refroidissement pendant les périodes chaudes.

- L'affirmation soit une erreur d'interprétation ou une extrapolation des capacités réelles, ou qu'elle inclue une très grande proportion de refroidissement liquide qui utilise ensuite des dry coolers comme échangeurs finaux (ce qui ne change pas la problématique de la taille monumentale requise).

Le gigantisme de la puissance annoncée combiné à la limitation technique du dry cooling rend l'affirmation très discutable.


La hype IA combattue par l'IA...

Leon

  • Abonné Bbox fibre
  • Modérateur
  • *
  • Messages: 6 597
Oui, mais on sait qu'il n'est pas possible d'évacuer 1.4 GW (ou même 700 MW, première phase), dans ces conditions, n'est-ce pas ?
Hein??  :o
Pourquoi il ne serait pas possible d'évacuer 1.4GW en dry cooling?

Si tu veux construire un campus IA en watercooling sans utiliser d'échangeur adiabatique (=avec évaporation de l'eau), c'est forcément faisable. Un campus-datacenter de 1.4GW sera juste 100fois plus grand qu'un datacenter de 14MW. Et on sait qu'un datacenter de 14MW ça existe en dry cooling.

Il "suffit" juste de mettre plus de surface d'échangeur, plus d'échangeurs, des milliers d'échangeurs dry coolers.
Ca coute plus cher, ça prend plus de place qu'avec du refroidissement "adiabatique", mais c'est faisable.
Voir photo ci dessous d'un campus de datacenter de taille moyenne (sans doute quelques dizaines de MW), avec beaucoup d'échangeurs sur le toit. Sur la photo tu dois avoir entre 200 et 300 dry-coolers.

Et la surface d'échangeur nécessaire elle dépend de la température de l'eau côté "chaud".
Que ça soit avec des climatisation ou du watercooling (refroidissement direct à l'eau), on pousse les calories avec de l'eau à 45-50°C.

Leon.

alain_p

  • Abonné Free fibre
  • *
  • Messages: 18 074
  • Delta S 10G-EPON sur Les Ulis (91)
Désolé, mais on n'est pas dans les mêmes dimensions, voir réponse Gemini.

Il suffit "juste" de mettre davantage d'échangeurs, bien sûr ! C'est simplement 100 fois plus grand que ton déjà très gros datacenter.

Je crois que l'on essaye juste de nous balader en prétendant que ce datacenter immense ne consommera pas d'eau.

Leon

  • Abonné Bbox fibre
  • Modérateur
  • *
  • Messages: 6 597
Désolé, mais on n'est pas dans les mêmes dimensions, voir réponse Gemini.

Il suffit "juste" de mettre davantage d'échangeurs, bien sûr ! C'est simplement 100 fois plus grand que ton déjà très gros datacenter.

Je crois que l'on essaye juste de nous balader en prétendant que ce datacenter immense ne consommera pas d'eau.
Tiens, voici un datacenter de plusieurs centaines de MW équipé en Dry-Cooler.
https://dfwcgi.com/project/100-mw-high-performance-computing-data-center/

Dans ce genre d'installation, pour mettre à l'échelle, il suffit vraiment de tout multiplier par 5 ou 10.
Donc pour 1GW, tu peux par exemple construire 10x datacenters de 100MW.
Les investissements sont colossaux, et quand tu as le pognon, tu peux quasiment faire tout ce que tu veux.
Même si tu ne le crois pas, mais ça ne change franchement pas grand chose.

Quand à ta réponse Gémini, je ne pense pas qu'il faille lui faire confiance.

Leon.

vivien

  • Administrateur
  • *
  • Messages: 51 081
    • Bluesky LaFibre.info
Voilà d'ailleurs ce que dit une autre IA, Gemini de cette prétention de n'utiliser que du dry cooling.

Question posée : "Le projet de datacenter IA Campus AI dans la Seine-et-Marne prétend évacuer 1.4 GW de puissance électrique par dry cooling. Est-ce réaliste ? "
J'ai posé la question à Gemini, mais à Gemini 2.5 Pro et non Gemini 2.5 Flash, voici sa réponse, qui est un peu différente :

Absolument. Analysons cette affirmation sous plusieurs angles pour déterminer si elle est réaliste.

La réponse courte est la suivante : si le chiffre de 1,4 GW est bien celui annoncé pour la puissance électrique totale du campus à terme, l'évacuer par "dry cooling" (refroidissement à sec) est théoriquement possible, mais représente un défi technique et environnemental absolument colossal et sans précédent à cette échelle. Le terme "réaliste" est donc sujet à un débat intense.

Voici une analyse détaillée des points clés.

1. Un Ordre de Grandeur Inédit

Il est crucial de comprendre ce que représente 1,4 Gigawatts (GW).

- Puissance d'un réacteur nucléaire : C'est la puissance électrique d'un réacteur nucléaire moderne de type EPR (comme celui de Flamanville) ou d'une grosse tranche de centrale nucléaire existante.

- Consommation d'une métropole : C'est plus que la consommation électrique instantanée de la ville de Marseille (environ 1 GW en pointe).

- Plus grand datacenter au monde : Les plus grands campus de datacenters au monde actuellement en opération ou en construction visent des puissances de plusieurs centaines de Mégawatts (MW), rarement au-delà de 500 MW. Un projet de 1,4 GW (soit 1400 MW) pulvériserait tous les records existants.

Presque 100% de cette puissance électrique consommée par les serveurs est convertie en chaleur. Le défi est donc d'évacuer en continu 1,4 GW de puissance thermique.

2. La Technologie du "Dry Cooling"

Le refroidissement à sec (ou aéroréfrigérant) fonctionne sur le principe d'un immense radiateur. De l'air est pulsé par de très nombreux ventilateurs à travers des échangeurs de chaleur dans lesquels circule un fluide (généralement de l'eau en circuit fermé) qui a capté la chaleur des serveurs.

- Avantage principal : Il ne consomme quasiment pas d'eau, contrairement aux tours de refroidissement par évaporation ("wet cooling") qui en vaporisent des quantités massives. C'est un argument écologique et réglementaire majeur.

- Inconvénient majeur : Son efficacité est bien plus faible que le refroidissement par évaporation et dépend directement de la température de l'air ambiant. Plus l'air extérieur est chaud, moins le système est efficace.

3. Les Défis Techniques et Physiques

Pour évacuer 1,4 GW de chaleur avec cette technologie, les obstacles sont gigantesques :

- Taille des installations : Il faudrait une surface d'échangeurs de chaleur et un nombre de ventilateurs absolument phénoménaux. On parle d'une installation qui s'étendrait visuellement sur des hectares, ressemblant à une "ferme" de modules de ventilation de plusieurs mètres de haut. L'emprise au sol et l'impact visuel seraient considérables.

- Efficacité lors des canicules : Le principal point faible. Durant les vagues de chaleur estivales en Île-de-France, où la température de l'air peut dépasser 35-40°C, l'efficacité du dry cooling chute drastiquement. Pour maintenir les serveurs à une température de fonctionnement acceptable, il faudrait soit :

1/ Surdimensionner massivement les installations (encore plus de ventilateurs, plus de surface).

2/ Ralentir la puissance de calcul des serveurs ("throttling"), ce qui va à l'encontre du but d'un tel campus.

3/ Utiliser en appoint un système de refroidissement complémentaire, plus énergivore.

- Consommation électrique du système de refroidissement : Les centaines, voire les milliers de ventilateurs nécessaires pour brasser un volume d'air suffisant consommeraient eux-mêmes une quantité d'électricité colossale, de l'ordre de plusieurs dizaines de Mégawatts, voire plus. Cette consommation s'ajoute aux 1,4 GW des serveurs.

- Nuisances sonores : Le bruit généré par une telle concentration de ventilateurs en fonctionnement serait une contrainte environnementale et réglementaire extrêmement difficile à gérer pour les riverains.

Conclusion : Théoriquement Possible, Pratiquement Audacieux

- Sur le papier : Oui, la physique permet de construire un système de dry cooling capable d'évacuer 1,4 GW de chaleur. Il "suffit" de multiplier le nombre de modules de refroidissement.

- En pratique : Le faire de manière économiquement viable, socialement acceptable (bruit, paysage) et surtout fiable pendant les extrêmes climatiques (canicules) est un pari technologique d'une ampleur inédite.

Le terme "réaliste" est donc très optimiste. Il serait plus juste de qualifier ce projet d'extrêmement ambitieux et à la frontière des limites technologiques actuelles pour cette technologie à cette échelle.

La faisabilité du projet AI Campus ne repose pas seulement sur la capacité à évacuer la chaleur, mais aussi sur la capacité du réseau électrique français (géré par RTE) à fournir de manière stable une telle puissance en un point unique, ce qui constitue un autre défi majeur.

alain_p

  • Abonné Free fibre
  • *
  • Messages: 18 074
  • Delta S 10G-EPON sur Les Ulis (91)
Tiens, voici un datacenter de plusieurs centaines de MW équipé en Dry-Cooler.
https://dfwcgi.com/project/100-mw-high-performance-computing-data-center/

Non, comme le titre du lien l'indique, c'est un projet de datacenter de 100 MW "seulement", en fait 4x25 MW. C'est déjà beaucoup, mais c'est un ordre de grandeur inférieur au méga projet de Campus IA.

100 MW High-Performance Computing Data Center

...
From this BOD, the team has since designed the first building on the campus, a 100-MW building designed for HPC/AI workloads with mechanical systems designed for liquid cooling. Four (4) 25-MW data halls were laid out in a stacked configuration, ..


Cela correspond en gros au 3 premiers datacenters pour lequel Vivien a relevé que le dry cooling était annoncé.

Pour l’instant, je croirais plus Gemini. Comme le disait Vivien les centrales nucléaires de cette puissance sont toutes construites au bord de rivières ou de l'océan. Si c'était possible de faire du dry cooling, on en construirait sur des sites sans eau autour. Tu vois 1 GW dégagé dans l'air comme cela, sans conséquence pour l'environnement autour ? Moi pas. Bon, le terrain est sur un site non protégé, donc pas besoin de se préoccuper de l'environnement, n'est-ce pas ?

Je plains les habitants du village à côté. Cra de toute façon, le rouleau compresseur politique va imposer le projet (c'est le but des procédures "Fast track"). Bon, cela changera peut-être à l'élection présidentielle de 2027, et si la bulle spéculative de l'IA éclate entre temps.

Là, je pense que l'on est parti pour un datacenter de 100 MW. Le reste, on verra... D'ailleurs, la première tranche de raccordement signée avec RTE, c'est pour l'instant 700 MW.
« Modifié: Hier à 22:52:36 par alain_p »

alain_p

  • Abonné Free fibre
  • *
  • Messages: 18 074
  • Delta S 10G-EPON sur Les Ulis (91)
J'ai posé la question à Gemini, mais à Gemini 2.5 Pro et non Gemini 2.5 Flash, voici sa réponse, qui est un peu différente :

Je n'ai pas l'impression que la réponse soit très différente...

vivien

  • Administrateur
  • *
  • Messages: 51 081
    • Bluesky LaFibre.info
Je plains les habitants du village à côté.
Les plus proches habitations du hameau des Bordes sont à 1 Km ;
Les plus proches habitations du village de Crisenoy sont à 1 Km ;
Les plus proches habitations du village de Fouju sont à 2 Km ;
Les plus proches habitations du village de Saint-Germain-Laxis sont à 2 Km ;
Les plus proches habitations du village de Moisenay sont à 2,5 Km ;
Les plus proches habitations de la première grande ville, Melun sont à 6,5 Km.

De plus, le projet de campus IA est collé à une future prison (qui est sur la commune de Crisenoy).

Si le projet de Campus IA et de ses 50 Md€ d’investissements semble plutôt bien accueilli par certains élus (un projet de grand centre logistique, avec des centaines de camions par jour, était prévu avant le campus IA), ce n'est pas le cas de la prison voisine :

https://www.leparisien.fr/seine-et-marne-77/prison-de-crisenoy-le-maire-depose-plainte-contre-letat-qui-defigure-une-voie-communale-07-10-2024-HNM72J7KHRHQROZRKJNHVQRWXY.php

En mars 2025, TF1 en a parlé au journal télévisé : https://www.tf1info.fr/societe/video-reportage-il-en-faut-mais-pas-n-importe-ou-a-crisenoy-et-noiseau-ces-habitants-qui-refusent-qu-une-prison-xxl-s-eleve-pres-de-chez-eux-2357476.html


vivien

  • Administrateur
  • *
  • Messages: 51 081
    • Bluesky LaFibre.info
J'ai envoyé nos interrogations sous la forme d'un "Cahier d’acteur"

(cliquez sur la miniature ci-dessous - le document est au format PDF)


J'ai hésité sur le format, car on a plus des questions que des propositions.

Qu’est-ce qu’un cahier d’acteur ?
Outil d’information mais aussi d’expression, le cahier d’acteur permet au public et au maître d’ouvrage de prendre connaissance des observations, proposition, avis ou opinion de tout groupement légalement constitué sur le projet. Le cahier d’acteur offre ainsi une alternative au simple dépôt d’avis en ligne pour ses auteurs qui ont l’opportunité d’exprimer une position détaillée et argumentée. Précisons que le contenu du cahier d’acteur relève de la responsabilité de son auteur et n'engage que lui.

Le cahier d’acteur est un document formaté, mis à disposition par la maîtrise d’ouvrage sur le site de la concertation publique.

Comment est conçu un cahier d’acteur ?
- Une présentation du propos : la première page contient quatre encarts : l’un, central, qui permet de présenter en quelques lignes ou tirets propos de l’acteur. Les trois autres, sur la droite, servent à la présentation de l’acteur en question (logo s’il existe, rapide description de l’entité et coordonnées).
- Un développement de vos arguments, de votre position, de vos propositions en pages suivantes : Veillez à bien citer vos sources, à subdiviser votre raisonnement en parties ou sous-parties. Vous pouvez illustrer vos propos de visuels libres de droits ou en indiquant les crédits associés. L’argumentaire ne doit pas dépasser 7 000 caractères (correspondant à environ 3 pages).
- Une conclusion / synthèse en quelques phrases : il faut que le lecteur puisse y retrouver vos principaux arguments et propositions