La Fibre
Datacenter et équipements réseaux => Datacenter =>
Datacenter => Discussion démarrée par: vivien le 07 septembre 2025 à 22:18:04
-
Un datacenter de 1400 MW pour l'intelligence artificielle sera construit en Seine-et-Marne près de Melun en 2026 (mis en service 2028)
(https://lafibre.info/images/datacenter/logo_campus_ia.webp)
(https://lafibre.info/images/datacenter/202510_fouju_campus_ia_concertation_mini.avif)
Dans le cadre de l'accord conclu entre la France et les Émirats Arabes Unis sur l'intelligence artificielle qui prévoit notamment un investissement de 109 milliards d'euros, dont 50 milliards apportés par les Émirats via le fonds MGX, un giga campus dédié à l'intelligence artificielle devrait être implanté sur le territoire français. Ce campus abriterait notamment un centre de données d'une puissance inédite de 1,4 gigawatt. Le site pressenti pour accueillir cette infrastructure est situé à Fouju, un petit village de 639 habitants, dans le parc d'activités intercommunal, à proximité de l'autoroute A5. Le lancement des travaux est prévu pour 2026, avec une mise en service en 2028. Le coût du projet, estimé entre 30 et 50 milliards d'euros, serait majoritairement financé par des fonds émiratis via MGX.
Source : Question au gouvernement (https://questions.assemblee-nationale.fr/q17/17-8839QE.htm) (Publication de la question au Journal Officiel du 22 juillet 2025, page 6583)
(https://lafibre.info/images/environnement/202502_sommet_action_ia_campus_1000mw.avif)
MGX (Émirats arabes unis) et Bpifrance, Mistral et Nvidia annoncent développer en Île-de-France un campus IA ouvert, associant data centers, calcul de haute performance, éducation et recherche. Ce campus au service de l’ensemble de l’écosystème IA vise une capacité de 1.4 GW d’ici 2030, avec une première tranche ayant pour objectif d'être opérationnelle en 2028 représentant 8.5 Md€ d’investissement. Il s’inscrit dans le cadre de l’Accord-Cadre entre la France et les Émirats Arabes Unis, qui prévoit jusqu’à 50 Md€ d’investissements.
Source : Palais de l'Élysée (https://www.elysee.fr/admin/upload/default/0001/18/84d1c64090376516b4d6d8a5d645ce67c49b0a90.pdf#page=9) - Dossier de presse "Choose France" du 19 mai 2025
J'ai cherché où pouvait être futur datacenter. Le "parc d'activités intercommunal" ne semble pas exister à date. On voit juste un petit village et des champs partout autour.
On voit juste à proximité de l'autoroute A5 (au centre de la vue aérienne) un endroit où la terre a été travaillée. Ce serait probablement là ?
(https://lafibre.info/images/datacenter/202509_fouju_seine-et-marne.avif)
Le village de Fuju est en haut à droite de la vue aérienne.
Fuju est également à la bifurcation de la LGV Paris-Lyon avec une LGV Fuju <=> Villeneuve-Saint-Georges/Créteil (mis en service en 1996) et la LGV Fuju <=> Lieusaint/Combs-la-Ville (mis en service en 1983) qui met plus de temps pour rejoindre Paris et qui n'est presque plus utilisée aujourd'hui.
La LGV est contre l'autoroute. Au sud direction Lyon, au nord (la voie passe au-dessus de l'autoroute) direction Villeneuve-Saint-Georges/Créteil, à l'ouest direction Lieusaint/Combs-la-Ville.
Fouju fait parti des 4 sites en France proposant 700 MW ou plus avec une mise en place rapide de ce raccordement : (Seine-et-Marne ZAC des Bordes à Fouju ; Seine-et-Marne emplacement de l’ancienne centrale EDF de Montereau à Vernou-la-Celle-sur-Seine et La-Grande-Paroisse ; Somme ZAC du Bosquel ; Nord Parc d’activité des Soufflantes à Escaudain)
(https://lafibre.info/images/datacenter/202505_choose_france_sites_propices_centres_de_donnees.avif)
Source : Dossier de presse Choose France - 19 mai 2025 à Versailles
-
1400 MW, un gaspillage monstrueux, de la folie.
De toute façon, aucune entreprise du secteur n'est rentable (peut-être Deep Seek, dont les investissements et la consommation électrique ont été beaucoup moins importants), les investissements et les coûts de fonctionnement sont eux aussi monstrueux, et on a un gros risque de krack boursier, comme la bulle internet en 2002.
https://www.lemonde.fr/economie/article/2025/08/23/intelligence-artificielle-les-economistes-s-inquietent-d-un-risque-de-bulle-financiere_6634010_3234.html
-
et on a un gros risque de krack boursier, comme la bulle internet en 2022.
Il y a une erreur dans la date car la bulle internet s'étale de 1999 jusqu'à 2002.
-
Effectivement, corrigé.
-
Tant mieux si on peut avoir des truc d'ia europeen.
Un peu marre de mettre de centaines de doc confidentiels sur des serveurs aux etats-unis.
-
La phase de concertation préalable va démarrer.
On a plus d'information sur le projet !
Créations d’emplois :
estimées à 500 emplois directs et plus de 1 000 emplois indirects (prestataires de service etc.)
Trafic routier :
- de 50 à 100 camions en plus pendant la phase des travaux
- entre 350 à 550 voitures par jour lors de la finalisation totale du projet
Cela ne semble pas trop un problème vu l'autouroute qui est contre le campus.
En cas de fort besoin (ce n'est pas le cas), il serait même possible de prolonger la future branche du RER D de Combs-la-Ville sans crée de voie ferrée (Île-de-France mobilité étudie la séparation en deux de la branche du RER D Melun, en créant un terminus à Combs-la-Ville). Un prolongement de Combs-la-Ville à Crisenoy / Fouju, en empruntant la ligne LGV aujourd'hui inutilisé qui est contre le campus apparait possible (elle devrait être requalifiée en ligne classique, avec une nouvelle signalisation). Les TGV devraient pourvoir l'emprunter en cas de probléme, mais à 200 Km/h, contre 270 Km/h aujourd'hui. Le tronçon LGV de Combs-la-Ville à la bifurcation de Moisenay ne fait que 17 km.
Objectifs du projet :
- Accueil d'une diversité d’opérateurs de datacenters et d’entreprises spécialisées dans le développement de technologies d’intelligence artificielle
- Souveraineté numérique de la France
Sur l'emplacement, on en sait plus. La parcelle du datacenter est :
- sous une ligne 400 000 volts qui servira à l'alimenter
- limitrophe du projet de centre pénitentiaire de Crisenoy (il n'est pas encore construit)
- fait 70 hectares
La consommaiton maximum de 1400 MW est répartie sur 12 bâtiments de datacenters soit 117 MW par batiment.
Lettre de mission des garant.e.s :
(cliquez sur la miniature ci-dessous - le document est au format PDF)
(https://lafibre.info/images/datacenter/202509_fouju_datacenter_1400mw_ia.avif) (https://lafibre.info/images/datacenter/202509_fouju_datacenter_1400mw_ia.pdf)
-
Concertation préalable relative au projet d’implantation d’un centre de données dit « Campus IA » ainsi que son raccordement au réseau électrique sur la commune de Fouju (77)
Responsables du projet
- La société Campus IA qui réunit les quatre actionnaires : MGX (société d'investissement technologique des Émirats arabes unis), Bpifrance, Nvidia et Mistral AI.
- RTE
Caractéristiques du projet au stade de la saisine
Le projet se développerait sur environ 70 hectares et comprendrait :
- Environ 12 bâtiments de datacenters, construits par phase;
- Deux postes électriques ;
- Un bâtiment de formation pour les futurs techniciens des datacenters ;
- Un bâtiment de support technique ;
- Des espaces communs (voiries, contrôles d’accès, postes de transformation, etc.).
- Des espaces verts paysagers et plantés avec des ouvrages de gestion des eaux pluviales
Le projet se réaliserait en deux phases :
- Phase 1: La construction de trois bâtiments de datacenters, d’un bâtiment de formation et d’un raccordement électrique provisoire d’ici 2028 ;
- Phase 2: La mise en service progressive d’environ neuf datacenters supplémentaires et d’un raccordement électrique définitif à partir de 2029.
Le projet nécessiterait un raccordement au réseau d’électricité, pour un besoin d’une puissance estimé à 1,4 GW. À terme, le site serait raccordé à la ligne 400 000 volts qui surplombe la parcelle, via un poste électrique RTE implanté sur place.
À noter: Les data centers ne relèvent notamment pas de la catégorie « équipements industriels », leur infrastructure composée d'un réseau d'ordinateurs et d'espaces de stockage et nécessitant climatisation et systèmes de refroidissement n’étant pas une activité industrielle.
Objectifs du projet selon ses responsables
- Le projet permettrait l'accueil d'une diversité d’opérateurs de datacenters et d’entreprises spécialisées dans le développement de technologies d’intelligence artificielle, leur permettant de s’implanter localement et de créer des synergies avec le campus.
- Souveraineté numérique de la France
Coût estimatif au stade de la saisine
35 milliards d’euros (dont 300 millions d’euros en phase 1)
Source : Commission nationale du débat public (https://www.debatpublic.fr/implantation-de-datacenters-et-infrastructure-de-raccordement-au-reseau-electrique-campus-ia-fouju)
-
35 milliards d'euros, dont 80% pour Nvidia, soit 28 milliards.
-
concertation prealable...
Bon ben pas la peine de se dire que ca avance, maintenant c'est au tour des pleureuses de parler, et de dire que ca consomme trop d'elec et que c'est le mal evidement.
-
Oui, je le dis, cela consomme trop d’électricité. Voir l'exemple des Etats-Unis, où les prix de l'électricité ont commencé à augmenter à cause des datacenters et de l'IA. Voir aussi l'exemple des Pays-Bas, où l'on n'arrive plus à raccorder les nouveaux logements et entreprises, car les lignes sont surchargées.
-
Pourquoi ca consommerai 'trop' d'electricité ? C'est quoi ton seuil entre 'trop' et 'ok' ? Mon sentiment est que tu regardes juste le chiffre brut de conso et que tu estimes que c'est 'trop' sans mettre en relation ce qui en est fait, comme si c'etait juste de la conso perdue pour rien ?
C'est comme si j'achete une baraque et que tu me dis que c'est trop cher, sans meme avoir regardé la gueule de la baraque....
-
Ou alors c'est purement émotionnel, tu es contre l'IA, et dans ce cas pas de seuil, meme 100w c'est trop et rien a cirer de a quoi ca sert.
-
Là, RTE a participé au choix de l'emplacement et pour garantir l'absence d'impact coté transport.
Une phrase est particulièrement mal tournée : "Concertation préalable relative au projet d’implantation d’un centre de données dit « Campus IA » ainsi que son raccordement au réseau électrique sur la commune de Fouju (77)" : certains vont penser que le datacenter va se mettre sur le circuit électrique du village et que cela risque de créer des coupures pour les 631 habitants de la commune.
S'il est probable qu'une boucle 20 000 volts locale soit étude à la zone, avec la mise en place d'un transformateur 20 000 volts ⇒ 400 volts sur place, ce sera uniquement pour l'alimentation des bureaux et dépendances par Enedis et non des datacenter. Ces derniers seront connectés directement par RTE (sans Enedis).
-
Créations d’emplois :
estimées à 500 emplois directs et plus de 1 000 emplois indirects (prestataires de service etc.)
- entre 350 à 550 voitures par jour lors de la finalisation totale du projet
Encore un ramassis de mensonges de la part d'un exploitant de datacenters ?
Je n'ai jamais vu de Datacenter avec plus de 10 employés sur site, et encore...
-
Ce doit être les emplois pour la construction. Car effectivement à l'exploitation en ETP on est plus dans l'ordre de grandeur de ce que tu dis en comptant tout.
-
Le document sépare construction et exploitation ( "de 50 à 100 camions en plus pendant la phase des travaux").
Là ce n'est pas qu'un datacenter, dans le « Campus IA », il est prévu un bâtiment de formation pour les futurs techniciens des datacenters et un bâtiment de support technique.
Je suis d'accord sur le fait que ce chiffre doit être challengé, 450 voitures par jours, cela fait beaucoup de techniciens à former.
Il y aurait de l'assemblage de PC dans le bâtiment de support technique ? (dans son usine de Croix, OVHcloud assemble un peu plus de 1 000 serveurs par semaine en moyenne).
Les datacenter créant peu d'emplois sur place, et contrairement à ce que certains pensent, ce ne sont pas des informaticiens, mais des personnes spécialisées en climatisation et électricité, avec pour certains une habilitation pour le 20 000 volt.
-
Les datacenter créant peu d'emplois sur place, et contrairement à ce que certains pensent, ce ne sont pas des informaticiens, mais des personnes spécialisées en climatisation et électricité, avec pour certains une habilitation pour le 20 000 volt.
De mon expérience à bosser pour un gros hébergeur, ce sont des techs un peu plus péchus que les gens de l'IT d'une grosse boite, donc pas des ingés système ou réseau, loin de là.
Il font plus de remplacement de disque dur, rackage, câblage que du software engineering. La maintenance de la climatisation, sécu incendie et électricité est bien souvent sous-traitée.
Pourquoi ca consommerai 'trop' d'electricité ? C'est quoi ton seuil entre 'trop' et 'ok' ? Mon sentiment est que tu regardes juste le chiffre brut de conso et que tu estimes que c'est 'trop' sans mettre en relation ce qui en est fait, comme si c'etait juste de la conso perdue pour rien ?
C'est comme si j'achete une baraque et que tu me dis que c'est trop cher, sans meme avoir regardé la gueule de la baraque....
C'est plutôt comme si tu voulais construire un complexe hôtelier de 500-1000 chambres, avec spa, restaurants, cinéma et deux parkings gigantesques sur une petite île (de la Bretagne tant qu'on y est!) qui n'a pas l'infrastructure pour l'accueillir.
Il va falloir construire des routes, toute une infrastructure de gestion de l'eau, aussi bien potable, égouts et effluents de pluie, amener de l'énergie, etc. C'est la collectivité qui va passer à la caisse.
Assez pour les analogies. Regardons un peu ce qui est en face : un datacenter consomme de l'énergie en quasi-permanence. Ils ne font que très peu varier leur consommation en fonction de l'état du réseau électrique et du prix de l´énergie. Google le fait, mais il faut être Google et avoir de la capacité autre part pour "déplacer" les tâches, ce qui ne sera pas le cas ici.
En puissance installée, la France dispose de 63GW de nucléaire (en comptant l'EPR3 qui n'est pas opérationnel aujourd'hui), de 25GW d'hydraulique, de 15GW de gaz/fioul et de 2GW de charbon (j'exclus volontairement les ENR intermittentes ici, car les datacenters vont vouloir consommer de nuit, lorsqu'il n'y a pas de vent et qu'il fait froid).
La consommation du pays oscillait entre 30 et 85GW en 2024 et entre 28 et 87GW en 2025. La France exporte quasiment en permanence un talon d'une dizaine de GW vers ses voisins européens, qu'on pourrait ajouter à de la conso, peu ou prou.
Tous ces chiffres sont issus du site RTE, consultés à l'instant.
On propose de rajouter un datacenter ajoutant jusqu'à 1.4GW, la question de son impact sur le système électrique français se pose étant donné que les puissances en jeu sont significatives par rapport aux capacités de production. Même si je pense que le système tel qu'il est conçu aujourd'hui peut s'en accommoder, il est évident qu'une telle charge va avoir une incidence sur les prix de gros de l'électricité, étant donné la structure et le fonctionnement du marché européen de l'électricité et le manque de flexibilité actuel de la consommation française.
Ce datacenter est capable de consommer l'équivalent de la production de l'EPR de Flammanville à quasi-pleine puissance (1.6GW). Nous avons mis plus de 17 ans pour un coût total estimé à plus de 23 Mds euros pour construire Flamanville 3, et il n'est pas encore en service. Ce n'est pas une question d'être anti ou pour IA comme tu le prétends, si je peux me permettre. Il y a bien des impacts tangibles à prévoir sur l'environnement (plus de consommation aux pointes signifie plus de recours aux centrales fossiles, donc émissions de CO2 bien plus élevées, mais aussi... comment le voisinage de ce datacenter va-t-il réagir à ces 1400 MW de chaleur dissipée ?), sur la tension du système électrique (on se souvient tous de la crainte de black outs en 2022-2023, même si c'était en grande partie du sensationnalisme) et, in fine, sur l'augmentation du prix de détail de l'électricité et du gaz pour les consommateurs.
Aujourd'hui, si j'interviens sur un groupe froid, j'ai l'obligation légale de récupérer et de faire recycler proprement le gaz frigorigène plutôt que de le rejeter dans l'atmosphère. Les gouvernements successifs ont décidé que leur impact sur la couche d'ozone était trop important pour me laisser le faire et ont légiféré.
Il en va de même pour les émissions liées aux véhicules, donc il y a des règlements sur les niveaux de ces émissions.
Pareil pour le port de la ceinture, la cigarette, etc : les comportements individuels de certains ont un impact (coût des soins) sur tout le monde, donc on régule et met en place des politiques publiques pour corriger.
Pourquoi devrait-on, en tant que société, traiter les datacenters différemment ?
-
(on se souvient tous de la crainte de black outs en 2022-2023, même si c'était en grande partie du sensationnalisme)
Je partage ton analyse, sauf cette partie là sur soit-disant du sensationnalisme. Pour rappel, une bonne partie de notre parc nucléaire était arrêté à cause du problème de corrosion sous contrainte. Il y avait effectivement un risque qu'en période froide, en début de soirée, dans un période sans vent, donc sans solaire et éolien, on puisse être très limite en production sur une période de pointe.
Je rappelle que nos centrales nucléaires ont environ 45 ans, qu'elles ont déjà aussi passé de longues révisions décennales pour passer les 40 ans (qui se sont rajoutées au problème de corrosion évoqué ci-dessous), qu'elles devront passer dans quelques années de nouvelles révisions décennales pour passer les 50 ans, car pour l'instant, on les fait durer au delà de ce qui était prévu à l'origine.
Et que d'autre part, les prochains réacteurs EPR2 sont très loin, pas avant 2037, et probablement pas avant 2040 (et se pose le problème de leur financement).
Donc rajouter des datacenters énormes consommant 24h/24 et bien sûr en hiver aussi, sur une situation aussi fragile, c'est faire courir des risques à notre sécurité électriques, et bien sûr mettre en tension notre système, et donc conduire à une augmentation des prix.
Et un autre problème est aussi le coût des upgrades réseau nécessaires.
Et on a toutes les chances de voir aussi des datacenters pour l'IA s'installer dans les pays voisins comme l’Allemagne, qui comptent déjà sur nous pour couvrir leur consommation de pointe en hiver.
Donc je crie au fou et à l'apprenti sorcier quand on veut installer de tels datacenters consommant 1.4 GW. Qui vont surtout profiter à Nvidia, et comme souligné par d'autres plus haut créer très peu d'emplois.
D'un autre côté, Deepseek a sorti un papier il y a quelques jours disant qu'il a entrainé son IA pour 294.000$, donc il semble que l'on peut faire très bien en consommant beaucoup moins, et j'espère que c'est cette raison là qui l'emportera.
https://www.reuters.com/world/china/chinas-deepseek-says-its-hit-ai-model-cost-just-294000-train-2025-09-18/
-
Dossier de concertation du PLU de Fouju
La mairie de Fouju à mise en place une concertation pour intégrer la parcelle du projet de datacenter IA en zone constructible (Ua), la zone est actuellement classée comme surface agricole (A) et cultivée.
(cliquez sur la miniature ci-dessous - le document est au format PDF)
(https://lafibre.info/images/datacenter/202509_plu_fouju_dossier_concertation_campus_ia.avif) (https://lafibre.info/images/datacenter/202509_plu_fouju_dossier_concertation_campus_ia.pdf)
(https://lafibre.info/images/datacenter/202509_plu_fouju_dossier_concertation_campus_ia_4.webp)
-
Les "travaux" sur la photo aérienne n'a rien à voir avec le projet de datacenter : c'est le site d'enfouissement de déchets ménagers géré par Véolia sur la commune de Fouju.
(https://lafibre.info/images/datacenter/202509_plu_fouju_dossier_concertation_campus_ia_1.avif)
(https://lafibre.info/images/datacenter/202509_plu_fouju_dossier_concertation_campus_ia_2.avif)
-
C'est la campagne, mais il y a :
- Une autoroute (A5)
- Une voie ferrée à grande vitesse (la plus fréquentée de France)
- Un aérodrome est à proximité et on est sous le couloir aérien (Melun Villaroche)
- Une zone d'enfouissement des déchets au sud (Véolia)
- Une future prison au nord (centre pénitentiaire de Crisenoy)
- Une ligne 400 000 volts
(https://lafibre.info/images/datacenter/202509_plu_fouju_dossier_concertation_campus_ia_3.avif)
-
Ce DC s'ajoutera à cette liste (finalement les localisations des DC de l'IDF ne sont plus un secret) : https://geoweb.iau-idf.fr/portal/apps/dashboards/8e2a38a5643947fdac330b3f87a7edb9
-
Ce DC s'ajoutera à cette liste (finalement les localisations des DC de l'IDF ne sont plus un secret) : https://geoweb.iau-idf.fr/portal/apps/dashboards/8e2a38a5643947fdac330b3f87a7edb9
Très intéressant, pour parler de cet observatoire, je propose de le faire sur le sujet Saturé par les data centers, le réseau électrique d’IdF va-t-il craquer ? (https://lafibre.info/electricite/sature-par-les-data-centers-le-reseau-electrique-didf-va-t-il-craquer/msg1133247/#msg1133247)
-
Pour revenir au campus IA de 1400 MW de Fouju, j'ai été sur place samedi.
Voici la route en construction, sur le plan, en trait fin bleu. La nouvelle route permet d'éviter le hameau des Bordes au nord de mon plan. La nouvelle route n'est pas finalisée et j'ai croisé un camion de chantier le samedi.
(https://lafibre.info/images/datacenter/202509_fouju_photos_campus_ia_01.avif)
Ci-dessous, je suis au croisement de la route de Moisenay et de la nouvelle route en construction.
Tout ce qui est à droite sur la photo, c'est le site du futur centre pénitentiaire de Crisnoy (composé d’une maison d’arrêt de 450 places, d’un centre de détention de 300 places, d’un quartier respect de 150 places, d’un quartier d’accueil et d’évaluation de 80 places et d’un service médico-psychologique régional de 20 places).
(https://lafibre.info/images/datacenter/202509_fouju_photos_campus_ia_02.avif)
-
Ci-dessous les photos sont prises en étant à l'extrémité ouest du campus IA
La route en face, c'est la route qui est entre le centre pénitentiaire de Crisnoy et le campus IA.
À gauche de la route, c'est le centre pénitentiaire de Crisnoy.
À droite de la route, c'est le campus IA.
(https://lafibre.info/images/datacenter/202509_fouju_photos_campus_ia_03.avif)
Sur cette photo, c'est toute la parcelle de Camus IA.
La ligne électrique au premier plan, c'est une ligne 20 000 volts.
La ligne 400 000 volts et le futur raccordement électrique, c'est au niveau des pylônes au loin.
(https://lafibre.info/images/datacenter/202509_fouju_photos_campus_ia_04.avif)
-
Si je me retourne, on a une superbe vue sur la LGV Paris-Lyon qui passe en hauteur.
Au premier plan, il y a l'autoroute A5, mais on ne fait que le deviner.
(https://lafibre.info/images/datacenter/202509_fouju_photos_campus_ia_05.avif)
Si le TGV est en hauteur, c'est qu'il passe au niveau de l'extrémité ouest du campus IA sur la LGV Fuju <=> Lieusaint/Combs-la-Ville (mis en service en 1983) qui met plus de temps pour rejoindre Paris et qui n'est presque plus utilisée aujourd'hui.
Le "saute-mouton" en question :
(https://lafibre.info/images/datacenter/202509_fouju_photos_campus_ia_06.avif)
-
Ci-dessous les photos sont prises en étant sur le pont contre le campus IA qui enjambe autoroute et LGV
Tout ce qui est à gauche sur cette photo, jusqu'au pylône 20 000 volt, c'est le futur Campus IA.
On repère au loin le centre d'enfouissement des déchets.
(https://lafibre.info/images/datacenter/202509_fouju_photos_campus_ia_07.avif)
La ligne 400 000 volts et le futur raccordement électrique sera au niveau des pylônes :
(https://lafibre.info/images/datacenter/202509_fouju_photos_campus_ia_08.avif)
Sur la photo le premier pylône visible est celui de la ligne 225 000 volts, les deux suivants sont deux lignes 400 000 volts :
(https://lafibre.info/images/datacenter/202509_fouju_photos_campus_ia_09.avif)
-
Vu au loin d'autres lignes RTE au sud-est pouvant potentiellement sécuriser les futurs centres de données :
(https://lafibre.info/images/datacenter/202509_fouju_photos_campus_ia_10.avif)
Le TGV qui passe est en direction Lyon.
La voie située juste à droite du TGV et la LGV direction Villeneuve-Saint-Georges.
La voie tout à droite de la photo est la LGV en direction de Lieusaint/Combs-la-Ville (quasiment plus utilisée).
(https://lafibre.info/images/datacenter/202509_fouju_photos_campus_ia_11.avif)
-
AVIS DE CONCERTATION PRÉALABLE DU PUBLIC - PROJET IA :
Du 13 octobre 2025 au 23 novembre 2025 via le site internet dédié www.concertation-campus-ia.fr ou via les dépliants avec coupon-T détachable et pré-affranchi.
Deux réunions publiques : une d'ouverture le mercredi 15 octobre 2025 à 19h à FOUJU et une de fermeture le mardi 18 novembre 2025 à 19h au Châtelet-en-Brie.
(https://lafibre.info/images/datacenter/202209_fouju_campus_ia_avis_de_concertation_prealable.avif)
-
Je propose de poser quelques questions, pendant cette phase de concertation.
Avez-vous des suggestions ?
Analyse et interrogations relatives au projet de campus d'intelligence artificielle à Fouju
1/ Justification de l'implantation géographique à Fouju
Le choix de Fouju pour l'implantation du campus d'Intelligence Artificielle (IA) apparaît comme stratégiquement pertinent, notamment en raison des facteurs suivants :
• Environnement immédiat : L'absence de voisinage résidentiel direct, à l'exception du futur centre pénitentiaire de Crisenoy ;
• Énergie : La parcelle est localisée sous deux lignes électriques RTE de 400 000 volts et une de 225 000 volts. Il y a également à proximité deux autres lignes 400 000 volts, une autre de 225 000 volts et 4 lignes 63 000 volts.
• Connectivité numérique : La faible latence de la liaison par fibre optique avec Paris ;
• Accessibilité routière : L'emplacement bénéficie d'une proximité immédiate avec une sortie de l'autoroute A5 ;
• Infrastructures locales : La création d'une nouvelle voie de desserte (actuellement en travaux) permettra de contourner le hameau des Bordes.
Quelles sont les retombées fiscales directes (CET, CFE, IFER, etc.) attendues pour la commune et l'intercommunalité ?
Un arrêt de bus à proximité sera-t-il ajouté pour desservir le centre pénitentiaire de Crisenoy et le campus IA ?
2/ Clarification des projections d'emploi sur le site
La lettre de mission des garants CNDP mentionne « des créations d’emplois estimées à 500 emplois directs et plus de 1 000 emplois indirects (prestataires de service etc.) et entre 350 à 550 voitures par jour lors de la finalisation totale du projet ».
• Période concernée : Ces chiffres se rapportent-ils exclusivement à la phase d’exploitation du complexe ? (ou concernent-ils la phase de construction ?)
• Nombre de créations d’emplois : Le projet semble se matérialiser par douze centres de données, un bâtiment de support technique et un centre de formation destiné aux futurs techniciens. Nos propres estimations concernant les emplois pérennes, une fois les centres de données opérationnels, sont significativement plus faibles, se situant dans une fourchette de 50 à 100 emplois directs sur site, incluant le personnel enseignant du centre de formation.
Afin d'évaluer la pertinence de l'estimation de 500 emplois directs, il est important de fournir une ventilation détaillée par catégorie de poste, incluant notamment : directeur de site ; technicien de datacenter ; personnel de sécurité du site ; personnel de prévention incendie du site ; personnel d'entretien des espaces verts ; formateurs pour le centre de formation.
3/ Exigence de puissance, résilience et alimentation de secours
La puissance électrique estimée pour ce projet atteint 1,4 GW (1 400 MW). Cette capacité est plus de dix fois supérieure à celle du plus grand campus de centres de données actuellement en construction sur le territoire français, le "Paris Digital Park" de Digital Realty situé à La Courneuve (Seine-Saint-Denis) : Avec 40 000 m² de salles serveur, il ambitionne, à terme, une puissance électrique de 130 MW.
À Fouju, RTE a-t-il prévu l'aménagement ou la construction d'une nouvelle ligne électrique, afin d'assurer la sécurisation de l'alimentation électrique des centres de données du campus d'IA ?
Les centres de données garantissent traditionnellement une alimentation en énergie exempte de toute interruption. Ils sont équipés de batteries qui fournissent l’énergie aux onduleurs, le temps que les groupes électrogènes de secours démarrent et se synchronisent. Cette architecture permet de secourir l'intégralité de la charge informatique (IT) et le système de refroidissement, afin de maintenir le fonctionnement pendant plusieurs jours, sans recours au réseau électrique principal.
Dans le contexte du campus d'IA :
• Secours total ou partiel : L'intégralité de l'alimentation électrique sera-t-elle secourue par des groupes électrogènes ? Si le secours est partiel, quel en sera le pourcentage ?
• Batteries : Les salles des batteries seront-elles des bâtiments distincts ? Quelle est la technologie utilisée (batterie au plomb ou lithium-ion) ? Quelle est le nombre de tonnes de batteries qui sera présent à terme sur le campus ?
• Groupes électrogènes de secours : Où seront positionnés ces groupes ? La production de 1 400 MW d'électricité in situ nécessite une surface considérable. Les groupes seront-ils installés sur les toits des centres de données ?
• Carburant pour les groupes : La construction de cuves de fioul est-elle prévue ? Si oui, quelle est la capacité totale exprimée en litres qui est envisagée ? Quel est le type de carburant ?
• Impact environnemental : Quelles mesures concrètes sont prévues pour minimiser l'impact environnemental des groupes électrogènes de secours ?
4/ Gestion thermique et stratégie de refroidissement
Une puissance de 1 400 MW génère une quantité substantielle de chaleur résiduelle qu'il est indispensable de dissiper.
• Technologie principale : Quelle est la méthode de refroidissement envisagée pour les centres de données du campus ? Le refroidissement sera-t-il assuré par des groupes froids (quels types de fluides frigorigènes), par du free cooling (air indirect, air direct, ou eau), ou par un autre système ?
• Source d'eau : En cas d'utilisation d'un refroidissement free cooling par eau, quelle sera la source d'approvisionnement en eau ?
• Adiabatique : Est-il prévu de mettre en œuvre un refroidissement adiabatique ? L'installation de tours aéroréfrigérantes (ou tours de refroidissement par évaporation) est-elle envisagée sur le campus d'IA ?
• Immersion des serveurs : Les serveurs feront-ils l'objet d'un refroidissement direct au composant ou par immersion ? (serveurs immergés dans un fluide isolant qui transporte les calories)
De surcroît, en cas d'absence de vent jumelé avec une canicule, il convient d'évaluer le risque d'élévation thermique susceptible de compromettre l'efficacité du refroidissement et, par conséquent, le fonctionnement de l'installation.
L'îlot de chaleur généré par le campus d'IA a-t-il fait l'objet d'une modélisation spécifique ? Enfin, quelle est la chaleur fatale rejetée dans l'environnement extérieur par le centre de données, pour une puissance opérationnelle de 1 400 MW ?
5/ Valorisation de l'énergie thermique résiduelle (chaleur fatale)
Des projets sont-ils envisagés pour réutiliser cette énergie produite ? Notamment :
• centre pénitentiaire : Le potentiel de raccordement pour le chauffage des bâtiments et la production d'eau chaude sanitaire du futur centre pénitentiaire de Crisenoy.
• serres agricoles : L'opportunité de créer des serres agricoles adjacentes qui seraient alimentées thermiquement par la chaleur dégagée par les centres de données.
Dans l'affirmative, si un projet de récupération de la chaleur fatale est confirmé, quel est le calendrier de mise en œuvre associé ?
6/ Indicateurs de performance environnementale prévisionnels
• Efficacité énergétique (PUE - Power Usage Effectiveness) : Quel est l'indicateur d'efficacité énergétique (PUE) visé pour les centres de données du campus d'IA ? Quelles sont les stratégies précises qui seront déployées pour atteindre et garantir le maintien de cet objectif ?
• Efficacité d'usage de l'eau (WUE - Water Usage Effectiveness) : Quel est l'indicateur d'efficacité d'usage de l'eau (WUE) ciblé ? Quelle est l'estimation de la consommation annuelle d'eau (en m3) requise spécifiquement pour le refroidissement ? Quelle est la source d'approvisionnement en eau prévue (réseau d'eau potable, eaux non potables, boucle fermée) ? L'utilisation de cette ressource hydrique est-elle susceptible d'engendrer un impact sur l'approvisionnement en eau potable destiné aux populations ou aux activités agricoles locales, notamment en période de sécheresse ou de tension hydrique ?
• Bilan carbone : Quel est le bilan carbone prévisionnel du projet, décliné selon les scopes 1, 2 et 3 ? Quelles sont les émissions générées tant par la phase de construction que par la phase d'exploitation du campus IA ?
-
c'est dingue de sortir une telle liste de questions.
Ce ne sont pas des questions, c'est une simple tentative de trouver des raisons pour se plaindre. Enfin selon moi, mais je dois pas etre constitué comme tout le monde visiblement...
Les questions valables, vu de loin de ma part, sont plutot :
- qui finance le bouzin, et pour combien de temps
- quels profils sont recherchés
- quels hardware utilisé ? au moins au debut
- quels objectifs de formation ? en terme de volume
- ca passe en exploitation quand ?
- pas bien compris : c'est un campus ou un datacenter ? ou les deux en meme temps
-
C'est un campus de 12 centres de données + un centre de formation.
Désolé de creuser un peu comment ils vont faire pour sécuriser 1400 MW !
Je ne suis pas sûr qu'il y aura une réponse à tes questions (ni même à toutes mes questions).
-
Merci pour les photos vivien !
Tes questions me semble pertinentes.
Sur les emplois, le projet prévoit quoi pour les mobilités domicile-travail ? Ça a l'air mal desservi malgré la proximité des lignes ferroviaires.
personnel de prévention incendie du site
C'est un peu hors sujet à ce stade, mais on sait s'ils prévoient de mettre des batteries à l'intérieur ?
-
Très bien les questions ! Personnellement, je ne vois pas quoi rajouter.
J'avais envisagé aussi de répondre à l'enquête. Car à 1400 MW de puissance consommée, l'équivalent d'un EPR, ce n'est pas qu'une question locale, c'est un sujet d'intérêt national.
-
C'est un peu hors sujet à ce stade, mais on sait s'ils prévoient de mettre des batteries à l'intérieur ?
Cela a tout à fait sa place, j'ai rajouté 3 questions sur les batteries.
le projet prévoit quoi pour les mobilités domicile-travail ? Ça a l'air mal desservi malgré la proximité des lignes ferroviaires.
La voiture est indispensable pour la mobilité domicile-travail, comme de nombreuses zones rurales. La zone est bien desservie au niveau routier.
J'ai rajouté une question sur un éventuel ajout d'arrêt de bus, mais après, il y a une problématique que la ligne de bus 3124 (celle qui passe dans le secteur) ne propose aucun bus lors des vacances scolaires (le seul bus pour venir sur place depuis Melun est à 18h45 et l'unique retour est à 6h55), donc ce n'est bon que pour un travailleur de nuit.
-
J'ai une question supplémentaire. Il est dit sur la première page que la ligne 400 kV qui passe servira à l'alimenter. Mais j'ai de gros doutes que cela soit suffisant (peut-être pour les premiers datacenters, mais pas pour tous à mon avis). De nouvelles lignes THT sont elles prévues ? A quelle échéance ? Qui dans ce cas paierait ?
De plus, en général, les datacenters demandent des alimentations redondantes, donc deux lignes THT indépendantes qui les desservent...
-
J'ai déjà posé la question "À Fouju, RTE a-t-il prévu l'aménagement ou la construction d'une nouvelle ligne électrique, afin d'assurer la sécurisation de l'alimentation électrique des centres de données du campus d'IA ?"
Tu souhaites que je la complète ?
Il y a 3 lignes en parallèle (deux lignes double circuit de 400 000 volts et une de 225 000 volts), je pense que cela tient 1400 MW sans problème (c'est 4400 MW à 6000 MW par ligne 400 000 volts double circuit), mais se pose la question de la sécurisation, que ce soit via une autre ligne (d'autres lignes 400 000 volts passent à proximité) qui ne serait pas parallèle à la première, mais aussi avec les batteries ou les groupes. Si on est sûr des groupes de 1 MW comme on voit dans les datacenter, il en faut un bon millier sur site !
Pouvoir tenir 15 minutes à 1400 MW, il faut combien de batteries ?
Sur la photo le premier pylône visible est celui de la ligne 225 000 volts, les deux suivants sont deux lignes 400 000 volts :
(https://lafibre.info/images/datacenter/202509_fouju_photos_campus_ia_09.avif)
-
Mes excuses, je n'avais pas vu cette ligne qui n'était pas en gras. En fait, qu'une ligne de 400 kV puisse tenir 1.4 GW, OK, mais cette puissance était aussi bien sûr prévue pour être utilisée ailleurs.
Et si les lignes secondaires sont parallèles, c'est sûr que pour la redondance, ce n'est pas terrible, et en plus de toute façon, elles ne font pas la même puissance.
Il est vraisemblable qu'à terme, si tout est construit, cela reste à voir, une seconde ligne 400 kV, venant d'une autre direction, sera envisagée...
-
Le campus IA a deux lignes 400 000 volts qui passent sur sa passerelle, mais il y en a deux autres qui passent à proximité (de l'autre côté de l'autoroute).
Donc, il est possible que le raccordement final inclus un raccordement sur ces lignes situées à proximité. Le raccordement RTE à la ligne 400 000 volts s'effectuant en deux phases selon le projet.
Il y a également le poste électrique de Courtry qui est à proximité, mais c'est un poste 225 000 volts. Toutes les lignes qui s'y arrêtent sont en 225 000 volts.
Les lignes 400 000 volts ne s'arrêtent pas sur ce poste.
(https://lafibre.info/images/datacenter/202509_fouju_photos_campus_ia_12.avif)
À droite sur le photo, on voit l'arrivée d'autres lignes RTE :
(https://lafibre.info/images/datacenter/202509_fouju_photos_campus_ia_11.avif)
Le poste RTE de Courtry et Moisenay est mentionné en bas à droite, sur cette carte expliquant le raccordement électrique de la RATP :
Parallèlement nous avons eu le schéma en pièce jointe issu sur Journal Officiel du 4 juin 2002 illustrant l'infrastructure de la RATP.
(https://lafibre.info/images/cpl/201206_ratp_alimentation_electrique.jpg)
-
Il y a aussi le problème général de l'équilibre du réseau. S'il y a deux lignes redondantes de 1.4 GW, et en considérant que l'on est dans une configuration active/active, où l'on tire la moitié de chaque côté, et mettons que ce ne soit même pas à pleine puissance, mais 500 MW de chaque côté. Que se passe-t-il si une des deux lignes tombe ? Est-ce que l'autre peut absorber 500 MW de plus d'un coup ?
Si on est dans une configuration actif/passif, ce serait même 1 GW de plus d'un coup... N'y a -t-il pas un risque comme cela s'est vu par exemple en Italie en 2003, que de proche en proche, toutes les lignes sur lesquelles on reporte l'appel de puissance tombent, puis tout le réseau ?
-
1,4GW, c'est combien par rapport à la consommation électrique de tous les datacenters actuels de France réunis ?
-
D'après Google, ce serait environ 4.5 GW à cette date. Et 4.5 GW de plus d'ici 2035. Mais ici, c'est concentré en un point du réseau.
-
Selon les données de l'Arcep, qui collecte la consommation des centres de données dont la puissance maximale admissible en équipements informatiques est supérieure à 500 kW :
La consommation électrique des centres de données étudiés continue de progresser en 2023 pour atteindre 2,4 TWh.
Quelles entreprises ont été interrogées ?
La présente publication se centre sur les entreprises dont l’activité principale consiste en la mise à disposition à des tiers d’infrastructures et d’équipements hébergés dans des centres de données. Elle exclut de fait les entreprises dont la principale activité n’est pas celle d’opérateur de centre de données, mais qui disposent de centres de données pour leur propre activité, telles que les établissements financiers, les centres de recherche, etc.
Les acteurs interrogés dans le cadre de la présente publication sont des opérateurs de centres de données au sens du code des postes et communications électroniques, c’est-à-dire des opérateurs de colocation et de co-hébergement. Les entreprises clientes des opérateurs de centres de données au sens où elles utilisent les locaux des opérateurs de centre de données pour héberger leurs serveurs informatiques ne sont pas interrogées.
En outre, les opérateurs de centre de données interrogés dans le cadre de la présente publication sont ceux dont le chiffre d’affaires, en France, est égal ou supérieur à 10 millions d’euros hors taxes. Ce seuil permet de collecter des données auprès des plus gros centres des données, c’est-à-dire ceux dont
la puissance maximale admissible en équipements informatiques est supérieure à 500 kW. Ce seuil conduit également à collecter des données auprès de certains centres de données pour lesquels la puissance maximale admissible est inférieure à 500 kW, sans que ces centres de données ne soient
représentatifs de l’ensemble des centres de données dont la puissance est inférieure à 500 kW en France.
Enfin, d’après l’étude ADEME-Arcep sur l’évaluation de l’impact environnemental du numérique, les centres de données étudiés dans le cadre de la présente publication représentent environ 50 % de l’ensemble des centres de données de colocation en service en France en 2020.
Source : https://www.arcep.fr/fileadmin/user_upload/observatoire/enquete-pns/edition-2025/enquete-annuelle-pour-un-numerique-soutenable_edition2025.pdf
Il reste à voir s'il est possible de convertir des GWh pendant l'année 2023 en GW en se basnt sur une hypothése de consomation stable 24h/24.
-
Les questions valables, vu de loin de ma part, sont plutot :
- qui finance le bouzin, et pour combien de temps
- quels hardware utilisé ? au moins au debut
- ca passe en exploitation quand ?
On sait déjà qui finance la chose, cela a été annoncé par Emmanuel Macron.
(https://lafibre.info/images/environnement/202502_sommet_action_ia_campus_1000mw.avif)
(https://lafibre.info/images/datacenter/logo_campus_ia.webp)
Campus AI (nom commercial : Campus IA) est une société de projet composée de 4 acteurs majeurs :
- MGX : société d’investissement technologique internationale, basée aux Émirats Arabes Unis.
- BPI France : banque publique d’investissement française, placée sous la supervision de la Banque centrale européenne. Son capital est détenu par l’État et la Caisse des Dépôts. En tant qu’actionnaire significatif du projet, Bpifrance incarne la garantie que les intérêts stratégiques de la France sont pleinement représentés et protégés.
- Mistral AI : start-up française pionnière en intelligence artificielle générative, engagée dans le développement de modèles de langage open source et propriétaires.
- Nvidia: leader mondial du calcul accéléré et partenaire technologique incontournable de l’écosystème de l’IA.
Au-delà de cet actionnariat, Campus IA s’appuie sur un réseau de partenaires industriels, énergétiques et académiques (Bouygues, EDF, RTE, l’École Polytechnique, Sipartech), qui contribuent à la réussite opérationnelle et scientifique du projet.
Dans le cadre du projet Campus IA, RTE pilote le raccordement du projet au réseau 400 kV existant, notamment par la création d'un poste électrique source en double entrée dans l'emprise du projet.
(https://lafibre.info/images/datacenter/202510_fouju_campus_ia_objectifs_maitre_ouvrage.avif)
Le coût du projet
Le projet Campus IA recouvre plusieurs investissements distincts portés par un consortium d'opérateurs et d'investisseurs associant Campus IA, des opérateurs de datacenters et de centre de calcul ainsi que des acteurs français, européens et internationaux du cloud et de l'intelligence artificielle.
Le développement de l'ensemble du projet à terminaison est estimé à environ 50 milliards d'euros d'investissement, répartis entre l'infrastructure mutualisée (poste source, espaces communs, bâtiments de formations et aménagement des terrains), le datacenters, et leurs équipements (serveurs, puces de calcul).
La première phase du projet est estimée à environ 8 milliards d'euros d'investissement.
Pour le "quand", voici le planning : La mise en service des 3 premiers datacenters est pour 2028
(https://lafibre.info/images/datacenter/202510_fouju_campus_ia_calendrier.webp)
-
Sinon, la source de Google (plutôt de Gemini), que je citais plus haut est RTE :
Data centers : 11 chiffres sur leur essor en France et leurs besoins en électricité
21/05/2025
....
3) 300 data centers
C’était le nombre de data centers présents en France en 2022, en grande majorité raccordés aux réseaux publics de distribution, avec des puissances de l’ordre de quelques mégawatts. Leur consommation est estimée à environ 10 TWh, soit environ 2 % de la consommation française totale en électricité sur l’année.
4) 4,5 GW de demandes de raccordement signées
Depuis quelques années, les projets de data centers, sont plus gros, plus nombreux et ils demandent un raccordement direct sur le réseau de transport RTE. Il n’est plus rare de recevoir des demandes à hauteur de 100 à 200 MW (soit une fourchette équivalente à celle de la consommation électrique entre la ville de Rouen et la ville de Bordeaux). Au-delà de quelques projets portés en propre par de grands acteurs du numérique, la majorité est constituée de data centers en « colocation » : un opérateur construit un bâtiment disposant de toutes les caractéristiques nécessaires à l’accueil sécurisé de serveurs informatique, et loue ensuite des mètres carrés à des entreprises. C’est 4,5 GW de capacité qui ont déjà fait l’objet d’offres de raccordement signées à début septembre 2024, et un volume équivalent est en instruction.
....
https://www.rte-france.com/wiki-energie/data-centers-11-chiffres-sur-leur-essor-france-leurs-besoins-electricite
-
Merci alain_p, c'est effectivement plus pertinent de citer RTE.
Avec l'ouverture de la concertation lundi, plus de détail sont accessibles.
Un visuel (généré par IA ?) est proposé, qui n'est probablement là qu'à titre d'illustration :
(https://lafibre.info/images/datacenter/202510_fouju_campus_ia_illustration.jpeg)
Je suis étonné de ne pas voir de cheminées sur les groupes, il me semble que c'est obligatoire.
La puissance des datacenter semble avec la photo ne pas excéder 30 MW par datacenter, soit 360 MW pour 12 datacenters, contre les 1400 MW annoncés, soit 117 MW par datacenter.
-
Le raccordement électrique du projet par RTE
Il y aura une puissance de 700 MW et sécurisation sur les deux lignes 400 000 volts pour la première phase. Je n'ai pas compris si pour la seconde phase ( 1 400 MW on fait appel à deux autres lignes 400 000 volts à proximité ou si c'est juste un ajout de transformateurs sans toucher aux lignes 400 000 volts).
Pour le raccordement électrique du site de Campus IA, RTE a mené des études de réseaux afin de définir la solution de raccordement la plus adéquate en fonction de différents paramètres : puissance à raccorder, structure locale du réseau, consommation et production (actuelle et future) à l’échelle nationale et locale, contraintes d’exploitation, localisation du site à raccorder… Les résultats de ces études indiquent que la solution la plus appropriée pour alimenter le site de Campus IA, à la puissance de raccordement souhaitée par le client, est de créer un poste 400kV en double entrée en coupure sur les liaisons aériennes 400kV Chesnoy – Morbras 1 et 2.
Compte tenu de la présence de la ligne aérienne 225kV Coubert – Moisenay entre les deux lignes aériennes 400kV et le site étudié pour l’implantation du futur poste électrique 400kV, RTE va mettre en souterrain la ligne Coubert – Moisenay au niveau du futur poste, sur quelques centaines de mètres.
La puissance de raccordement du Campus IA répond à deux phases :
- Dans un premier temps, un raccordement à 700 MW dans le cadre du programme Fast Track, afin d’assurer un raccordement pour les premières phases du projet ;
- Dans un second temps, un raccordement à la puissance de 1 400 MW pour l’alimentation du Campus IA à pleine capacité.
À ce jour, la contractualisation entre RTE et Campus IA porte sur cette première puissance de raccordement (700 MW).
Par ailleurs, plusieurs infrastructures sont à créer :
- Un poste 400 kV en double entrée en coupure ;
- Une mise en souterrain partielle de la ligne 225 kV existante (qui implique de créer une liaison souterraine et d’installer deux pylônes aérosouterrains de part et d’autre du siphon).
Plus de détail sur le programme Fast Track évoqué pour le raccordement :
(https://lafibre.info/images/datacenter/202505_choose_france_raccordement_rte_fast_track.webp)
-
On a des réponses à des questions que je me posais sur le type de refroidissement utilisé qui est du type dry cooling (refroidissement à l'air) et sur la valorisation de la chaleur fatale.
Les effets prévisionnels du projet
À ce stade, il est possible d’identifier un certain nombre d’effets potentiels du projet sur le territoire. Ceux-ci seront précisés et quantifiés plus finement à mesure de l’avancement des études.
Sur l'emploi et la formation
Campus IA a vocation à mobiliser de nombreux emplois en phase de construction et à créer de nouveaux emplois en phase d’exploitation. Les estimations envisagent, à terme, la création de plusieurs centaines d'emplois directs et plus de 1000 emplois indirects (prestataires de service, etc.), stimulant l’activité économique des entreprises locales.
Sur le paysage
La parcelle choisie pour le projet Campus AI présente l’avantage d’être dans une zone sans habitations à proximité immédiate et voisine de deux installations existantes (une prison et un centre de déchets Véolia), de l’autoroute A5 et de la LGV Paris-Lyon, qui garantissent l’absence de zone habitée future. Les porteurs du projet et les concepteurs accordent une attention particulière à la bonne insertion du campus dans son environnement.
Sur le trafic routier
Une simulation précise du trafic induit par le projet, tant en phase de chantier qu’en phase d’exploitation, sera réalisée dans le cadre d’une étude de circulation approfondie. Cette étude sera intégrée aux études environnementales du projet. Elle prendra en compte :
- le trafic généré par l’ensemble des activités liées au projet,
- l’impact du projet de centre pénitentiaire voisin,
- ainsi que les effets du réaménagement prévu de la route départementale 57 sur lequel le projet va s’insérer.
Les résultats de cette analyse permettront d’évaluer de manière fine les éventuelles nuisances ou congestions susceptibles d’apparaître sur le réseau routier local.
À ce stade, il est possible d’identifier un certain nombre d’effets potentiels du projet sur le territoire. Ceux-ci seront précisés et quantifiés plus finement à mesure de l’avancement des études.
Campus IA a vocation à mobiliser de nombreux emplois en phase de construction et à créer de nouveaux emplois en phase d’exploitation. Les estimations envisagent, à terme, la création de plusieurs centaines d'emplois directs et plus de 1000 emplois indirects (prestataires de service, etc.), stimulant l’activité économique des entreprises locales.
La parcelle choisie pour le projet Campus AI présente l’avantage d’être dans une zone sans habitations à proximité immédiate et voisine de deux installations existantes (une prison et un centre de déchets Véolia), de l’autoroute A5 et de la LGV Paris-Lyon, qui garantissent l’absence de zone habitée future. Les porteurs du projet et les concepteurs accordent une attention particulière à la bonne insertion du campus dans son environnement.
Une simulation précise du trafic induit par le projet, tant en phase de chantier qu’en phase d’exploitation, sera réalisée dans le cadre d’une étude de circulation approfondie. Cette étude sera intégrée aux études environnementales du projet. Elle prendra en compte :
le trafic généré par l’ensemble des activités liées au projet,
l’impact du projet de centre pénitentiaire voisin,
ainsi que les effets du réaménagement prévu de la route départementale 57 sur lequel le projet va s’insérer.
Les résultats de cette analyse permettront d’évaluer de manière fine les éventuelles nuisances ou congestions susceptibles d’apparaître sur le réseau routier local.
Sur la consommaiton électrique estimée
RTE n’identifie pas d’enjeu fort lié au développement des datacenters pour l’équilibre offre-demande. En effet, la France a même battu son record d’export d’électricité vers les pays voisins en 2024. Par ailleurs, RTE mène des études de raccordement au réseau qui identifiera, le cas échéant, les possibles conséquences locales et les travaux à mener. Pour le raccordement de la première phase du projet, à 700 MW, aucun travaux de renforcement du réseau ne sont nécessaires.
Sur la consommation en eau
Pour la phase 1 du projet, Campus IA a fait le choix de la sécurité environnementale : le refroidissement sera assuré à 100 % par des technologies de type dry cooling (refroidissement à l'air), ce qui signifie aucun prélèvement dans les ressources en eau locales.
À terme, et selon l’évolution des besoins et des technologies disponibles, certains bâtiments pourront recourir à des solutions mixtes, intégrant par exemple l’utilisation d’eaux grises (eaux industrielles de réutilisation, impropres à la consommation humaine mais parfaitement adaptées pour des usages industriels).
Sur la valorisation de la chaleure fatale
La chaleur fatale correspond à la chaleur produite naturellement par les équipements informatiques lors de leur fonctionnement. Plutôt que d’être libérée, cette chaleur peut être réutilisée pour alimenter des réseaux de chauffage à proximité. Cette réutilisation permet d'optimiser l'efficacité énergétique globale du projet, de limiter l'effet îlot de chaleur et contribue à réduire les émissions de CO2 en se substituant à des solutions de chauffage plus carbonées de type chaudières au gaz.
Campus IA échange avec les services de l’Etat et le territoire pour étudier plusieurs possibilités de valorisation, parmi lesquelles :
- L’alimentation en chaleur du futur centre pénitentiaire de Crisenoy, géographiquement très proche du projet ;
- L’alimentation en chaleur de futures serres maraîchères aujourd’hui à l’étude par des agriculteurs à proximité ;
- Le raccordement à l’important réseau de chaleur de Melun-Vaulx-le-Pénil, aujourd’hui opéré par Dalkia.
Des discussions sont en cours et les premières études de faisabilité seront menées d’ici fin 2025.
Sur l'impact sur la biodiversité
Le site ne comporte aucune zone naturelle protégée. Une étude écologique complète, conduite sur quatre saisons, permettra d’identifier précisément les enjeux de biodiversité et, le cas échéant, de mettre en œuvre des mesures d’évitement, de réduction ou de compensation adaptées.
Source : https://www.concertation-campus-ia.fr/fr/les-effets-previsionnels-du-projet
-
Un plan des 12 datacenters et des deux postes électriques est proposé.
Le bâtiment de formation est bien petit et c'est le bâtiment qualifié en dessous de "bâtiment d’accueil aux fonctionnalités multiples", il n'est pas dédié à la formation.
(https://lafibre.info/images/datacenter/202510_fouju_campus_ia_plan_site.avif)
Le site sélectionné
Le projet Campus IA a vocation à s'installer à Fouju, en Seine-et-Marne (77), en région Île-de-France. Fouju est une commune qui dispose de nombreux atouts pour accueillir le projet Campus IA :
- L’accès immédiat aux infrastructures électriques à haute tension ;
- Un accès privilégié pour un réseau fibre de haute capacité ;
- Ce projet est localisé au sein d’une zone qui depuis longtemps est identifiée pour accueillir des activités économiques. Cette zone inscrite au SDRIF-E comme secteur d’urbanisation préférentielle permet de respecter les objectifs ZAN portés à l’échelle de la région Ile-de-France, dans une optique de sobriété foncière ;
- Un secteur en pleine mutation, compatible avec le projet, notamment la création du centre pénitentiaire de Crisenoy ainsi que le contournement de la RD 57 ;
- La proximité avec l’axe de transport majeur qui est l’autoroute A5 ;
- L’absence de riverains à proximité immédiate, contrairement à de nombreux sites en région parisienne.
Les aménagements nécessaires au projet
Le projet, se développera sur environ 70 hectares et comprendra :
- Environ 12 bâtiments de datacenters, construits par phase, chacun comprenant des supercalculateurs (machines agrégeant de nombreuses unités informatiques pour réaliser un grand nombre d’opérations de calcul ou de traitement de données en parallèle) ;
- Deux postes électriques ;
- Un bâtiment d’accueil aux fonctionnalités multiples ;
- Un bâtiment de support technique ;
- Une station de traitement des eaux usées ;
- Des espaces communs (voiries, contrôles d’accès, postes de transformation, etc.) ;
- Des espaces verts paysagers et plantés avec des ouvrages de gestion des eaux pluviales, participant à la bonne intégration du projet dans le paysage.
Source : https://www.concertation-campus-ia.fr/fr/comprendre-le-projet
-
On a des réponses à des questions que je me posais sur le type de refroidissement utilisé qui est du type dry cooling (refroidissement à l'air)
Je suis très sceptique sur cette affirmation de dry cooling. On a eu encore récemment une présentation par Dell qui disait qu'à partir d'une certaine puissance par rack, je crois qu'ils parlaient de 40 kW, le dry cooling n'est plus possible, il faut un refroidissement par eau (ou autres liquides caloporteurs, comme certaines huiles), notamment avec les GPU Nvidia.
Avec la puissance évoquée, cela m'étonnerait que le refroidissement se fasse par dry cooling.
-
Ils travaillent le samedi !
Je trouvais qu'il manquait un gros document sur le site web (il y avait des références au "dossier du maître d’ouvrage" mais ce document était introuvable).
Il a été mis en ligne ce samedi midi : La partie intéressante commence à partir de la page 24.
(cliquez sur la miniature ci-dessous - le document est au format PDF)
(https://lafibre.info/images/datacenter/202510_fouju_campus_ia_concertation.avif) (https://lafibre.info/images/datacenter/202510_fouju_campus_ia_concertation.pdf)
Le document nous offre une vue architecturale du « Boulevard » marquant le cœur du Campus : (visuel non contractuel)
(https://lafibre.info/images/datacenter/202510_fouju_campus_ia_vue_architecturale.avif)
Entrée du site, intentions architecturales :
(https://lafibre.info/images/datacenter/202510_fouju_campus_ia_vue_architecturale_2.avif)
-
On apprend que le poste électrique de Campus IA sera directement en 400 000 volts : le poste RTE n'aura aucuns transformateurs.
Création d’un poste 400 kV en double entrée en coupure
Un poste électrique à haute ou très haute tension aérien est un lieu clôturé, constitué d’une surface enherbée sur laquelle des appareils électriques (transformateurs, disjoncteurs, sectionneurs, etc.) sont implantés sur des charpentes métalliques, ainsi qu’un bâtiment de contrôle commande de ces appareils
Dans le cas du présent projet, le poste RTE n’accueillera pas de transformateurs, il s’agira donc d’un poste de répartition et non d’un poste de transformation.
(https://lafibre.info/images/datacenter/202510_fouju_campus_ia_raccordement_rte.avif)
Mise en souterrain partielle d’une ligne 225 kV
La mise en souterrain partielle d’une ligne, aussi appelée mise en siphon, nécessite de créer une liaison souterraine et d’installer deux pylônes aérosouterrains de part et d’autre du siphon.
Une liaison souterraine comporte trois câbles de puissance de 225 000 volts, éventuellement un câble de mise à la terre et un câble à fibres optiques nécessaire à l’exploitation du réseau.
Les pylônes aérosouterrains sont conçus pour permettre le passage de la technique aérienne à la technique souterraine.
En amont de la mise en service du futur poste RTE, une première étape provisoire de raccordement sur l’une des lignes 400 kV Chesnoy – Morbras est également à l’étude pour pouvoir alimenter les premières installations du projet Campus IA de manière anticipée.
-
Je suis très sceptique sur cette affirmation de dry cooling. On a eu encore récemment une présentation par Dell qui disait qu'à partir d'une certaine puissance par rack, je crois qu'ils parlaient de 40 kW, le dry cooling n'est plus possible, il faut un refroidissement par eau (ou autres liquides caloporteurs, comme certaines huiles), notamment avec les GPU Nvidia.
Avec la puissance évoquée, cela m'étonnerait que le refroidissement se fasse par dry cooling.
Le diable est dans les détails :
- Le refroidissement uniquement par dry cooling ne concerne que les 3 premiers centres de données
- La puissance de ces 3 premiers centres de données n'est pas mentionnée, elle pourrait être inférieure aux autres. (j'avais pensé 1400 MW / 12, soit 117 MW / datacenter, mais ce n'est pas forcément le cas)
- Campus IA ne construit pas de datacenter, ce sont ses clients qui le font (et la phase 1 intègre déjà un / des clients qui vont construire les 3 premiers datacenter). Il est donc compliqué de donner des détails par d'hypothétiques centres de données tant que ceux qui vont les construire n'ont pas été identifiés. Cela explique également le flou sur le nomrbe d'emplois à terme.
Le rapport explique :
La consommation en eau
Pour la phase 1 du projet, Campus IA a fait le choix de la sécurité environnementale : le refroidissement sera assuré à 100 % par des technologies de type dry cooling, ce qui signifie aucun prélèvement dans les ressources en eau locales.
À terme, et selon l’évolution des besoins et des technologies disponibles, certains bâtiments pourront recourir à des solutions mixtes, intégrant par exemple l’utilisation d’eaux grises (eaux industrielles de réutilisation, impropres à la consommation humaine mais parfaitement adaptées pour des usages industriels).
Campus IA s’engage à :
› Ne pas recourir à la nappe de Champigny, ressource stratégique du territoire,
› Privilégier des solutions sobres en eau,
› Appliquer une gestion différenciée selon les bâtiments pour optimiser l’équilibre entre performance énergétique et respect de la ressource.
Plus loin, le modèle économique de Campus IA est détaillé :
Quel est le modèle économique du projet ?
Le modèle économique de Campus IA repose sur une logique d’aménagement et de mise à disposition d’infrastructures stratégiques, destinées à accueillir des datacenters et des acteurs majeurs du numérique.
Concrètement, la société de projet prend en charge :
› l’acquisition et l’aménagement du foncier,
› la construction des infrastructures structurantes (raccordements électriques haute tension, fibre optique, voiries, réseaux d’eau potable, dispositifs de sécurité incendie),
› la mise en place d’un cadre sécurisé et évolutif permettant l’accueil progressif de plusieurs bâtiments de datacenters.
Une fois ces investissements réalisés, les opérateurs de datacenters et entreprises utilisatrices s’implantent sur le site et se voient facturer les services associés (énergie, connectivité, sécurité, eau, maintenance).
Ce modèle présente plusieurs avantages :
› la mutualisation des coûts d’infrastructures lourdes, difficilement supportables par un acteur isolé,
› la garantie d’un haut niveau de performance et de sécurité, attractif pour les grands acteurs de l’IA et du cloud,
› la stabilité et prévisibilité des revenus sur la durée, grâce aux contrats conclus avec les opérateurs implantés.
À travers cette approche, Campus IA ne se limite pas à bâtir des datacenters : il agit comme un aménageur spécialisé, offrant une zone d’activités numérique clé en main, pensée pour accueillir un écosystème complet dédié à l’intelligence artificielle et au calcul intensif.
-
Campus IA s’engage à :
› Ne pas recourir à la nappe de Champigny, ressource stratégique du territoire,
› Privilégier des solutions sobres en eau,
› Appliquer une gestion différenciée selon les bâtiments pour optimiser l’équilibre entre performance énergétique et respect de la ressource.[/color]
Les promesses n'engagent que ceux qui les écoutent. Toujours vues les puissances évoquées (on est à 100 MW par datacenter, on verra si les trois premiers sont plus petits), il est clair qu'une eau grise ne suffira pas. Il faudra beaucoup d'eau à terme. Elle ne viendra peut-être pas de la nappe de Champigny, mais il faudra bien qu'elle vienne de quelque part.
Je vois bien le discours dans quelques années : "Ah oui, on s'était engagé pour la nappe de Champigny, mais pas pour celle de Tataouine, à quelques km plus loin".
Quand je vois le nombre de châteaux d'eau qui ont été construits sur le plateau de Saclay. Et pourtant on sort un discours écologique sur ce projet, de quartier "écologiquet". Du greenwashing. On est sur du discours lénifiant et trompeur.
-
J'ai mis à jour mes questions en supprimant celles dont on a la réponse et en adaptant d'autres. N'hésitez pas à faire des propositions d'adaptation, j'envoie mes questions lundi.
Analyse et interrogations relatives au projet de campus d'intelligence artificielle à Fouju
1/ Justification de l'implantation géographique à Fouju
Le choix de Fouju pour l'implantation du campus d'Intelligence Artificielle (IA) apparaît comme stratégiquement pertinent, notamment en raison des facteurs suivants :
• Environnement immédiat : L'absence de voisinage résidentiel direct, à l'exception du futur centre pénitentiaire de Crisenoy ;
• Énergie : La parcelle est localisée sous deux lignes électriques RTE de 400 000 volts (Chesnoy – Morbras 1 et 2) et une de 225 000 volts. Il y a également à proximité deux autres lignes 400 000 volts (Chesnoy – Cirolliers 1 et 2), une autre de 225 000 volts et 4 lignes 63 000 volts.
• Connectivité numérique : La faible latence de la liaison par fibre optique avec Paris, de l'ordre de la milliseconde ;
• Accessibilité routière : L'emplacement bénéficie d'une proximité immédiate avec une sortie de l'autoroute A5 ;
• Infrastructures locales : La création d'une nouvelle voie de desserte (actuellement en travaux) permettra de contourner le hameau des Bordes.
• Possibilité d'extension ferroviaire : Si des dizaines de milliers d'empois venaient à être créés sur la zone, il pourrait être étudié le prolongement de la future branche du RER D de Combs-la-Ville, sans créer de voie ferrée. Île-de-France mobilité étudie actuellement la séparation en deux de la branche du RER D Paris-Melun, en créant un terminus à Combs-la-Ville. Un prolongement du nouveau terminus de Combs-la-Ville à Crisenoy pourrait emprunter la ligne LGV Combs-la-Ville - Moisenay aujourd'hui devenue une simple section de délestage depuis la création de la LGV Villeneuve-Saint-Georges - Moisenay (la ligne devrait être requalifiée en ligne classique, avec une nouvelle signalisation ferroviaire).
Un arrêt de bus à proximité sera-t-il ajouté pour desservir le centre pénitentiaire de Crisenoy et le campus IA ?
2/ Clarification des projections d'emploi sur le site
La lettre de mission des garants CNDP mentionne « des créations d’emplois estimées à 500 emplois directs et plus de 1 000 emplois indirects (prestataires de service etc.) et entre 350 à 550 voitures par jour lors de la finalisation totale du projet ».
Le dossier de concertation publique ne mentionne plus les 500 emplois directs : « Les estimations envisagent, à terme, la création de plusieurs centaines d'emplois directs et plus de 1 000 emplois indirects ou induits ».
Le projet semble se matérialiser, à terme, par douze centres de données et un petit centre de formation destiné aux futurs techniciens. La partie formation parait limitée et dans une description, elle est remplacée par « bâtiment d’accueil aux fonctionnalités multiples ». Afin d'évaluer la pertinence de l'estimation de 500 emplois directs, il est important de fournir une ventilation détaillée par catégorie de poste en séparant d'un part la partie centre de données de la partie formation et d'autre part la phase 1 (3 centres de données) et celle à terme avec 12 centres de données. Les données devraient indiquer la catégorie des emplois directs, en incluant notamment : directeur de site ; technicien de datacenter ; personnel de sécurité du site ; personnel de prévention incendie du site ; personnel d'entretien des espaces verts ; formateurs pour le centre de formation.
3/ Exigence de puissance, résilience et alimentation de secours
La puissance électrique estimée pour ce projet atteint 1,4 GW (1 400 MW). Cette capacité est plus de dix fois supérieure à celle du plus grand campus de centres de données actuellement en construction sur le territoire français, le "Paris Digital Park" de Digital Realty situé à La Courneuve (Seine-Saint-Denis) : Avec 40 000 m² de salles serveur, il ambitionne, à terme, une puissance électrique de 130 MW.
À Fouju, RTE a-t-il prévu l'aménagement ou la construction d'une nouvelle ligne électrique, pour la phase ultérieure qui permet de passer du raccordement initial de 700 MW à 1400 MW ? La phase initiale incluant un poste 400 kV en double entrée (sur les liaisons 400 kV Chesnoy – Morbras 1 et 2), l'extension à 1400 MW utilisera en plus les lignes aériennes 400kV Chesnoy – Cirolliers 1 et 2 qui passent à proximité de la parcelle ?
Les centres de données garantissent traditionnellement une alimentation en énergie exempte de toute interruption. Ils sont équipés de batteries qui fournissent l’énergie aux onduleurs, le temps que les groupes électrogènes de secours démarrent et se synchronisent. Cette architecture permet de secourir l'intégralité de la charge informatique (IT) et le système de refroidissement, afin de maintenir le fonctionnement pendant plusieurs jours, sans recours au réseau électrique principal.
Dans le contexte du campus d'IA et pour les 3 premiers centres de données :
• Secours total ou partiel : L'intégralité de l'alimentation électrique sera-t-elle secourue par des groupes électrogènes ? Si le secours est partiel, quel en sera le pourcentage ?
• Batteries : Les salles des batteries seront-elles des bâtiments distincts ? Quelle est la technologie utilisée (batterie au plomb ou lithium-ion) ? Quelle est le nombre de tonnes de batteries qui sera présent à terme sur le campus ?
• Groupes électrogènes de secours : Où seront positionnés ces groupes ? La production de 1 400 MW d'électricité in situ nécessite une surface considérable. Les groupes seront-ils installés sur les toits des centres de données ?
• Carburant pour les groupes : La construction de cuves de fioul est-elle prévue ? Si oui, quelle est la capacité totale exprimée en litres qui est envisagée ? Quel est le type de carburant ?
• Impact environnemental : Quelles mesures concrètes sont prévues pour minimiser l'impact environnemental des groupes électrogènes de secours ?
4/ Gestion thermique et stratégie de refroidissement
Le dossier de concertation publique mentionne : « Pour la phase 1 du projet, Campus IA a fait le choix de la sécurité environnementale : le refroidissement sera assuré à 100 % par des technologies de type dry cooling ».
Douze centres de données sont prévus, à terme, sur le Campus IA, toutefois seuls les trois premiers ont des caractéristiques qui sont connues (phase 1 du projet). Serait-il possible de donner la puissance souscrite pour chacun de ces trois centres de données (lors de leur mise en service en 2018, puis à terme si ces centres de données ont plusieurs phases de mise en service) ? Le principal objectif est de savoir si leur puissance est similaire aux 9 centres de données suivants, les technologies utilisées devant évoluer quand la densité augmente.
Les experts estiment qu'il est difficile d'évacuer une puissance de 100 MW par centre de données par des technologies de type dry cooling. De surcroît, en cas d'absence de vent jumelé avec une canicule, il convient d'évaluer le risque d'élévation thermique susceptible de compromettre l'efficacité du refroidissement et, par conséquent, le fonctionnement de l'installation. L'îlot de chaleur généré par les 3 premiers centres de données de campus d'IA a-t-il fait l'objet d'une modélisation spécifique ? Enfin, quelle est la chaleur fatale rejetée dans l'environnement extérieur l'été, quand il est compliqué de valoriser l'énergie thermique résiduelle ?
Dans le cas où les trois premiers centres de données auraient une puissance significativement plus faible que les 9 suivants, serait-il possible de préciser comment la chaleur résiduelle sera dissipée pour les 9 centres de données suivants ?
• Technologie principale : Quelle est la méthode de refroidissement envisagée pour les centres de données du campus ? Le refroidissement sera-t-il assuré par des groupes froids (quels types de fluides frigorigènes), par du free cooling (air indirect, air direct, ou eau), ou par un autre système ?
• Source d'eau : En cas d'utilisation d'un refroidissement free cooling par eau, quelle sera la source d'approvisionnement en eau ? L'utilisation de cette ressource hydrique est-elle susceptible d'engendrer un impact sur l'approvisionnement en eau potable destiné aux populations ou aux activités agricoles locales, notamment en période de sécheresse ou de tension hydrique ?
• Adiabatique : Est-il prévu de mettre en œuvre un refroidissement adiabatique ? L'installation de tours aéroréfrigérantes (ou tours de refroidissement par évaporation) est-elle envisagée sur le campus d'IA pour les centres de données au-delà des trois premiers ?
• Immersion des serveurs : Les serveurs feront-ils l'objet d'un refroidissement direct au composant ou par immersion ? (serveurs immergés dans un fluide isolant qui transporte les calories)
5/ Indicateurs de performance environnementale prévisionnels
• Efficacité énergétique (PUE - Power Usage Effectiveness) : Quel est l'indicateur d'efficacité énergétique (PUE) visé pour les trois premiers centres de données du campus d'IA ? Quelles sont les stratégies précises qui seront déployées pour atteindre et garantir le maintien de cet objectif ?
• Bilan carbone : Quel est le bilan carbone prévisionnel du campus IA, en intégrant les trois premiers centres de données et leurs serveurs, décliné selon les scopes 1, 2 et 3 ? Quelles sont les émissions générées tant par la phase de construction que par la phase d'exploitation du campus IA ?
-
Je suis très sceptique sur cette affirmation de dry cooling. On a eu encore récemment une présentation par Dell qui disait qu'à partir d'une certaine puissance par rack, je crois qu'ils parlaient de 40 kW, le dry cooling n'est plus possible, il faut un refroidissement par eau (ou autres liquides caloporteurs, comme certaines huiles), notamment avec les GPU Nvidia.
Avec la puissance évoquée, cela m'étonnerait que le refroidissement se fasse par dry cooling.
Pour moi, il y a une erreur sur ta définition de "dry cooling".
Le dry-cooling c'est juste un refroidissement sans phénomène évaporatif. Ton dry cooling peut être du freecooling direct, du watercooling, utiliser ou non une climatisation, etc...
C'est juste qu'il ne fait pas évaporer d'eau vers l'extérieur.
Et sinon, des fermes de serveurs IA qui ne sont pas en watercooling, ça existe, voir la vidéo ci desous.
Même si je suis d'accord que pour un datacenter 100% dédié IA, ça ne serait pas logique.
L'installation de la vidéo est probablement en air-cooling à cause de l'architecture initiale du datacenter pré-existant.
https://www.youtube.com/watch?v=zcwqTkbaZ0o
Leon.
-
Je me demande comment la 1400 MW sur un même site peut être correctement évoqué, s'il n'y a pas du tout de vent.
On n'a pas un risque de montée en température de l'îlot de chaleur ?
Les centrales nucléaires qui évacuent des puissances similaires sont placées à côté d'un fleuve ou de l'océan, ce qui n'est pas le cas ici.
Le choix du site semble avoir longtemps réfléchi et Fouju a été sélectionné parmi plus de 50 sites étudiés.
-
Pour moi, il y a une erreur sur ta définition de "dry cooling".
Ce n'est ma définition mais celle qui est donnée dans les documents cités par Vivien :
Pour la phase 1 du projet, Campus IA a fait le choix de la sécurité environnementale : le refroidissement sera assuré à 100 % par des technologies de type dry cooling (refroidissement à l'air), ce qui signifie aucun prélèvement dans les ressources en eau locales.
Après, il est bien sûr très probable que le refroidissement par eau dans les racks se fasse en circuit fermé, mais il faut bien que l'eau qui re-rentre ait été refroidie avant, et cette chaleur évacuée.
Dans ta vidéo, si j'ai bien entendu, il s'agit de rack de 45 kW, donc la limite que j'évoquais plus haut. En effet, quand on voit le montage et démontage d'un serveur, il n'y a pas de refroidissement par eau (qui est beaucoup plus lourd à gérer).
Et d'autre part, ta vidéo parle très peu, si je n'ai rien loupé (je ne l'ai pas écoutée entièrement, mais j'ai vu les titres des différentes parties), du système de refroidissement de ce datacenter.
Dans la présentation de Dell que j'évoquais, ils parlaient même de racks d'1 MW. Dans un datacenter de 1.4 GW, on peut donc mettre 1400 racks d'1 MW...
Et 5600 racks de 250 kW. On n'est plus à 45 kW. Bon, c'est un ordre de grandeur, mais suggestif.
P.S : je me demande si ce dossier public n'est pas un peu trompeur, en ce qu'il ne parle en fait que des trois premiers datacenters, a priori moins puissants que le reste du projet. Et s'il n'y a pas un peu d'esbrouffe sur ce projet, si on ne parle pas de 1.4 GW pour la Com, pour faire gros, alors que finalement on ne va construire que 3 datacenters faisant chacun ~20 MW.
-
Sur l'emploi, on peut dire que le projet de concertation est très flou. Il parle de 1000 emplois pendant la phase de construction, mais après c'est plutôt du conditionnel, sans aucun chiffre. Voir p32 :
La phase de construction devrait mobiliser jusqu’à 1 000 personnes.
› Pendant la phase de construction, des centaines de travailleurs locaux dans tous les métiers (terrassement, services publics, logistique, suivi de chantier, etc.) seront nécessaires. Des contrats d’insertion ou contrats aidés d’insertion seront mis en place en partenariat avec les acteurs locaux.
› Une fois le site en fonctionnement, des postes à long terme seront créés dans la maintenance technique, la sécurité, la restauration, l’aménagement
paysager, la gestion des installations.
› Autour du campus, les prestataires de services, fournisseurs et partenaires sont susceptibles de générer des emplois supplémentaires. Des emplois en amont dans l’écosystème français de l’IA (par exemple, en ingénierie logicielle) seront également créés.
› En outre, le campus peut soutenir l’accès à l’emploi et la mise à niveau des compétences des résidents locaux, en particulier dans des domaines tels que les systèmes électriques, la sécurité et la maintenance numérique.
D'autant que lIA est susceptible, au niveau national, et au delà, de détruire des emplois, par exemples de développeurs. Mais le dossier affirme que non, sur la même page :
L’IA, source de destruction massive d’emplois : vrai ou faux ?
Faux ! Des économistes de l’Organisation Internationale du Travail ont étudié l’impact qu’aura l’IA sur le marché du travail (20) et il apparaît que le risque n’est pas tant le remplacement de l’emploi par des bots mais plutôt la transformation des métiers qui pourrait toucher 10 à 13 % des professions dans le monde.
Cette transformation aurait pour conséquence principale un gain de temps permettant alors de se concentrer sur des tâches plus complexes. L’enjeu est alors d’accompagner, d’organiser et de réfléchir au déploiement de l’IA pour anticiper les changements que cette technologie induit.
Ce dossier de concertation sent beaucoup la hype.
-
Ce n'est ma définition mais celle qui est donnée dans les documents cités par Vivien :
Pour la phase 1 du projet, Campus IA a fait le choix de la sécurité environnementale : le refroidissement sera assuré à 100 % par des technologies de type dry cooling (refroidissement à l'air), ce qui signifie aucun prélèvement dans les ressources en eau locales.
Il faut savoir lire entre les lignes. Ici, c'est un communiqué pour le grand public, pas forcément précis.
"aucun prélèvement dans les ressources en eau locales", c'est sans ambiguïté : pas de refroidissement par évaporation, pas de consommation massive d'eau, et c'est cohérent avec la définition standard du "dry cooling".
Leon.
-
Il faut savoir lire entre les lignes. Ici, c'est un communiqué pour le grand public, pas forcément précis.
"aucun prélèvement dans les ressources en eau locales", c'est sans ambiguïté : pas de refroidissement par évaporation, pas de consommation massive d'eau, et c'est cohérent avec la définition standard du "dry cooling".
Oui, mais on sait qu'il n'est pas possible d'évacuer 1.4 GW (ou même 700 MW, première phase), dans ces conditions, n'est-ce pas ? Vivien a relevé que cela ne concernait que les 3 premiers datacenters, certainement d'une puissance moindre, même si elle n'est pas précisée, malheureusement.
Vivien l'a relevé, toutes les centrales nucléaires de cette gamme de puissance sont situées près d'un fleuve ou de l'océan, pour prélever l'eau pour le refroidissement.
Le texte est plein de flous et d’ambiguïté. Il est surtout rempli de hype.
-
Voilà d'ailleurs ce que dit une autre IA, Gemini de cette prétention de n'utiliser que du dry cooling.
Question posée : "Le projet de datacenter IA Campus AI dans la Seine-et-Marne prétend évacuer 1.4 GW de puissance électrique par dry cooling. Est-ce réaliste ? " Réponse :
Non, l'affirmation selon laquelle le projet de datacenter IA Campus AI en Seine-et-Marne pourrait évacuer 1,4 GW de puissance électrique par dry cooling (aéroréfrigérants secs) semble hautement irréaliste et techniquement improbable dans le contexte actuel.
Voici une analyse détaillée de ce qui rend ce chiffre peu crédible :
🏭 Échelle de Puissance Absolument Colossale
Un datacenter de 1,4 GW (1400 MW) est une puissance électrique extrêmement massive, comparée à la taille des datacenters actuels en France :
- Les plus grands datacenters en France ont actuellement des puissances de l'ordre de 130 MW à 250 MW.
- Le chiffre de 1,4 GW est comparable à la puissance électrique totale d'une centrale nucléaire (un réacteur EPR est d'environ 1,6 GW).
- Un commentateur a estimé qu'avec un PUE (Power Usage Effectiveness) typique d'un datacenter, près de 90 % de cette puissance, soit environ 1,26 GW, devrait être évacuée sous forme de chaleur.
🌬️ Limites du Dry Cooling pour une Telle Capacité
Le dry cooling (refroidissement sec) est une technique de free cooling très appréciée pour sa faible consommation d'eau (circuit fermé). Cependant, elle présente des limitations significatives, surtout à l'échelle du Gigawatt (GW) :
Capacités Unitaires: Les aéroréfrigérants secs (dry coolers) modulaires sont généralement conçus pour des puissances allant de quelques kW à 1 MW (un seul module) ou jusqu'à 10 MW ou plus pour de très grandes unités. Évacuer 1,26 GW de chaleur nécessiterait une quantité absolument gigantesque d'unités de dry cooling et une surface d'installation phénoménale.
Contrainte par la Température Extérieure: Le dry cooling est une forme de free cooling dont la performance est directement limitée par la température de l'air sec extérieur (Dry Bulb Temperature). En période de forte chaleur estivale, typique de la Seine-et-Marne, la capacité de refroidissement diminue drastiquement, nécessitant souvent le recours à des systèmes de refroidissement complémentaires ou plus intensifs (comme le refroidissement par évaporation ou l'adiabatique, qui consomment de l'eau, ou les groupes froids à compression).
Augmentation de la Densité (IA): Les datacenters d'Intelligence Artificielle (IA Campus AI) ont une densité de puissance beaucoup plus élevée que les datacenters classiques, ce qui nécessite de plus en plus des solutions de refroidissement liquide (par exemple, par immersion ou par contact direct) en complément ou en substitution du refroidissement par air, y compris le dry cooling, pour gérer les points chauds.
Conclusion sur la Faisabilité
Il est extrêmement improbable qu'un projet en région parisienne (Seine-et-Marne), même en utilisant la plus grande surface d'aéroréfrigérants secs imaginable, puisse évacuer 1,4 GW de chaleur uniquement par dry cooling de manière fiable, en particulier en tenant compte des pics de chaleur.
Il est plus probable que :
- Le chiffre de 1,4 GW représente la puissance de raccordement électrique brute totale, et non la chaleur à dissiper (bien que la plupart soit dissipée en chaleur).
- Le système de refroidissement soit un système hybride complexe, combinant le dry cooling (pour le free cooling la majeure partie de l'année) avec d'autres technologies comme le refroidissement par évaporation adiabatique (consommateur d'eau) et des groupes froids traditionnels, pour garantir la redondance et la capacité de refroidissement pendant les périodes chaudes.
- L'affirmation soit une erreur d'interprétation ou une extrapolation des capacités réelles, ou qu'elle inclue une très grande proportion de refroidissement liquide qui utilise ensuite des dry coolers comme échangeurs finaux (ce qui ne change pas la problématique de la taille monumentale requise).
Le gigantisme de la puissance annoncée combiné à la limitation technique du dry cooling rend l'affirmation très discutable.
La hype IA combattue par l'IA...
-
Oui, mais on sait qu'il n'est pas possible d'évacuer 1.4 GW (ou même 700 MW, première phase), dans ces conditions, n'est-ce pas ?
Hein?? :o
Pourquoi il ne serait pas possible d'évacuer 1.4GW en dry cooling?
Si tu veux construire un campus IA en watercooling sans utiliser d'échangeur adiabatique (=avec évaporation de l'eau), c'est forcément faisable. Un campus-datacenter de 1.4GW sera juste 100fois plus grand qu'un datacenter de 14MW. Et on sait qu'un datacenter de 14MW ça existe en dry cooling.
Il "suffit" juste de mettre plus de surface d'échangeur, plus d'échangeurs, des milliers d'échangeurs dry coolers.
Ca coute plus cher, ça prend plus de place qu'avec du refroidissement "adiabatique", mais c'est faisable.
Voir photo ci dessous d'un campus de datacenter de taille moyenne (sans doute quelques dizaines de MW), avec beaucoup d'échangeurs sur le toit. Sur la photo tu dois avoir entre 200 et 300 dry-coolers.
(https://lafibre.info/images/datacenter/202510_datacenter_dry_coolers.avif)
Et la surface d'échangeur nécessaire elle dépend de la température de l'eau côté "chaud".
Que ça soit avec des climatisation ou du watercooling (refroidissement direct à l'eau), on pousse les calories avec de l'eau à 45-50°C.
Leon.
-
Désolé, mais on n'est pas dans les mêmes dimensions, voir réponse Gemini.
Il suffit "juste" de mettre davantage d'échangeurs, bien sûr ! C'est simplement 100 fois plus grand que ton déjà très gros datacenter.
Je crois que l'on essaye juste de nous balader en prétendant que ce datacenter immense ne consommera pas d'eau.
-
Désolé, mais on n'est pas dans les mêmes dimensions, voir réponse Gemini.
Il suffit "juste" de mettre davantage d'échangeurs, bien sûr ! C'est simplement 100 fois plus grand que ton déjà très gros datacenter.
Je crois que l'on essaye juste de nous balader en prétendant que ce datacenter immense ne consommera pas d'eau.
Tiens, voici un datacenter de plusieurs centaines de MW équipé en Dry-Cooler.
https://dfwcgi.com/project/100-mw-high-performance-computing-data-center/
Dans ce genre d'installation, pour mettre à l'échelle, il suffit vraiment de tout multiplier par 5 ou 10.
Donc pour 1GW, tu peux par exemple construire 10x datacenters de 100MW.
Les investissements sont colossaux, et quand tu as le pognon, tu peux quasiment faire tout ce que tu veux.
Même si tu ne le crois pas, mais ça ne change franchement pas grand chose.
Quand à ta réponse Gémini, je ne pense pas qu'il faille lui faire confiance.
Leon.
-
Voilà d'ailleurs ce que dit une autre IA, Gemini de cette prétention de n'utiliser que du dry cooling.
Question posée : "Le projet de datacenter IA Campus AI dans la Seine-et-Marne prétend évacuer 1.4 GW de puissance électrique par dry cooling. Est-ce réaliste ? "
J'ai posé la question à Gemini, mais à Gemini 2.5 Pro et non Gemini 2.5 Flash, voici sa réponse, qui est un peu différente :
Absolument. Analysons cette affirmation sous plusieurs angles pour déterminer si elle est réaliste.
La réponse courte est la suivante : si le chiffre de 1,4 GW est bien celui annoncé pour la puissance électrique totale du campus à terme, l'évacuer par "dry cooling" (refroidissement à sec) est théoriquement possible, mais représente un défi technique et environnemental absolument colossal et sans précédent à cette échelle. Le terme "réaliste" est donc sujet à un débat intense.
Voici une analyse détaillée des points clés.
1. Un Ordre de Grandeur Inédit
Il est crucial de comprendre ce que représente 1,4 Gigawatts (GW).
- Puissance d'un réacteur nucléaire : C'est la puissance électrique d'un réacteur nucléaire moderne de type EPR (comme celui de Flamanville) ou d'une grosse tranche de centrale nucléaire existante.
- Consommation d'une métropole : C'est plus que la consommation électrique instantanée de la ville de Marseille (environ 1 GW en pointe).
- Plus grand datacenter au monde : Les plus grands campus de datacenters au monde actuellement en opération ou en construction visent des puissances de plusieurs centaines de Mégawatts (MW), rarement au-delà de 500 MW. Un projet de 1,4 GW (soit 1400 MW) pulvériserait tous les records existants.
Presque 100% de cette puissance électrique consommée par les serveurs est convertie en chaleur. Le défi est donc d'évacuer en continu 1,4 GW de puissance thermique.
2. La Technologie du "Dry Cooling"
Le refroidissement à sec (ou aéroréfrigérant) fonctionne sur le principe d'un immense radiateur. De l'air est pulsé par de très nombreux ventilateurs à travers des échangeurs de chaleur dans lesquels circule un fluide (généralement de l'eau en circuit fermé) qui a capté la chaleur des serveurs.
- Avantage principal : Il ne consomme quasiment pas d'eau, contrairement aux tours de refroidissement par évaporation ("wet cooling") qui en vaporisent des quantités massives. C'est un argument écologique et réglementaire majeur.
- Inconvénient majeur : Son efficacité est bien plus faible que le refroidissement par évaporation et dépend directement de la température de l'air ambiant. Plus l'air extérieur est chaud, moins le système est efficace.
3. Les Défis Techniques et Physiques
Pour évacuer 1,4 GW de chaleur avec cette technologie, les obstacles sont gigantesques :
- Taille des installations : Il faudrait une surface d'échangeurs de chaleur et un nombre de ventilateurs absolument phénoménaux. On parle d'une installation qui s'étendrait visuellement sur des hectares, ressemblant à une "ferme" de modules de ventilation de plusieurs mètres de haut. L'emprise au sol et l'impact visuel seraient considérables.
- Efficacité lors des canicules : Le principal point faible. Durant les vagues de chaleur estivales en Île-de-France, où la température de l'air peut dépasser 35-40°C, l'efficacité du dry cooling chute drastiquement. Pour maintenir les serveurs à une température de fonctionnement acceptable, il faudrait soit :
1/ Surdimensionner massivement les installations (encore plus de ventilateurs, plus de surface).
2/ Ralentir la puissance de calcul des serveurs ("throttling"), ce qui va à l'encontre du but d'un tel campus.
3/ Utiliser en appoint un système de refroidissement complémentaire, plus énergivore.
- Consommation électrique du système de refroidissement : Les centaines, voire les milliers de ventilateurs nécessaires pour brasser un volume d'air suffisant consommeraient eux-mêmes une quantité d'électricité colossale, de l'ordre de plusieurs dizaines de Mégawatts, voire plus. Cette consommation s'ajoute aux 1,4 GW des serveurs.
- Nuisances sonores : Le bruit généré par une telle concentration de ventilateurs en fonctionnement serait une contrainte environnementale et réglementaire extrêmement difficile à gérer pour les riverains.
Conclusion : Théoriquement Possible, Pratiquement Audacieux
- Sur le papier : Oui, la physique permet de construire un système de dry cooling capable d'évacuer 1,4 GW de chaleur. Il "suffit" de multiplier le nombre de modules de refroidissement.
- En pratique : Le faire de manière économiquement viable, socialement acceptable (bruit, paysage) et surtout fiable pendant les extrêmes climatiques (canicules) est un pari technologique d'une ampleur inédite.
Le terme "réaliste" est donc très optimiste. Il serait plus juste de qualifier ce projet d'extrêmement ambitieux et à la frontière des limites technologiques actuelles pour cette technologie à cette échelle.
La faisabilité du projet AI Campus ne repose pas seulement sur la capacité à évacuer la chaleur, mais aussi sur la capacité du réseau électrique français (géré par RTE) à fournir de manière stable une telle puissance en un point unique, ce qui constitue un autre défi majeur.
-
Tiens, voici un datacenter de plusieurs centaines de MW équipé en Dry-Cooler.
https://dfwcgi.com/project/100-mw-high-performance-computing-data-center/
Non, comme le titre du lien l'indique, c'est un projet de datacenter de 100 MW "seulement", en fait 4x25 MW. C'est déjà beaucoup, mais c'est un ordre de grandeur inférieur au méga projet de Campus IA.
100 MW High-Performance Computing Data Center
...
From this BOD, the team has since designed the first building on the campus, a 100-MW building designed for HPC/AI workloads with mechanical systems designed for liquid cooling. Four (4) 25-MW data halls were laid out in a stacked configuration, ..
Cela correspond en gros au 3 premiers datacenters pour lequel Vivien a relevé que le dry cooling était annoncé.
Pour l’instant, je croirais plus Gemini. Comme le disait Vivien les centrales nucléaires de cette puissance sont toutes construites au bord de rivières ou de l'océan. Si c'était possible de faire du dry cooling, on en construirait sur des sites sans eau autour. Tu vois 1 GW dégagé dans l'air comme cela, sans conséquence pour l'environnement autour ? Moi pas. Bon, le terrain est sur un site non protégé, donc pas besoin de se préoccuper de l'environnement, n'est-ce pas ?
Je plains les habitants du village à côté. Cra de toute façon, le rouleau compresseur politique va imposer le projet (c'est le but des procédures "Fast track"). Bon, cela changera peut-être à l'élection présidentielle de 2027, et si la bulle spéculative de l'IA éclate entre temps.
Là, je pense que l'on est parti pour un datacenter de 100 MW. Le reste, on verra... D'ailleurs, la première tranche de raccordement signée avec RTE, c'est pour l'instant 700 MW.
-
J'ai posé la question à Gemini, mais à Gemini 2.5 Pro et non Gemini 2.5 Flash, voici sa réponse, qui est un peu différente :
Je n'ai pas l'impression que la réponse soit très différente...
-
Je plains les habitants du village à côté.
Les plus proches habitations du hameau des Bordes sont à 1 Km ;
Les plus proches habitations du village de Crisenoy sont à 1 Km ;
Les plus proches habitations du village de Fouju sont à 2 Km ;
Les plus proches habitations du village de Saint-Germain-Laxis sont à 2 Km ;
Les plus proches habitations du village de Moisenay sont à 2,5 Km ;
Les plus proches habitations de la première grande ville, Melun sont à 6,5 Km.
De plus, le projet de campus IA est collé à une future prison (qui est sur la commune de Crisenoy).
Si le projet de Campus IA et de ses 50 Md€ d’investissements semble plutôt bien accueilli par certains élus (un projet de grand centre logistique, avec des centaines de camions par jour, était prévu avant le campus IA), ce n'est pas le cas de la prison voisine :
https://www.leparisien.fr/seine-et-marne-77/prison-de-crisenoy-le-maire-depose-plainte-contre-letat-qui-defigure-une-voie-communale-07-10-2024-HNM72J7KHRHQROZRKJNHVQRWXY.php
En mars 2025, TF1 en a parlé au journal télévisé : https://www.tf1info.fr/societe/video-reportage-il-en-faut-mais-pas-n-importe-ou-a-crisenoy-et-noiseau-ces-habitants-qui-refusent-qu-une-prison-xxl-s-eleve-pres-de-chez-eux-2357476.html
(https://lafibre.info/images/bistro/202410_crisenoy_travaux_prison.avif)
-
J'ai envoyé nos interrogations sous la forme d'un "Cahier d’acteur"
(cliquez sur la miniature ci-dessous - le document est au format PDF)
(https://lafibre.info/images/datacenter/202510_CampusIA_point_de_vue_LaFibre.info.avif) (https://lafibre.info/images/datacenter/202510_CampusIA_point_de_vue_LaFibre.info.pdf)
J'ai hésité sur le format, car on a plus des questions que des propositions.
Qu’est-ce qu’un cahier d’acteur ?
Outil d’information mais aussi d’expression, le cahier d’acteur permet au public et au maître d’ouvrage de prendre connaissance des observations, proposition, avis ou opinion de tout groupement légalement constitué sur le projet. Le cahier d’acteur offre ainsi une alternative au simple dépôt d’avis en ligne pour ses auteurs qui ont l’opportunité d’exprimer une position détaillée et argumentée. Précisons que le contenu du cahier d’acteur relève de la responsabilité de son auteur et n'engage que lui.
Le cahier d’acteur est un document formaté, mis à disposition par la maîtrise d’ouvrage sur le site de la concertation publique.
Comment est conçu un cahier d’acteur ?
- Une présentation du propos : la première page contient quatre encarts : l’un, central, qui permet de présenter en quelques lignes ou tirets propos de l’acteur. Les trois autres, sur la droite, servent à la présentation de l’acteur en question (logo s’il existe, rapide description de l’entité et coordonnées).
- Un développement de vos arguments, de votre position, de vos propositions en pages suivantes : Veillez à bien citer vos sources, à subdiviser votre raisonnement en parties ou sous-parties. Vous pouvez illustrer vos propos de visuels libres de droits ou en indiquant les crédits associés. L’argumentaire ne doit pas dépasser 7 000 caractères (correspondant à environ 3 pages).
- Une conclusion / synthèse en quelques phrases : il faut que le lecteur puisse y retrouver vos principaux arguments et propositions
-
Ce document est très bien. Pour ce qui est de l'ilôt de chaleur, on peut penser qu'à terme, les différents datacenters se chaufferont les uns les autres, ce qui diminuera l'efficacité du refroidissement, et fera tourner davantage les ventilateurs sur les toits, engendrant beaucoup de bruit, et consommant eux-même beaucoup d'énergie. Cela bien sûr si tous les datacenters utilisent le dry cooling, ce qui comme tu le soulignes, n'est pas assuré, car le dry cooling n'est précisé que pour les trois premiers datacenters, dpnt la puissance n'est pas indiquée...
Pour moi, le plus gros risque, c'est quand même le déséquilibre dans le réseau électrique engendré par une installation consommant autant, dans une région, l'Ile de France, qui consomme déjà beaucoup d'électricité, 65.4 TWh en 2024 selon RTE, soit une puissance 7.5 GW en moyenne, et importe déjà 95% de son électricité. Si une ligne desservant ce datacenter tombe, la puissance appelée sur les autres lignes risque de les faire tomber aussi.
D'autre part, si on exporte de l’électricité en 2024 et2025, cela n'a pas été le cas en 2022 et 2023, et nos centrales ont 45 ans en moyenne, et ont toutes été construites sur une période de 7/8 ans, et devront pour la plupart repasser des visites décennales dans quelques années.
Voir rapport RTE : (cliquez sur la miniature ci-dessous - le document est au format PDF)
(https://lafibre.info/images/energie/202507_rte_bilan_electrique_2024_ile_de_france.avif) (https://lafibre.info/images/energie/202507_rte_bilan_electrique_2024_ile_de_france.pdf)
Ce n'est pas être prévoyant des aléas prévisibles que de gaspiller l'énergie ainsi. Un phénomène de corrosion sous contrainte peut se reproduire, sous d'autres formes éventuellement, touchant la plupart de nos centrales, qui ont toutes été construites sur le même modèle et à la même période. Il vaut mieux garder de la capacité en réserve, qui de toute façon peut être exportée.
La Hype de l'IA peut nous coûter très cher.
Et sinon, nos voisins qui ont abandonné le nucléaire, puis bientôt le charbon, sinon le gaz, comptent sur nous pour les approvisionner la nuit et l'hiver, et on peut mettre l'Europe sous forte tension si on ne peut leur fournir, surtout si la hype de l'IA multiplie les datacenters très consommateurs un peu partout.
On pourrait aller vers des balckouts plus fréquents...
(https://lafibre.info/images/energie/202507_rte_bilan_electrique_2024_ile_de_france_1.avif)
-
J'ai posé la question à Gemini, mais à Gemini 2.5 Pro et non Gemini 2.5 Flash, voici sa réponse, qui est un peu différente :
Absolument. Analysons cette affirmation sous plusieurs angles pour déterminer si elle est réaliste.
La réponse courte est la suivante : si le chiffre de 1,4 GW est bien celui annoncé pour la puissance électrique totale du campus à terme, l'évacuer par "dry cooling" (refroidissement à sec) est théoriquement possible, mais représente un défi technique et environnemental absolument colossal et sans précédent à cette échelle. Le terme "réaliste" est donc sujet à un débat intense.
Voici une analyse détaillée des points clés.
1. Un Ordre de Grandeur Inédit
Il est crucial de comprendre ce que représente 1,4 Gigawatts (GW).
- Puissance d'un réacteur nucléaire : C'est la puissance électrique d'un réacteur nucléaire moderne de type EPR (comme celui de Flamanville) ou d'une grosse tranche de centrale nucléaire existante.
- Consommation d'une métropole : C'est plus que la consommation électrique instantanée de la ville de Marseille (environ 1 GW en pointe).
- Plus grand datacenter au monde : Les plus grands campus de datacenters au monde actuellement en opération ou en construction visent des puissances de plusieurs centaines de Mégawatts (MW), rarement au-delà de 500 MW. Un projet de 1,4 GW (soit 1400 MW) pulvériserait tous les records existants.
Presque 100% de cette puissance électrique consommée par les serveurs est convertie en chaleur. Le défi est donc d'évacuer en continu 1,4 GW de puissance thermique.
La comparaison de la consommation de Campus IA avec celle de la ville de Marseille proposé par Gemini est très parlant (et je l'ai repris dans mon argumentaire).
Toutefois, il ne faut pas faire confiance aveuglément à une IA, même si l'ordre de grandeur semble correct.
J'ai donc cherché la consommation électrique de la ville de Marseille, or cette information n'est pas publique. RTE ne publie pas des données concernant la ville, mais des ensembles plus grand.
J'ai fini par demander à Gemini la source pour cette information, et je suis étonné qu'il ait utilisé la donnée, vu comme elle est cachée.
Voici le retour de Gemini où il détaille la source :
Voici des sources et une analyse détaillée concernant l'affirmation selon laquelle la consommation électrique instantanée de la ville de Marseille est d'environ 1 GW en pointe.
Source principale par déduction
La source la plus éclairante est une publication de Sirenergies (https://www.sirenergies.com/article/ajustement-offre-demande-electricite), un cabinet d'analyse spécialisé dans le secteur de l'énergie. Dans un article sur l'ajustement de l'offre et de la demande d'électricité en France, ils expliquent l'effet de la température sur la consommation :
"-1 °C en hiver entraîne une hausse de 2 300 MW de la demande, soit l'équivalent de 2 fois la consommation de la ville de Marseille ;"
Analyse de cette source :
- En se basant sur ce chiffre, on peut déduire que la consommation de référence de Marseille utilisée dans cette comparaison est d'environ 1 150 MW, soit 1,15 GW.
- Ce chiffre est généralement utilisé pour illustrer la consommation d'une grande métropole lors des pics de froid en hiver, qui correspondent aux pointes de consommation électrique nationale.
Source : Ajustement de l'offre et de la demande d'électricité - Sirenergies (https://www.sirenergies.com/article/ajustement-offre-demande-electricite)
Corroboration avec les données régionales
Les bilans électriques publiés par RTE pour la région Provence-Alpes-Côte d'Azur (PACA) permettent de situer la consommation de la métropole marseillaise dans un contexte plus large.
1/ Pointe de consommation de la région PACA :
- Dans son bilan pour l'année 2020, RTE indique que la pointe de consommation annuelle en région PACA a atteint 7 266 MW le 10 décembre 2020.
- Dans le bilan 2022, il est mentionné une pointe régionale à 7 278 MW.
Source : L'ESSENTIEL EN RÉGION PROVENCE-ALPES-CÔTE D'AZUR - Bilan 2020 - RTE (https://assets.rte-france.com/prod/public/2021-06/Bilan%20RTE%202020%20PACA.pdf)
2/ Part de la métropole dans la consommation régionale :
L'agence d'urbanisme de l'agglomération marseillaise (AGAM) indique dans un de ses rapports que la Métropole Aix-Marseille-Provence consomme 38% de l'électricité de la Région Sud PACA.
Source : Cohérence urbanisme et énergie - AGAM (https://www.agam.org/wp-content/uploads/2020/04/76.pdf) (Page 14)
En appliquant ce pourcentage à la pointe régionale (un calcul qui reste une estimation), on obtient :
7 278 MW (pointe régionale) * 0.38 ≈ 2 765 MW
Ce chiffre de 2,76 GW concerne l'ensemble de la Métropole Aix-Marseille-Provence, qui est bien plus étendue que la seule ville de Marseille (elle inclut Aix-en-Provence, l'étang de Berre avec ses industries, etc.). La consommation de la ville de Marseille seule représente donc logiquement une fraction de ce total, rendant l'estimation d'une pointe autour de 1 à 1,2 GW pour la ville elle-même tout à fait cohérente.
Conclusion
Il est donc justifié de dire que la puissance électrique appelée par une métropole comme Marseille lors d'un pic de consommation se situe autour de 1 Gigawatt. Cette affirmation, bien que n'étant pas une donnée officielle publiée quotidiennement pour la ville seule, est solidement étayée par des comparaisons d'experts et des analyses de données régionales.
(https://lafibre.info/images/energie/202404_sirenergies_ajustement_offre_demande_electricite.webp)
-
Si vous avez si peur de la consommation annoncée, alors sachez qu'il existe déjà dans l'industrie métallurgique des consommateurs électrique gigantesques, de même ordre de grandeur que les méga datacenter IA qu'on envisage ici.
* des fours à arc de 100MW le four. Oui, un seul et unique four.
* des usines de raffinage d'aluminium à 300MW ou 500MW la tranche d'usine.
Dans certains cas, les propriétaires de ces usines énergivores sont aussi propriétaires de centrales électriques.
Sinon, voici un datacenter de Microsoft, dédié à l'IA. Première tranche 300MW, et c'est confirmé ils utilisent des dry coolers. Ils parlent de "closed loop liquid cooling system", donc il n'y a aucun doute possible.
(Et ce qu'on voit sur les photos ne sont clairement pas des tours aéroréfrigérantes ouvertes fonctionnant par évaporation, si c'était le cas elles auraient des caissons en volume pour l'évaporation de l'eau).
Regardez bien la taille des dry-coolers. Chaque ventilateur fait la taille d'un camion, et il y en a 80 160 [edit: je ne sais pas compter] en tout.
La hauteur des dry-cooler, c'est équivalent à un bâtiment de 6 à 8 étages à la louche.
(https://lafibre.info/images/datacenter/202510_microsoft_datacenter_300mw_1.avif)
https://blogs.microsoft.com/on-the-issues/2025/09/18/made-in-wisconsin-the-worlds-most-powerful-ai-datacenter/
More than 90 percent of the facility will rely on a state-of-the-art closed-loop liquid cooling system, filled during construction and recirculated continuously. The remaining portion of the facility will use outside air for cooling, switching to water only on the hottest days, minimizing environmental impact and maximizing operational efficiency. The result is a technological milestone — a datacenter with enough fiber cable to circle the Earth four times, yet its annual water use is modest, requiring roughly the amount of water a typical restaurant uses annually or what an 18-hole golf course consumes weekly in peak summer.
Et voici un fabriquant de dry-cooler qui annonce fièrement
Scalable Without Limits
From 10 MW to several GWs, Hypercooler is designed for high heat transfer and seamless scalability — the perfect fit for projects of any size.
https://spgdrycooling.com/products/hypercooler/
Ses produits ressemblent fortement à ce que Microsoft a installé.
(https://lafibre.info/images/datacenter/202510_microsoft_datacenter_300mw_2.avif)
Voyant ça, encore une fois, je ne vois pas ce qui empêcherait l'utilisation de dry-cooling sur un campus IA de plus de 1GW, contrairement à ce que Alain et Vivien pensent. Encore une fois, pour mettre à l'échelle ("scaler") dans ce genre d'installation, on mets plus d'argent sur la table, on construit plus grand. Le datacenter Microsoft, et les dry-cooler gigantesques de spg-dry-cooling sont de très bons exemples.
Leon.
-
Ce sont des dry coolers géants !
Je ne suis pas sûr qu'il y ait la place pour 4,67 fois ce grand datacenter à Fouju.
On a l'adresse sur Google Maps, pour prendre les dimensions du terrain ?
-
Si vous avez si peur de la consommation annoncée, alors sachez qu'il existe déjà dans l'industrie métallurgique des consommateurs électrique gigantesques, de même ordre de grandeur que les méga datacenter IA qu'on envisage ici.
* des fours à arc de 100MW le four. Oui, un seul et unique four.
* des usines de raffinage d'aluminium à 300MW ou 500MW la tranche d'usine.
Dans certains cas, les propriétaires de ces usines énergivores sont aussi propriétaires de centrales électriques.
Des exemples ? Où cela, en France ?
-
Ce sont des dry coolers géants !
Je ne suis pas sûr qu'il y ait la place pour 4,67 fois ce grand datacenter à Fouju.
On a l'adresse sur Google Maps, pour prendre les dimensions du terrain ?
Le datacenter actuel de 300MW occupe 26 hectares.
Le terrain que Microsoft a acheté fait 1600m x 870m au total. Soit 140 hectare.
Le terrain se situe à Mount-Pleasant dans le Wisconsin.
(https://lafibre.info/images/datacenter/202510_microsoft_datacenter_300mw_3.avif)
(https://lafibre.info/images/datacenter/202510_microsoft_datacenter_300mw_4.webp)
Le datacenter a été construit en 2 ans, c'est très impressionnant.
Apparemment la construction du 2ieme datacenter de ce même campus Mount-Pleasant vient de commencer, ça serait un clone du premier.
Pour finir une photo de travailleurs sur les dry-cooler, pour avoir une idée de la taille des infrastructures. Je rappelle, il y a 80 160 [edit je ne sais pas compter] ventilateurs géants. Chaque ventilateur fait ~7m de diamètre.
(https://lafibre.info/images/datacenter/202510_microsoft_datacenter_300mw_5.avif)
(https://lafibre.info/images/datacenter/202510_microsoft_datacenter_300mw_6.avif)
Leon.
-
Campus AI à Fouju, c'est seulement 70 hectares dont une 1/4 est occupé par le poste RTE 400 000 volts et les espaces verts.
Il y a donc environ 52 hectares pour les centres de données, ce qui rend possible 600 MW avec la même densité.
-
On peut noter que les électro-intensifs ne se sont pas implantés en région parisienne, mais à côté des centrales électriques. Que ce soit pour les usines d'aluminium dans les alpes, près des barrages électriques, ou dans le nord, près de la centrale nucléaire de Gravelines.
Cela n'a pas le même impact sur le réseau électrique. Et même 300 MW, c'est 1/4 de la puissance de ce projet.
-
Une petite vidéo "visite touristique" du datacenter de Microsoft à Mount-Pleasant.
Ca montre qu'on sait faire des installations "hyperscale" de taille industrielle gigantesque, en 2025, y compris en dry-cooling.
Une photo extraite de la vidéo avec un humain entouré en rouge pour comprendre la taille des dry coolers.
Et dire que plusieurs personnes ici prétendaient qu'il était impossible de faire du Dry-cooling sur de telles puissances... No comment.
On sait déjà que le campus de Microsoft fera 2 x 300MW = 600MW.
Microsoft annonce un investissement de 3 à 4 milliard de dollar pour chacun des 2 datacenters.
https://www.youtube.com/watch?v=TngXU5kf7Rs
(https://lafibre.info/images/datacenter/202510_microsoft_datacenter_300mw_7.avif)
Leon.
-
On peut noter que les électro-intensifs ne se sont pas implantés en région parisienne, mais à côté des centrales électriques. Que ce soit pour les usines d'aluminium dans les alpes, près des barrages électriques, ou dans le nord, près de la centrale nucléaire de Gravelines.
Cela n'a pas le même impact sur le réseau électrique. Et même 300 MW, c'est 1/4 de la puissance de ce projet.
Ferropem au bord du Rhône (Anglefort barrage Génissiat) et Montricher-Albanne (Maurienne Savoie), Ugitech et Timet à Ugine entre les barrages de Savoie, Carbone Savoie (Tokai COBEX Savoie) en Tarentaise.
Ce n'est pas pour rien qu'ils sont là. Énergie électrique disponible à bon prix.
-
En électro intensif, on a également Aluminium Dunkerque avec une conso de 4 TWh/an (à côté de Gravelines donc) et l'usine Georges-Besse / Eurodif qui consommait 15 TWh / an (3 000 mégawatts à pleine charge) soit 60% de la production de la CNPE du Tricastin dont elle était la voisine.
-
Si vous voulez voir à quoi ressemble l'intérieur d'un cluster AI de cet ordre de grandeur, voir la vidéo ci dessous.
Plus de 100 000 GPUs dans 1 seul système, autour de 100MW pour celui ci.
64 GPU par rack (8 chassis de 8 GPU chacun) de l'ordre de 50kW par rack.
Du gros water cooling.
Chaque GPU a une interco 200Gb/s, donc 13Tb/s d'interco pour 1 seul rack.
Etc...
https://www.youtube.com/watch?v=Jf8EPSBZU7Y
Leon.
-
Pour continuer de convaincre les détracteurs ici présent que:
- que pour faire un campus AI gigantesque dépassant le GW, le concept de "mise à l'échelle" fonctionne, qu'il suffit de mettre plus d'argent sur la table, beaucoup plus d'argent (ordre de grandeur 10 milliards de dollar pour ce premier campus Stargate), de construire des datacenter plus grand, et d'en construire plus
- que le refroidissement par dry cooler est totalement faisable sur de telles puissances (l'industrie le sait depuis longtemps, mais bon...), donc sans consommation massive d'eau qu'on ferait évaporer
- que ce genre d'infrastructure ne craint pas forcément les fortes chaleurs vu que ce campus est au Texas, région chaude et assez pauvre en eau.
Voici le site Stargate-1 de Open-AI, dans la ville d'Abilène au Texas.
Cible 1.2GW au total pour ce campus, déjà réservés côté réseau électrique.
Le campus de 170 hectares abritera 8 datacenters géants, tous les 8 sont en cours de construction.
Chacun de ces datacenter géants est équipé de 90 dry coolers de bonne taille. Donc 720 dry coolers au total, ce qui explique bien le concept de mise à l'échelle que certains ici ont du mal à comprendre (je ne sais pas trop pourquoi).
Sur place, ils construisent aussi une centrale électrique constituée de 10 turbines à gaz industrielles pour le secours de l'alimentation électrique.
(https://lafibre.info/images/datacenter/202510_campus_open-ai_stargate-1_au_texas_1.avif)
(https://lafibre.info/images/datacenter/202510_campus_open-ai_stargate-1_au_texas_2.avif)
(https://lafibre.info/images/datacenter/202510_campus_open-ai_stargate-1_au_texas_3.avif)
Après, est-ce que tout ça est utile et bénéfique pour notre société? La question est pertinente évidemment; je n'ai pas d'avis tranché. Ma démonstration ci dessus porte juste sur l'aspect "industriel" de ces datacenters, leur faisabilité, rien de plus.
Leon.
-
Réunion publique d'ouverture de la concertation - Fouju - 15 octobre 2025
https://www.youtube.com/watch?v=3xqO1azdnqQ
-
La concertation sur le projet Campus IA s'est ouverte lundi 13 octobre, et a été lancée en présentiel mercredi soir à Fouju (77390), lors d'une réunion publique d'ouverture réunissant plus de 120 participants.
Si vous souhaitez en savoir plus sur Campus IA, sans écouter les 3 heures de réunion publique du 15 octobre à Fouju, j'ai réalisé une vidéo qui se limite aux informations données, j'ai supprimé tous les discours politiques et les questions, pour ne garder que les réponses. C'est quand même une heure, mais vous ne serez pas déçu : Contrairement à d'autres projets, les promoteurs n’ont pas été avares de réponses et on a même des détails qui ne sont pas dans le PDF de concertation.
L'ambiance était calme, avec quelques personnes qui se demandent si le projet ne pourrait pas aller ailleurs (des réponses longes et argumentées leur ont été données) mais aussi beaucoup de remerciements pour cette concertation et le soin apporté à l'intégration du projet avec ce territoire rural. D'après les retours que j'ai eus, c'est totalement différent de l'ambiance pour le grand centre pénitentiaire de 1 000 places qui va être construit contre Campus IA et auquel la population locale est opposée.
https://lafibre.info/videos/datacenter/202510_fouju_campus_ia_reunion_ouverture_concertation.mp4
La vidéo est un tout petit peu saccadée, car j'ai diminué le nombre d'images par seconde : de 60 images par seconde sur le flux YouTube, je suis passé à 10 images par secondes, ce qui me semble suffisant pour ce contenu.
Vidéo 1080p YouTube : 2767 Kb/s pour la vidéo H.264 et 128 Kb/s pour l'audio stéréo (total : 1 438 908 726 octets pour 1h 6min)
Vidéo 1080p résumé : 151 Kb/s pour la vidéo AV1 et 62 Kb/s pour l'audio mono (total : 107 176 826 octets pour 1h 6min)
-
La concertation pour ce datacenter continue, avec une session en distanciel, mardi 21 octobre à 18h30
Mardi prochain à 18h30, un webinaire "Datacenter et souveraineté numérique", intégralement en distanciel, permettra de prendre de la hauteur sur ces sujets et ce contexte, à une échelle bien plus large que le site d'implantation du projet, et avec plusieurs intervenants indépendants des maîtres d'ouvrage et portant des positions diverses :
Table ronde n°1 : Les datacenters, pour quels besoins ?
Intervenant.e.s : Pauline Denis (The Shift Project), Michaël Reffray (France Datacenter) et Laurent Tessier (Professeur et Sociologue du numérique éducatif-Institut catholique de Paris)
Thèmes :
- une infrastructure sensible et indispensable
- le numérique au service de l'éducation
- Compétition et innovation : quel est le rôle des supercalculateurs ?
Table ronde n°2 : Construire la souveraineté numérique : rôle stratégique des datacenters
Intervenant.e.s : Serge Abiteboul (Président du Comité de pilotage scientifique de l'ANR) et Ophélie Coelho (Chercheure en géopolitique-IRIS)
Vous êtes bien entendu convié.e.s à participer à cette rencontre via https://us02web.zoom.us/j/89748184630?pwd=23NK4rmBFaPXNLV08ZJS7kR17Qdhg3.1 ou https://www.concertation-campus-ia.fr/fr/
Serge Abiteboul, a été membre du collège de l'ARCEP de 2018 à 2024. la démarche "Pour un numérique soutenable" de l'Arcep et la collecte de données environnementales, c'est grâce à Serge, qui a poussé dès son arrivée en 2018 pour que l'Arcep ait des compétences pour suivre l’évolution de l'empreinte environnementale. C'est un chercher reconnu qui a été élu membre de l'Académie des sciences en décembre 2008 pour ses travaux sur la gestion d'information ainsi que de l'Academia Europaea depuis 2011.
-
Merci beaucoup Vivien pour ce gros travail de montage vidéo.
Effectivement, les interventions sont plutôt de qualité, et les intervenants ont pu s'exprimer, contrairement à certaines réunions publiques.
Et ça répond à beaucoup de questions.
Donc la première tranche fait jusqu'à 600MW, et elle est garantie sans refroidissement "consommateur d'eau".
J'avoue que je n'ai pas complètement compris le montage. Les infrastructures (serveurs) n'appartiendront visiblement pas à Campus-IA, mais nous n'avons pas le noms des entreprises qui gèreraient ces serveurs...
Après, est-ce que tu as le droit de diffuser le lien ZOOM en public ?
Leon.
-
Donc la première tranche fait jusqu'à 600MW, et elle est garantie sans refroidissement "consommateur d'eau".
Plus précisément, comme dit dans la vidéo, on a une première tranche de raccordement de 700 MW, et les trois premiers datacenters (sur 10 je crois), seront en dry cooling. Rien n'est garanti pour les suivants. Je n'ai pas encore regardé la vidéo jusqu'au bout, donc je ne sais pas si la puissance des trois premiers datacenters a été précisée.
Il est mentionné aussi la nécessité de prévoir des générateurs diésel (on parle de biodiéesel, mais il émet e fait autant de C02 sur place) pour sauvegarder l’alimentation électrique du site. C'est pareil, 1.4 GW de générateurs électriques, avec leurs tanks de diésel, je demande à voir. C’est donc la puissance d'un EPR...
(https://lafibre.info/images/datacenter/202510_fouju_campus_ia_reunion_ouverture_concertation_1.avif)
-
Il est mentionné aussi la nécessité de prévoir des générateurs diésel (on parle de biodiéesel, mais il émet e fait autant de C02 sur place) pour sauvegarder l’alimentation électrique du site. C'est pareil, 1.4 GW de générateurs électriques, avec leurs tanks de fuel, je demande à voir. C’est donc la puissance d'un EPR...
Alors plusieurs choses à dire.
Par rapport à "on parle de biodiéesel, mais il émet e fait autant de C02 sur place", il faut bien voir que la pollution au CO2 n'est pas un problème local. Une (légère) sur-concentration à l'échelle locale de CO2 n'est pas un problème du tout. La sur-concentration de CO2 a des effets au niveau global, au niveau de la planète entière.
Par contre, la pollution aux particules fines et aux NOx, c'est un problème critique au niveau local, mais pas au niveau global.
Enormément de gens confondent les sujets pollution locale et globale, y compris les journalistes, c'est franchement dommage.
Pour les très gros datacenters dédiés à l'IA, visiblement il n'est pas indispensable de sauvegarder l'ensemble de la puissance électrique. Certains datacenters sauvegardent 100%, mais beaucoup ne le font pas.
Il y a bien 2 parties complémentaires et distinctes côté IA
- partie apprentissage
- partie inférence
La partie apprentissage, c'est des batches de plusieurs semaines de calcul chacun, avec des snapshot réguliers en cas d'interruption. Donc on peut s'autoriser à interrompre proprement le calcul pour le reprendre plus tard, sous réserve que l'interruption ne fasse pas perdre trop d'argent. C'est surtout cette partie qu'on héberge dans des cluster GPU hyper spécifiques (avec quantité astronomique de fibre) hyper gourmands en électricité, dans des datacenters spécifiques IA.
La parti inférence, c'est l'interaction avec les utilisateurs. Selon les utilisateurs, elle doit être équipée d'alimentation secourue à 100%.
Leon.
-
Par rapport à "on parle de biodiéesel, mais il émet e fait autant de C02 sur place", il faut bien voir que la pollution au CO2 n'est pas un problème local.
En fait, quand je dis cela, c'est par rapport à une déclaration de Thibaud Desfossés, le jeune chef de projet de cet énorme projet (il fait 35-40 ans), qui dit à un moment donné (~24') que le biodiésel émet 80% de moins de C02. C'est en fait son processus de fabrication qui consomme moins de C02, mais en brûlant dans un générateur, il en émet évidemment autant.
Un autre problème est que les quantités de biodiésel produites sont faibles.
(https://lafibre.info/images/energie/202510_biodiesel_emission_co2.webp)
Source : https://www.terresunivia.fr/cultures-et-utilisations/utilisations/energie/biodiesel
-
En fait, quand je dis cela, c'est par rapport à une déclaration de Thibaud Desfossés, le jeune chef de projet de cet énorme projet (il fait 35-40 ans), qui dit à un moment donné (~24') que le biodiésel émet 80% de moins de C02. C'est en fait son processus de fabrication qui consomme moins de C02, mais en brûlant dans un générateur, il en émet évidemment autant.
Je ne suis pas du tout fan des bio-carburants, mais j'ai la désagréable impression que tu n'a pas compris pourquoi les biocarburants étaient censés tendre vers le "neutre en carbone".
Un carburant fossile, c'est un carburant qui en brulant va relâcher dans l'atmosphère (forme CO2) du carbone qui était tranquillement enfoui dans le sol depuis plusieurs millions d'années. Dans 1 seul sens : sous sol vers atmosphère.
Un bio-carburant est produit à partir de végétaux normalement cultivés de manière durable/renouvelable. Donc le carbone des biocarburant est extrait du CO2 de l'atmosphère par photosynthèse lors de la pousse des végétaux en question, grâce à l'énergie solaire. Le processus de fabrication d'un biocarburant recycle le CO2 de l'atmosphère. Le processus de fabrication consomme du CO2, il n'en produit pas contrairement à ce que tu dis.
Le carbone sera ensuite relâché en CO2 dans l'atmosphère lors de l'utilisation, de la combustion du biocarburant.
Donc en théorie on peut produire des carburants réellement neutres en carbone, à l'échelle de la planète.
Donc oui, la phrase "le biodiésel émet 80% de moins de CO2" c'est une phrase qui se comprend parfaitement. A l'échelle de la planète, sur le cycle complet, c'est totalement vrai.
Leon.
-
Pour les très gros datacenters dédiés à l'IA, visiblement il n'est pas indispensable de sauvegarder l'ensemble de la puissance électrique.
Aussi, d'après ce que j'ai entendu de Thibaud Desfossés, il n'est pas du tout sûr que les autres datacenters fassent de l'IA. Sur une diapositive, il était même indiqué que leurs plans n'était qu'indicatif. Ce sont des emplacement qui seront loués/vendus à des entreprises, qu'ils ne semblent pas encore connaitre, pour divers usages.
-
Je ne suis pas du tout fan des bio-carburants, mais j'ai la désagréable impression que tu n'a pas compris pourquoi les biocarburants étaient censés tendre vers le "neutre en carbone".
J'ai très bien compris, ne t’inquiéte pas. C'est pourquoi j'avais rajouté 'local'. Là, il s'adressait justement aux locaux.
D'autre part, la quantité phénoménale de diésel qu'il faudra pour assurer une telle puissance fera qu'en cas de fuite, on aura bien une pollution locale.
Je crois que c'est déjà arrivé sur certains datacenters.
-
J'ai très bien compris, ne t’inquiéte pas. C'est pourquoi j'avais rajouté 'local'. Là, il s'adressait justement aux locaux.
La pollution au CO2 n'ayant aucune influence locale, comme je l'ai rappelé ci-dessus, je ne comprends toujours pas ton propos.
Leon.
-
La pollution au CO2 n'ayant aucune influence locale, comme je l'ai rappelé ci-dessus, je ne comprends toujours pas ton propos.
J'ai aussi dit que la quantité de bio carburants produite, de bio-diésels, était limitée et insuffisante pour tous les usages, et il ne me semble pas qu'il ait assuré que 100% de biodiésels seraient utilisés, donc cette mention sans garantie est à mon avis du greenwashing.
Et donc avec la conséquence qu'en cas de fuite des cuves , on aura bien une pollution locale.
-
Il y a à 57' une excellente question (à mon avis), d'un membre de l'assistance, a priori chercheur en IA. Il dit que l'on a poussé artificiellement ce besoin de 1.4 GW.
Il demande : "Comment avez-vous calculé cette puissance nécessaire de 1.4 GW ? Quelle proportion sera utilisée pour faire de l'IA ou autre chose comme du cloud tout simplement ?"
La réponse de Thibaud Desfossés intervient à 1h03'. Il ne répond pas sur la manière dont a été calculée cette puissance de 1.4 GW, mais indique :
"le site a vocation à accueillir à la fois des services classiques, hébergement de données, l'hébergement de calculs, de services, à la fois pour les particuliers et les entreprises, et pour l’intelligence artificielle."
La proportion n'est pas donnée, car probablement pas encore connue.
Ce qui montre que le site ne sera pas utilisé que pour de l'IA, et de ce qui a été au début de la vidéo, il y a les trois premiers datacenters dont l'usage est prévu, pour les 8 autres, c'est bien plus flou, et les entreprises qui les loueront ou achèteront, ne sont pas encore connues, ni les technologies utilisées, donc il n'est pas sûr que du dry cooling sera utilisé sur le reste du site. Même si ils n'ont pas prévu de canalisations d'adduction d'eau pour le refroidissement, et ont promis de ne pas utiliser la nappe de Champigny (celle locale à Fouju).
Et maintenant que je suis arrivé au bout de la vidéo, je peux dire que je n'ai pas vu d'indication précise sur la puissance prévue pour les trois premiers datacenters.
-
Le site n'est pas prévu pour faire que de l'IA. À plusieurs moments, ils ont parlé de services cloud non IA.
Par contre, j'ai un peu de doute qu'avec la surface du terrain, on puisse monter à 1400 MW si on n'est pas en IA sur une proportion proche de 100%.
Après ce ne sera pas un problème économique s'ils vendent tous les emplacements des datacenter et que la puissance n'est que de 700 MW.
J'avoue que je n'ai pas complètement compris le montage. Les infrastructures (serveurs) n'appartiendront visiblement pas à Campus-IA, mais nous n'avons pas le noms des entreprises qui gèreraient ces serveurs...
Campus IA propose le terrain, la sécurisation du site, l'énergie, la fibre,... La construction des datacenter ce sont les clients de Campus IA et comme évoqué il est probable que des GAFAM se positionnent pour être client de Campus IA, même si les acteurs non GAFAM sont prioritaires.
Aucun nom n'a filtré pour les 3 premiers centres de données. Peut-être, car la contractualisation n'est pas encore signée.
Après, est-ce que tu as le droit de diffuser le lien ZOOM en public ?
Oui, je pensais en parler dans tous les cas vu la qualité de concertation, mais cela m'a été demandé par la CNDP :
Nous vous remercions par avance de bien vouloir diffuser l'information auprès de vos propres réseaux, afin d'assurer que le public soit pleinement informé de cette opportunité.
Bien cordialement,
-
Oui, il ne faut pas trop s'affoler avec les chiffres. Les 700MW et 1400MW c'est juste la puissance réservée auprès de RTE.
Leon.
-
La concertation pour ce datacenter continue, avec une session en distanciel, mardi 21 octobre à 18h30
Mardi prochain à 18h30, un webinaire "Datacenter et souveraineté numérique", intégralement en distanciel, permettra de prendre de la hauteur sur ces sujets et ce contexte, à une échelle bien plus large que le site d'implantation du projet, et avec plusieurs intervenants indépendants des maîtres d'ouvrage et portant des positions diverses :
Table ronde n°1 : Les datacenters, pour quels besoins ?
Intervenant.e.s : Pauline Denis (The Shift Project), Michaël Reffray (France Datacenter) et Laurent Tessier (Professeur et Sociologue du numérique éducatif-Institut catholique de Paris)
Thèmes :
- une infrastructure sensible et indispensable
- le numérique au service de l'éducation
- Compétition et innovation : quel est le rôle des supercalculateurs ?
Table ronde n°2 : Construire la souveraineté numérique : rôle stratégique des datacenters
Intervenant.e.s : Serge Abiteboul (Président du Comité de pilotage scientifique de l'ANR) et Ophélie Coelho (Chercheure en géopolitique-IRIS)
Vous êtes bien entendu convié.e.s à participer à cette rencontre via https://us02web.zoom.us/j/89748184630?pwd=23NK4rmBFaPXNLV08ZJS7kR17Qdhg3.1 ou https://www.concertation-campus-ia.fr/fr/
Serge Abiteboul, a été membre du collège de l'ARCEP de 2018 à 2024. la démarche "Pour un numérique soutenable" de l'Arcep et la collecte de données environnementales, c'est grâce à Serge, qui a poussé dès son arrivée en 2018 pour que l'Arcep ait des compétences pour suivre l’évolution de l'empreinte environnementale. C'est un chercher reconnu qui a été élu membre de l'Académie des sciences en décembre 2008 pour ses travaux sur la gestion d'information ainsi que de l'Academia Europaea depuis 2011.
Replay complet (2h30) :
https://www.youtube.com/watch?v=yjSJ4vlr-cI
-
Voici un extrait des échanges les plus intéressants, après la table ronde N°1 (39 minutes) :
https://lafibre.info/videos/datacenter/202510_fouju_campus_ia_webinaire_1_datacenters_quels_besoins.mp4
(j'ai zoomé dans l'image pour que la vidéo des intervenants soit plus visible)
Version MP3 : (il n'y a pas de diapositives diffusées)
https://lafibre.info/videos/datacenter/202510_fouju_campus_ia_webinaire_1_datacenters_quels_besoins.mp3
Voici un extrait des échanges les plus intéressants, après la table ronde N°2 (12 minutes) :
https://lafibre.info/videos/datacenter/202510_fouju_campus_ia_webinaire_2_souverainete_numerique.mp4
Version MP3 : (il n'y a pas de diapositives diffusées)
https://lafibre.info/videos/datacenter/202510_fouju_campus_ia_webinaire_2_souverainete_numerique.mp3
-
Merci Vivien.
Voici une autre vue du campus Open-AI Stargate.
Les 2 premiers datacenter que l'on voit à l'image, ils utilisent 160 dry coolers "classiques".
(https://lafibre.info/images/datacenter/202510_campus_open-ai_stargate-1_au_texas_4.avif)
Pour une puissance de 300MW pour ces 2 là seulement.
Donc ça fait ~2MW par dry-cooler, c'est parfaitement crédible.
Les 2 datacenters occupent une surface de 26 hectares.
Je ne comprends toujours pas pourquoi certains (alain_p principalement) pensent toujours qu'il est impossible d'évacuer de telles puissances avec des dry coolers, et que le refroidissement évaporatif est obligatoire.
N'hésitez pas à m'expliquer.
Leon.
-
Je ne vois pas 300 MW de groupes sur la photo (cela prend pas mal de place). Si on prend des groupes de 2 MW chacun, il en faut 150.
26 hectares => 300 MW
70 hectares (taille de Campus IA) => 807 MW
Après sur la photo, on peut clairement densifier un peu plus et donc probablement mettre plus que 807 MW sur 70 hectares. Toutefois, il faut garder dans l'idée que sur 70 hectares de Campus IA, il y a une surface qui doit être boisée pour conserver une espace rare et il y a une grande surface pour le poste RTE.
-
Je ne vois pas 300 MW de groupes sur la photo (cela prend pas mal de place). Si on prend des groupes de 2 MW chacun, il en faut 150.
Tu parles de groupes électrogènes? (le mot "groupe" étant générique et pouvant désigner pleins de choses).
C'est normal qu'il n'y ait pas (beaucoup) de groupes électrogènes.
Sur le campus Open AI Stargate, il y aura une centrale électrique dédiée constituée de plusieurs dizaines de turbines à gaz, capable d'alimenter 100% du site.
Chaque turbien peut produire 34MW.
La première tranche contient visiblement 10 turbines de 34MW chacune.
Sur la photo les 3 premières turbines en cours d'installation. J'ai mis aussi une vue aérienne de la centrale électrique en cours de construction.
Entre le réseau et la centrale électrique, ça assure la redondance.
La centrale sera à la fois utilisée pour la redondance, mais aussi pour quand le tarif de l'électricité est trop cher.
Il y a sans doute des groupes pour ce qui est ultra critique : le réseau, la sécurité d'accès, sécurité incendie, etc...
(https://lafibre.info/images/datacenter/202510_campus_open-ai_stargate-1_au_texas_5.webp)
(https://lafibre.info/images/datacenter/202510_campus_open-ai_stargate-1_au_texas_6.avif)
(https://lafibre.info/images/datacenter/202510_campus_open-ai_stargate-1_au_texas_7.avif)
Leon.
-
Merci aussi Vivien pour le gros travail d'avoir repris des extraits intéressants de la vidéo originale pour en faire un résumé plus digeste de 39'. C'est vrai que ingurgiter 2h30 de vidéo, c'est un peu indigeste. Le problème des vidéos, c'est que l'on n'a pas sous les yeux le texte de ce qui a été dit.
Alors, moi-même, j'ai noté sous forme de texte quelques extraits d'interventions qui m'ont plus particulièrement intéressés, sur la consommation électrique et la compétition avec d'autres que je reproduis ici :
...
Mathieu Refray , France Datacenter, à 2'30" : ...De même, aujourd'hui en France, on sous-produit de l'énergie, donc la demande est relativement atone, ce qui fait que demain, on ne risque pas de se trouver à prendre, notre secteur, l'énergie d'autres secteurs. De la même manière, et j'en terminerai là, pour les canicules, en France l'énergie est décarbonée, concrètement le fait e consommer en France de l'énergie dans des datacenters ou quelque chose d'autre, cela ne crée pas de canicule, et moi, j'ai regardé votre présentation (P.S : celle de Pauline Denis, The Shift Project), ce que je trouve intéressant, c'est de faire le constat que vous faites, auquel on peut souscrire par ailleurs, et néanmoins, on peut se dire que la France a des atouts et des particularismes intéressants.
Pauline Denis, Shift Project à 6' : ...La 2eme question était "En France on sous-produit de l'énergie", mais je suppose que vous vouliez dire "on sur-produit de l'énergie", alors en 2024 on a sur-produit de l'électricité, lorsqu'au 31 Décembre 2024, on a sommé ce que l'on avait produit et consommé, il y avait plus de production, on faisait moins les les malins en 2022, pendant la crise, effectivement, tout est question de conditions, on n'était pas du tout en excédent en 2022, dans des conditions qui pourraient se reproduire, d'hivers sans vents et sans soleil, donc cela pourrait complétement se reproduire. Par ailleurs, juste sur cette question là, je n'ai pas envie de rentrer dans les détails techniques, mais c'est quand même important de comprendre que ce que l'on constate au 31 Décembre d'une année, en prenant en cumulé ce que l'on a produit et consommé, ne reflète en rien l'équilibre du réseau instantané. Ce n'est pas parce qu'à la fin de l'année, on a eu 10, 30, 100 TWh de produits en plus, que à l'instantané, ce qui est nécessaire pour faire tenir le réseau, on avait effectivement une surproduction d'électricité, ce sont des enjeux qui sont assez différents et à ne pas confondre.
Jean-François Dupont, France Nature Environnement, Seine et Marne, à 11' : On voit bien qu'il y a une croissance exponentielle des implantations de datacenters et de consommation électrique liée à ces datacenters, on voit bien qu'il y aura aussi une croissance exponentielle pour décarboner les autres secteurs d'activité, et donc je me
demande comme le montre le rapport du Shift Project, est-ce qu'il y a un pilote dans l'avion, est-ce que l'impact de la croissance des ces nouvelles activités et la décarbonation des autres activités, qui est nécessaire, et peut rentrer en conflit, est-ce que cela a été vraiment anticipé ? Apparemment, d'après ce que dit le Shift
Projet, non. Donc qui doit mener cette anticipation; pour effectivement retrouver l'équilibre entre les usages.
Je ne vois pas tellement qui porte la responsabilité de ette affaire là. Sans compter que le nucléaire, cette solution décarbonée que l'on nous présente comme le miracle, c'est effectivement de l'électricité nucléaire, il s'agit d'un pari, un pari qui peut être entendu, mais il s'agit d'un pari, et on a encore des incertitudes sur l'équipement nucléaire de la France à l'échelle 2030;, 2040, 2050, donc il faudrait quand même clarifier tous ces éléments là avant de se précipiter sur des opportunités, tant que l'on aura besoin des datacenters, il est évident que c'est un marché d'opportunité. Mais le fait de vouloir mettre la charrue avant les bœufs, m'interpélle.
Thibaut Desfossés, chef de profet Campus IA; à 15' : ...Les choix technique des autres bâtiments qui seront construits dans 4 ou 5 ans n'ont pas encore été faits...
Olivier Klein à 31' : La centrale la plus proche est celle ce Nogent sur Marne Seine, elle a deux tranches, qui représentent 1300 MW, qui ont été construites en 1988 et 1989, donc ils arrivent à leur 36eme année, dans 4 ans, cela va être le grand carénage, avec l'arbitrage, est-ce que l'on va au-delà de 40 ans, mais je pense que l'arbitrage sera favorable, car normalement à 40 ans c'est terminé, on doit déterminer si on va au delà, donc à 50 ans, on va arriver pile au moment où votre projet sort de terre, de se dire on arrête cette centrale ou on continue, compte tenu de votre projet en périphérie, même si le réseau et tout est maillé, etc...
Quand Mathieu Refray, de France Datacenter, dit qu'aujourd'hui, on a une sur-production d'électricité, que l'on exporte, et que l'on peut utiliser pour alimenter les datacenters, et qu'il fait comme si cela aller durer éternellement, comme les autres lui ont fait remarquer, comme Pauline Denis, du Shift Project, cela n'a pas toujours été le cas, en 2022, on demandait à nous les consommateurs de réduire notre consommation de 10%, pour passer l'hiver. Et on sait, et là elle fait une errur, que ce n'est pas à cause du manque de soleil et de vent, mais bien par ce que nous avions près de la moitié de nos réacteurs nucléaires arrêtés, pour plusieurs mois, pour la visite décennale des 40 ans,et le grand carénage, et aussi parce qu'il s'était révélé cette année là un problème de corrosion sous contrainte, qui avait contraint à arrêter de nombreux autres réacteurs pour refaire les soudures. S'il y avait eu effectivement de longues périodes de temps très froid, sans soleil et sans vent, cela aurait pu empirer le problème, heureusement, cela ne s'est pas produit, ou très peu.
Or, il est très prévisible que ce grand carénage devra être refait vers 2032 pour la visite décennale des 50 ans, pour décider si on va au delà ou pas (ce qui est pratiquement sûr, car de toute façon on n'a pas de solution de rechange, au moins à cet horizon). D'autre part, notre parc vieillit donc sérieusement, il est pratiquement sûr qu'il rencontrera d'autres problèmes similaires à la corrosion sous contrainte, et qui risquent de toucher une bonne partie du parc, car toutes nos centrales ont été construites sur le même modèle à la même période, grosso-modo 1975-1985. Donc il est prévisible que ces périodes où l'électricité deviendra plus rares, mêmes pendant quelques mois, vont se reproduire.
On apprend par ailleurs par l'intervenant Olivier Klein, que la centrale la plus proche, qui dessert le site Campus IA, même si le réseau est maillé, est celle de Nogent sur Marne Seine, avec deux réacteurs de 1300 MW, construite parmi les dernières, palier P4', en 1988 et 1989 (voir schéma tiré de Wikipedia), vont donc arriver à 40 ans au moment où le site Campus IA va entrer en production, dans 3 ou 4 ans. Les deux visites décennales vont très probablement avoir lieu à un an d'intervalle, donc pendant un long moment, on n'aura que la moitié de leur production, soit 1300 MW. Or d'après Wikipedia, cette centrale contribue à l'alimentation d'1/3 de la région parisienne.
D'autre part, comme le dit Pauline Denis, ce n'est pas parce qu'à la fin de l'année, on a un bilan de production excédentaire, que c'est le cas à tout moment dans l'année. En particulier, aux heures de pointe en période hivernale, 7h le matin, 20h le soir, par temps très froid, on peut être très limite (et on l'a déjà été). Car les datacenters consomment 24h/24. Thibaut Desfossés indique d'ailleurs vers la fin que pour avoir l'énergie consommée il faut multiplier la puissance de 1.4 GW par le nombre d'heures dans l'année, ~8760 heures, ce qui pourrait faire une consommation si je me trompe pas de 12 TWh dans l'année. Or dans l'année, on produit environ 400 TWh d'électricité, donc ce seul projet pourrait consommer à lui seul jusqu'à 3% de toute l'électricité produite en France. Et malheureusement, il n'est pas le seul projet...
Donc à mon avis, dire on a un surplus d'énergie en ce moment, c'est avoir une vision court-termiste, d'autant que ce Campus IA n'est pas le seul projet de datacenter en France. Et que comme le souligne Jean-François Dupont, d'autres secteurs d'activité sont censés s'électrifier. Et on fait donc courir un risque à moyen terme, à l'équilibre de notre réseau électrique, et à notre alimentation électrique.
https://fr.wikipedia.org/wiki/Liste_des_r%C3%A9acteurs_nucl%C3%A9aires_en_France
(https://lafibre.info/images/energie/201105_wikipedia_chronologie_parc_nucleaire_francais.svg)
-
Je ne comprends toujours pas pourquoi certains (alain_p principalement) pensent toujours qu'il est impossible d'évacuer de telles puissances avec des dry coolers, et que le refroidissement évaporatif est obligatoire.
N'hésitez pas à m'expliquer.
Alors, je n'ai pas dit exactement cela. Au départ, dans les déclaration de Thibaut Desfossés qu'ils n'utiliseraient pas de refroidissement liquide. Pour moi, cela faisait référence aux racks, et là, j'ai dit, suivant les affirmations d'ingénieurs Dell que j'ai rencontré, qu'au delà de 40 kW, on ne savait pas refroidir un rack par air.
Et si on peut faire un refroidissement pas eau (ou autre liquide) en circuit fermé, cela implique de toute façon que le liquide qui re-rentre ait été refroidi entre temps et la chaleur évacuée.
Tu as fait remarquer, à juste titre, que le terme 'pas de refroidissement liquide', était trompeur, et que ce dont Thibaut Desfossés voulait parler était en fait de dry cooling, dont tu as donné des photos, donc que la chaleur est évacuée sur le toit par de gros ventilateurs, à l'air libre, sans consommer d'eau, une technique que personnellement je ne connaissais pas.
Je ne vais pas affirmer que c'est impossible d'évacuer de telles quantités de chaleur, car je ne suis pas climaticien, surtout à ces ordres de grandeur. Et pas grand monde sur le site ne l'est. Mais j'ai une idée des ordres de grandeur, et cela me semble très compliqué. Car 1.4 GW, cela fait quand même un immense radiateur, quelqu'un évoque dans la vidéo la chaleur consommée par 200.000 logements, en demandant si c'était le bon ordre de grandeur, personne ne lui a répondu, donc une agglomération d'environ 500.000 habitants. Ce qui correspond aussi à l'ordre de grandeur que donnait Vivien d'une ville de la taille de Marseille, et cela sur 70 ha.
Toi, tu nous donnes des exemples de datacenters de 100 ou 200 MW, pas de 1.4 GW. Or, même si la chaleur monte, elle va aussi fatalement s'étaler, et on aura un immense point chaud, dont la chaleur va s'étaler sur les autres datacenters et les réchauffer, diminuant leur capacité de refroidissement (surtout en période de canicules, de plus en plus nombreuses). Donc je doute, et le doute me parait raisonnable, que cela puisse fonctionner correctement à pleine échelle.
D'ailleurs, Thibaut Desfossés indique lui-même qu'au delà des trois premiers datacenters, les technologies utilisées ne sont pas fixées, même si les arrivées d'eau ne sont pas dimensionnées pour assurer une refroidissement par eau perdue. Or, si j'ai bien compris, cette technologie de dry cooling est aussi plus chère que d'autres techniques de refroidissement, dont par eau perdue (probablement rien que par la consommation électriques des immenses ventilateurs eux-même). Il parle aussi d'engagements écrits auprès des diverses collectivités de na pas consommer d'eau (au delà du système d'incendie et des sanitaires).
Par contre, comme j'ai déjà dit, je note d'ailleurs que je n'ai toujours pas appris la consommation des trois premiers, 300 MW ?, où cette solution parait viable vu les exemples cités, pour l'instant, il n'est même pas sûr que d'autres datacenters seront construits, il faut d'abord trouver les clients.
J'ai le sentiment que le chiffre avancé de 1.4 GW (il n'y a toujours aucune indication de comment il a été dimensionné) est surtout de la Com, qui peut faire briller les yeux d'un président, à qui l'on fait miroiter le plus gros datacenter du monde, et donc assurer des appuis politiques pour ce projet, et une certaine pression sur RTE pour accepter le projet, d'autant que l'on cite derrière les pétro-dollars des émirats arabes unis, donc on dit cela ne coûtera rien à la France. Et cela permet d'assurer ce qui est le nerf de la guerre pour les opérateurs de datacenters, de grosses quantités de MW disponibles, susceptibles d'attirer ensuite les gros de la scène, comme les GAFAM...
-
Je ne comprends toujours pas pourquoi certains (alain_p principalement) pensent toujours qu'il est impossible d'évacuer de telles puissances avec des dry coolers, et que le refroidissement évaporatif est obligatoire.
N'hésitez pas à m'expliquer.
Alors, je n'ai pas dit exactement cela.
Ah bon? Tu es sur et certain? Moi, je suis certain que tu l'as dit. N'hésites pas à admettre que tu t'es trompé. Oui, je sais, je t'en demande beaucoup.
Il faut savoir lire entre les lignes. Ici, c'est un communiqué pour le grand public, pas forcément précis.
"aucun prélèvement dans les ressources en eau locales", c'est sans ambiguïté : pas de refroidissement par évaporation, pas de consommation massive d'eau, et c'est cohérent avec la définition standard du "dry cooling".
Oui, mais on sait qu'il n'est pas possible d'évacuer 1.4 GW (ou même 700 MW, première phase), dans ces conditions, n'est-ce pas ? Vivien a relevé que cela ne concernait que les 3 premiers datacenters, certainement d'une puissance moindre, même si elle n'est pas précisée, malheureusement.
Vivien l'a relevé, toutes les centrales nucléaires de cette gamme de puissance sont situées près d'un fleuve ou de l'océan, pour prélever l'eau pour le refroidissement.
On continue :
Toi, tu nous donnes des exemples de datacenters de 100 ou 200 MW, pas de 1.4 GW. Or, même si la chaleur monte, elle va aussi fatalement s'étaler, et on aura un immense point chaud, dont la chaleur va s'étaler sur les autres datacenters et les réchauffer, diminuant leur capacité de refroidissement (surtout en période de canicules, de plus en plus nombreuses). Donc je doute, et le doute me parait raisonnable, que cela puisse fonctionner correctement à pleine échelle.
N'hésites pas à relire mes messages, car j'ai l'impression que tu écris beaucoup, mais que tu ne lis pas les messages des autres. Pas les miens en tout cas.
Les 2 campus géants, refroidis par dry-cooler, que j'ai montrés dépassent largement les 100 ou 200MW dont tu parles...
- Microsoft Mount Pleasant (Winsconsin): 600MW total avec 2 datacenters
- Open-AI Stargate Abilene (Texas): 1.2GW total avec 8 datacenters
Sachant que la région d'Abilene au Texas, est une des zones les plus chaude en été aux USA...
Abilene, c'est des température maxi journalière de 35degrés en moyenne l'été, et beaucoup plus en pointe.
Oui, l'air ambiant sur ces sites doit être augmenté de 2 ou 3 degrés quand il manque de vent... et alors? Ca dérange qui? Probablement pas les infrastructures du site.
Des industries qui dégagent beaucoup de chaleur localement, c'est quand même assez courant.
Voici le site Stargate-1 de Open-AI, dans la ville d'Abilène au Texas.
Cible 1.2GW au total pour ce campus, déjà réservés côté réseau électrique.
Le campus de 170 hectares abritera 8 datacenters géants, tous les 8 sont en cours de construction.
Chacun de ces datacenter géants est équipé de 90 dry coolers de bonne taille. Donc 720 dry coolers au total, ce qui explique bien le concept de mise à l'échelle que certains ici ont du mal à comprendre (je ne sais pas trop pourquoi).
On a aussi depuis des décennies des solution pour faire tourner des turbines à gaz de grande puissance, à cycle combiné (=équipées de turbien à vapeur), en plein désert où il n'y a pas d'eau, donc avec refroidissement par dry-coolers / Dry-Condenser, sans consommation d'eau.
Je t'ai aussi montré le site d'un constructeur de dry cooler qui annonce "several GW".
Et voici un fabriquant de dry-cooler qui annonce fièrement
Scalable Without Limits
From 10 MW to several GWs, Hypercooler is designed for high heat transfer and seamless scalability — the perfect fit for projects of any size.
https://spgdrycooling.com/products/hypercooler/
Ses produits ressemblent fortement à ce que Microsoft a installé.
Oui, il est assez évident que le site de Fouju, s'il reste sur les 70hectares actuels, ne consommera pas les 1.4GW. 500-700MW, ça me semble crédible.
Et je ne vois toujours pas ce qui rendrait le refroidissement sans consommation d'eau infaisable.
Leon.
-
Pour une petite correction la centrale nucléaire c'est Nogent sur Seine et pas Nogent sur Marne. Et le site est prévu pour accueillir deux tranches nucléaires en plus si besoin donc je suis d'accord que ça ne se construit pas en un jour mais il n'y a pas de vrai blocage de ce côté.
-
Car 1.4 GW, cela fait quand même un immense radiateur, quelqu'un évoque dans la vidéo la chaleur consommée par 200.000 logements, en demandant si c'était le bon ordre de grandeur, personne ne lui a répondu, donc une agglomération d'environ 500.000 habitants. Ce qui correspond aussi à l'ordre de grandeur que donnait Vivien d'une ville de la taille de Marseille, et cela sur 70 ha.
Les deux ne sont pasincompatibles.
1,4 GW est supérieur à la consommation électrique pointe de Marseille (1,1 GW), mais pour une ville comme Marseille (877 215 habitants), il y a d'autres sources de chaleur, comme le Gaz.
-
Pour une petite correction la centrale nucléaire c'est Nogent sur Seine et pas Nogent sur Marne. Et le site est prévu pour accueillir deux tranches nucléaires en plus si besoin donc je suis d'accord que ça ne se construit pas en un jour mais il n'y a pas de vrai blocage de ce côté.
Oui, Nogent sur Seine, c'est corrigé, et effectivement, c'est un site qui avait été prévu au départ pour 4 réacteurs (selon Wikipedia). Mais donc les deux autres, comme tu le dis, ne sont pas là, et ne seront pas construits en un jour. Les 6 premiers EPR2 ne sont pas prévus avant 2038, au mieux, et encore si EDF a les moyens de les construire, ce qui n'est pas gagné d'après un rapport récent de la cour des comptes :
EDF : une capacité de financement incertaine selon la Cour des comptes
Publié le 2 octobre 2025 - Par : La Rédaction
La Cour des comptes a examiné récemment la situation financière d'Électricité de France (EDF). Selon la Cour, les capacités de financement du groupe public sont incertaines, le groupe étant à la fois endetté et confronté à des besoins en investissements de 460 milliards d'euros entre 2025 et 2040.
Le groupe Électricité de France (EDF) est "confronté à d'importantes incertitudes sur sa capacité de financement à long terme", alors qu'il fait face à des besoins d'investissements très importants. C'est le principal enseignement du rapport de la Cour des comptes publié le 24 septembre 2025.
...
https://www.vie-publique.fr/en-bref/300262-edf-une-capacite-de-financement-incertaine-selon-la-cour-des-comptes
De toute façon, Nogent sur Seine ne fait pas partie des 3 sites retenus pour 2 paires de réacteurs chacun, ce sont Gravelines, Peny et le Bugey, voir carte ci-dessous. Donc s'il y a de nouveaux réacteurs à Nogent sur Seine, ce sera après 2040, bien après que le datacenter de Campus IA ait été opérationnel à pleine puissance.
D'ailleurs, dans la réunion d'enquête publique à Fouju, Thibaut Desfossés avait dit que l'électricité payée par le datacenter aiderait à payer la construction de futurs réacteurs. Put-être, mais ce sera bien après qu'il ait démarré. Et on ne sait pas dans leur accord avec RTE, et je suppose EDF, combien ils paieront le MWh. Le coût minimum du MWh selon EDF est de 70 €. S'ils sont à ce niveau, ce la risque de ne pas aider grand chose.
C'était d'ailleurs la raison du départ de l'ancien PDS d'EDF, Luc Rémont. Lui voulait un prix moyen de ~100 €/MWh, pour pouvoir financer le déploiement des EPR2. Tandis que l'état voulait un prix moins élevé pour favoriser l'implantation d'industries électro-intensives en France...
https://www.revolution-energetique.com/actus/voici-la-carte-des-6-futurs-reacteurs-nucleaires-epr-prevus-en-france/
-
On a des nouvelles vues architecturales de Campus IA: (visuels non contractuel)
Le boulevard, marquant le cœur du Campus :
(https://lafibre.info/images/datacenter/202510_fouju_campus_ia_vue_architecturale.avif)
Parc central, intentions paysagères :
(https://lafibre.info/images/datacenter/202510_fouju_campus_ia_vue_architecturale_3.avif)
Espaces communs, intentions architecturales :
(https://lafibre.info/images/datacenter/202510_fouju_campus_ia_vue_architecturale_4.avif)
Entrée du site, intentions architecturales :
(https://lafibre.info/images/datacenter/202510_fouju_campus_ia_vue_architecturale_2.avif)
Insertion paysagère, vue depuis Fouju :
(https://lafibre.info/images/datacenter/202510_fouju_campus_ia_vue_architecturale_5.avif)