Auteur Sujet: Datacenter de 1400 MW pour l'intelligence artificielle en Seine-et-Marne (Fouju)  (Lu 8519 fois)

0 Membres et 6 Invités sur ce sujet

vivien

  • Administrateur
  • *
  • Messages: 51 170
    • Bluesky LaFibre.info
Le site n'est pas prévu pour faire que de l'IA. À plusieurs moments, ils ont parlé de services cloud non IA.

Par contre, j'ai un peu de doute qu'avec la surface du terrain, on puisse monter à 1400 MW si on n'est pas en IA sur une proportion proche de 100%.

Après ce ne sera pas un problème économique s'ils vendent tous les emplacements des datacenter et que la puissance n'est que de 700 MW.

J'avoue que je n'ai pas complètement compris le montage. Les infrastructures (serveurs) n'appartiendront visiblement pas à Campus-IA, mais nous n'avons pas le noms des entreprises qui gèreraient ces serveurs...

Campus IA propose le terrain, la sécurisation du site, l'énergie, la fibre,... La construction des datacenter ce sont les clients de Campus IA et comme évoqué il est probable que des GAFAM se positionnent pour être client de Campus IA, même si les acteurs non GAFAM sont prioritaires.

Aucun nom n'a filtré pour les 3 premiers centres de données. Peut-être, car la contractualisation n'est pas encore signée.

Après, est-ce que tu as le droit de diffuser le lien ZOOM en public ?

Oui, je pensais en parler dans tous les cas vu la qualité de concertation, mais cela m'a été demandé par la CNDP :

Nous vous remercions par avance de bien vouloir diffuser l'information auprès de vos propres réseaux, afin d'assurer que le public soit pleinement informé de cette opportunité.

Bien cordialement,

Leon

  • Abonné Bbox fibre
  • Modérateur
  • *
  • Messages: 6 672
Oui, il ne faut pas trop s'affoler avec les chiffres. Les 700MW et 1400MW c'est juste la puissance réservée auprès de RTE.

Leon.

vivien

  • Administrateur
  • *
  • Messages: 51 170
    • Bluesky LaFibre.info
La concertation pour ce datacenter continue, avec une session en distanciel, mardi 21 octobre à 18h30

Mardi prochain à 18h30, un webinaire "Datacenter et souveraineté numérique", intégralement en distanciel, permettra de prendre de la hauteur sur ces sujets et ce contexte, à une échelle bien plus large que le site d'implantation du projet, et avec plusieurs intervenants indépendants des maîtres d'ouvrage et portant des positions diverses :

Table ronde n°1 : Les datacenters, pour quels besoins ?
Intervenant.e.s : Pauline Denis (The Shift Project), Michaël Reffray (France Datacenter) et Laurent Tessier (Professeur et Sociologue du numérique éducatif-Institut catholique de Paris)

Thèmes :
- une infrastructure sensible et indispensable
- le numérique au service de l'éducation
- Compétition et innovation : quel est le rôle des supercalculateurs ?

Table ronde n°2 : Construire la souveraineté numérique : rôle stratégique des datacenters
Intervenant.e.s : Serge Abiteboul (Président du Comité de pilotage scientifique de l'ANR) et Ophélie Coelho (Chercheure en géopolitique-IRIS)

Vous êtes bien entendu convié.e.s à participer à cette rencontre via https://us02web.zoom.us/j/89748184630?pwd=23NK4rmBFaPXNLV08ZJS7kR17Qdhg3.1 ou https://www.concertation-campus-ia.fr/fr/


Serge Abiteboul, a été membre du collège de l'ARCEP de 2018 à 2024. la démarche "Pour un numérique soutenable" de l'Arcep et la collecte de données environnementales, c'est grâce à Serge, qui a poussé dès son arrivée en 2018 pour que l'Arcep ait des compétences pour suivre l’évolution de l'empreinte environnementale. C'est un chercher reconnu qui a été élu membre de l'Académie des sciences en décembre 2008 pour ses travaux sur la gestion d'information ainsi que de l'Academia Europaea depuis 2011.


Replay complet (2h30) :



vivien

  • Administrateur
  • *
  • Messages: 51 170
    • Bluesky LaFibre.info
Voici un extrait des échanges les plus intéressants, après la table ronde N°1  (39 minutes) :


(j'ai zoomé dans l'image pour que la vidéo des intervenants soit plus visible)

Version MP3 : (il n'y a pas de diapositives diffusées)


Voici un extrait des échanges les plus intéressants, après la table ronde N°2  (12 minutes) :



Version MP3 : (il n'y a pas de diapositives diffusées)

Leon

  • Abonné Bbox fibre
  • Modérateur
  • *
  • Messages: 6 672
Merci Vivien.

Voici une autre vue du campus Open-AI Stargate.

Les 2 premiers datacenter que l'on voit à l'image, ils utilisent 160 dry coolers "classiques".



Pour une puissance de 300MW pour ces 2 là seulement.
Donc ça fait ~2MW par dry-cooler, c'est parfaitement crédible.
Les 2 datacenters occupent une surface de 26 hectares.

Je ne comprends toujours pas pourquoi certains (alain_p principalement) pensent toujours qu'il est impossible d'évacuer de telles puissances avec des dry coolers, et que le refroidissement évaporatif est obligatoire.
N'hésitez pas à m'expliquer.

Leon.

vivien

  • Administrateur
  • *
  • Messages: 51 170
    • Bluesky LaFibre.info
Je ne vois pas 300 MW de groupes sur la photo (cela prend pas mal de place). Si on prend des groupes de 2 MW chacun, il en faut 150.

26 hectares => 300 MW

70 hectares (taille de Campus IA) => 807 MW

Après sur la photo, on peut clairement densifier un peu plus et donc probablement mettre plus que 807 MW sur 70 hectares. Toutefois, il faut garder dans l'idée que sur 70 hectares de Campus IA, il y a une surface qui doit être boisée pour conserver une espace rare et il y a une grande surface pour le poste RTE.


Leon

  • Abonné Bbox fibre
  • Modérateur
  • *
  • Messages: 6 672
Je ne vois pas 300 MW de groupes sur la photo (cela prend pas mal de place). Si on prend des groupes de 2 MW chacun, il en faut 150.
Tu parles de groupes électrogènes? (le mot "groupe" étant générique et pouvant désigner pleins de choses).
C'est normal qu'il n'y ait pas (beaucoup) de groupes électrogènes.
Sur le campus Open AI Stargate, il y aura une centrale électrique dédiée constituée de plusieurs dizaines de turbines à gaz, capable d'alimenter 100% du site.
Chaque turbine peut produire 34MW.
La première tranche contient visiblement 10 turbines de 34MW chacune.
Sur la photo les 3 premières turbines en cours d'installation. J'ai mis aussi une vue aérienne de la centrale électrique en cours de construction.
Entre le réseau et la centrale électrique, ça assure la redondance.
La centrale sera à la fois utilisée pour la redondance, mais aussi pour quand le tarif de l'électricité est trop cher.

Il y a sans doute des groupes pour ce qui est ultra critique : le réseau, la sécurité d'accès, sécurité incendie, etc...







Leon.
« Modifié: Aujourd'hui à 16:28:08 par Leon »

alain_p

  • Abonné Free fibre
  • *
  • Messages: 18 133
  • Delta S 10G-EPON sur Les Ulis (91)
Merci aussi Vivien pour le gros travail d'avoir repris des extraits intéressants de la vidéo originale pour en faire un résumé plus digeste de 39'. C'est vrai que ingurgiter 2h30 de vidéo, c'est un peu indigeste. Le problème des vidéos, c'est que l'on n'a pas sous les yeux le texte de ce qui a été dit.

Alors, moi-même, j'ai noté sous forme de texte quelques extraits d'interventions qui m'ont plus particulièrement intéressés, sur la consommation électrique et la compétition avec d'autres que je reproduis ici :

...
Mathieu Refray , France Datacenter, à 2'30" : ...De même, aujourd'hui en France, on sous-produit de l'énergie, donc la demande est relativement atone, ce qui fait que demain, on ne risque pas de se trouver à prendre, notre secteur, l'énergie d'autres secteurs. De la même manière, et j'en terminerai là, pour les canicules, en France l'énergie est décarbonée, concrètement le fait e consommer en France de l'énergie dans des datacenters ou quelque chose d'autre, cela ne crée pas de canicule, et moi, j'ai regardé votre présentation (P.S : celle de Pauline Denis, The Shift Project), ce que je trouve intéressant, c'est de faire le constat que vous faites, auquel on peut souscrire par ailleurs, et néanmoins, on peut se dire que la France a des atouts et des particularismes intéressants.

Pauline Denis, Shift Project à 6' : ...La 2eme question était "En France on sous-produit de l'énergie", mais je suppose que vous vouliez dire "on sur-produit de l'énergie", alors en 2024 on a sur-produit de l'électricité, lorsqu'au 31 Décembre 2024, on a sommé ce que l'on avait produit et consommé, il y avait plus de production, on faisait moins les les malins en 2022, pendant la crise, effectivement, tout est question de conditions, on n'était pas du tout en excédent en 2022, dans des conditions qui pourraient se reproduire, d'hivers sans vents et sans soleil, donc cela pourrait complétement se reproduire. Par ailleurs, juste sur cette question là, je n'ai pas envie de rentrer dans les détails techniques, mais c'est quand même important de comprendre que ce que l'on constate au 31 Décembre d'une année, en prenant en cumulé ce que l'on a produit et consommé, ne reflète en rien l'équilibre du réseau instantané. Ce n'est pas parce qu'à la fin de l'année, on a eu 10, 30, 100 TWh de produits en plus,  que à l'instantané, ce qui est nécessaire pour faire tenir le réseau, on avait effectivement une surproduction d'électricité, ce sont des enjeux qui sont assez différents et à ne pas confondre.

Jean-François Dupont, France Nature Environnement, Seine et Marne, à 11' : On voit bien qu'il y a une croissance exponentielle des implantations de datacenters et de consommation électrique liée à ces datacenters, on voit bien qu'il y aura aussi une croissance exponentielle pour décarboner les autres secteurs d'activité, et donc je me
demande comme le montre le rapport du Shift Project, est-ce qu'il y a un pilote dans l'avion, est-ce que l'impact de la croissance des ces nouvelles activités et la décarbonation des autres activités, qui est nécessaire, et peut rentrer en conflit, est-ce que cela a été vraiment anticipé ? Apparemment, d'après ce que dit le Shift
Projet, non. Donc qui doit mener cette anticipation; pour effectivement retrouver l'équilibre entre les usages.
Je ne vois pas tellement qui porte la responsabilité de ette affaire là. Sans compter que le nucléaire, cette solution décarbonée que l'on nous présente comme le miracle, c'est effectivement de l'électricité nucléaire, il s'agit d'un pari, un pari qui peut être entendu, mais il s'agit d'un pari, et on a encore des incertitudes sur l'équipement nucléaire de la France à l'échelle 2030;, 2040, 2050, donc il faudrait quand même clarifier tous ces éléments là avant de se précipiter sur des opportunités, tant que l'on aura besoin des datacenters, il est évident que c'est un marché d'opportunité. Mais le fait de vouloir mettre la charrue avant les bœufs, m'interpélle.

Thibaut Desfossés, chef de profet Campus IA; à 15' : ...Les choix technique des autres bâtiments qui seront construits dans 4 ou 5 ans n'ont pas encore été faits...

Olivier Klein à 31' : La centrale la plus proche est celle ce Nogent sur Marne Seine, elle a deux tranches, qui représentent 1300 MW, qui ont été construites en 1988 et 1989, donc ils arrivent à leur 36eme année, dans 4 ans, cela va être le grand carénage, avec l'arbitrage, est-ce que l'on va au-delà de 40 ans, mais je pense que l'arbitrage sera favorable, car normalement à 40 ans c'est terminé, on doit déterminer si on va au delà, donc à 50 ans, on va arriver pile au moment où votre projet sort de terre, de se dire on arrête cette centrale ou on continue, compte tenu de votre projet en périphérie, même si le réseau et tout est maillé, etc...


Quand Mathieu Refray, de France Datacenter, dit qu'aujourd'hui, on a une sur-production d'électricité, que l'on exporte, et que l'on peut utiliser pour alimenter les datacenters, et qu'il fait comme si cela aller durer éternellement, comme les autres lui ont fait remarquer, comme Pauline Denis, du Shift Project, cela n'a pas toujours été le cas, en 2022, on demandait à nous les consommateurs de réduire notre consommation de 10%, pour passer l'hiver. Et on sait, et là elle fait une errur, que ce n'est pas à cause du manque de soleil et de vent, mais bien par ce que nous avions près de la moitié de nos réacteurs nucléaires arrêtés, pour plusieurs mois, pour la visite décennale des 40 ans,et le grand carénage, et aussi parce qu'il s'était révélé cette année là un problème de corrosion sous contrainte, qui avait contraint à arrêter de nombreux autres réacteurs pour refaire les soudures. S'il y avait eu effectivement de longues périodes de temps très froid, sans soleil et sans vent, cela aurait pu empirer le problème, heureusement, cela ne s'est pas produit, ou très peu.

Or, il est très prévisible que ce grand carénage devra être refait vers 2032 pour la visite décennale des 50 ans, pour décider si on va au delà ou pas (ce qui est pratiquement sûr, car de toute façon on n'a pas de solution de rechange, au moins à cet horizon). D'autre part, notre parc vieillit donc sérieusement, il est pratiquement sûr qu'il rencontrera d'autres problèmes similaires à la corrosion sous contrainte, et qui risquent de toucher une bonne partie du parc, car toutes nos centrales ont été construites sur le même modèle à la même période, grosso-modo 1975-1985. Donc il est prévisible que ces périodes où l'électricité deviendra plus rares, mêmes pendant quelques mois, vont se reproduire.

On apprend par ailleurs par l'intervenant Olivier Klein, que la centrale la plus proche, qui dessert le site Campus IA, même si le réseau est maillé, est celle de Nogent sur Marne Seine, avec deux réacteurs de 1300 MW, construite parmi les dernières, palier P4', en 1988 et 1989 (voir schéma tiré de Wikipedia), vont donc arriver à 40 ans au moment où le site Campus IA va entrer en production, dans 3 ou 4 ans. Les deux visites décennales vont très probablement avoir lieu à un an d'intervalle, donc pendant un long moment, on n'aura que la moitié de leur production, soit 1300 MW. Or d'après Wikipedia, cette centrale contribue à l'alimentation d'1/3 de la région parisienne.

D'autre part, comme le dit Pauline Denis, ce n'est pas parce qu'à la fin de l'année, on a un bilan de production excédentaire, que c'est le cas à tout moment dans l'année. En particulier, aux heures de pointe en période hivernale, 7h le matin, 20h le soir, par temps très froid, on peut être très limite (et on l'a déjà été). Car les datacenters consomment 24h/24. Thibaut Desfossés indique d'ailleurs vers la fin que pour avoir l'énergie consommée il faut multiplier la puissance de 1.4 GW par le nombre d'heures dans l'année, ~8760 heures, ce qui pourrait faire une consommation si je me trompe pas de 12 TWh dans l'année. Or dans l'année, on produit environ 400 TWh d'électricité, donc ce seul projet pourrait consommer à lui seul jusqu'à 3% de toute l'électricité produite en France. Et malheureusement, il n'est pas le seul projet...

Donc à  mon avis, dire on a un surplus d'énergie en ce moment, c'est avoir une vision court-termiste, d'autant que ce Campus IA n'est pas le seul projet de datacenter en France. Et que comme le souligne Jean-François Dupont, d'autres secteurs d'activité sont censés s'électrifier. Et on fait donc courir un risque à moyen terme, à l'équilibre de notre réseau électrique, et à notre alimentation électrique.

https://fr.wikipedia.org/wiki/Liste_des_r%C3%A9acteurs_nucl%C3%A9aires_en_France

« Modifié: Aujourd'hui à 20:45:31 par alain_p »

alain_p

  • Abonné Free fibre
  • *
  • Messages: 18 133
  • Delta S 10G-EPON sur Les Ulis (91)
Je ne comprends toujours pas pourquoi certains (alain_p principalement) pensent toujours qu'il est impossible d'évacuer de telles puissances avec des dry coolers, et que le refroidissement évaporatif est obligatoire.
N'hésitez pas à m'expliquer.

Alors, je n'ai pas dit exactement cela. Au départ, dans les déclaration de Thibaut Desfossés qu'ils n'utiliseraient pas de refroidissement liquide. Pour moi, cela faisait référence aux racks, et là, j'ai dit, suivant les affirmations d'ingénieurs Dell que j'ai rencontré, qu'au delà de 40 kW, on ne savait pas refroidir un rack par air.

Et si on peut faire un refroidissement pas eau (ou autre liquide) en circuit fermé, cela implique de toute façon que le liquide qui re-rentre ait été refroidi entre temps et la chaleur évacuée.

Tu as fait remarquer, à juste titre, que le terme 'pas de refroidissement liquide', était trompeur, et que ce dont Thibaut Desfossés voulait parler était en fait de dry cooling, dont tu as donné des photos, donc que la chaleur est évacuée sur le toit par de gros ventilateurs, à l'air libre, sans consommer d'eau, une technique que personnellement je ne connaissais pas.

Je ne vais pas affirmer que c'est impossible d'évacuer de telles quantités de chaleur, car je ne suis pas climaticien, surtout à ces ordres de grandeur. Et pas grand monde sur le site ne l'est. Mais j'ai une idée des ordres de grandeur, et cela me semble très compliqué. Car 1.4 GW, cela fait quand même un immense radiateur, quelqu'un évoque dans la vidéo la chaleur consommée par 200.000 logements, en demandant si c'était le bon ordre de grandeur, personne ne lui a répondu, donc une agglomération d'environ 500.000 habitants. Ce qui correspond aussi à l'ordre de grandeur que donnait Vivien d'une ville de la taille de Marseille, et cela sur 70 ha.

Toi, tu nous donnes des exemples de datacenters de 100 ou 200 MW, pas de 1.4 GW. Or, même si la chaleur monte, elle va aussi fatalement s'étaler, et on aura un immense point chaud, dont la chaleur va s'étaler sur les autres datacenters et les réchauffer, diminuant leur capacité de refroidissement (surtout en période de canicules, de plus en plus nombreuses). Donc je doute, et le doute me parait raisonnable, que cela puisse fonctionner correctement à pleine échelle.

D'ailleurs, Thibaut Desfossés indique lui-même qu'au delà des trois premiers datacenters, les technologies utilisées ne sont pas fixées, même si les arrivées d'eau ne sont pas dimensionnées pour assurer une refroidissement par eau perdue. Or, si j'ai bien compris, cette technologie de dry cooling est aussi plus chère que d'autres techniques de refroidissement, dont par eau perdue (probablement rien que par la consommation électriques des immenses ventilateurs eux-même). Il parle aussi d'engagements écrits auprès des diverses collectivités de na pas consommer d'eau (au delà du système d'incendie et des sanitaires).

Par contre, comme j'ai déjà dit, je note d'ailleurs que je n'ai toujours pas appris la consommation des trois premiers, 300 MW ?, où cette solution parait viable vu les exemples cités, pour l'instant, il n'est même pas sûr que d'autres datacenters seront construits, il faut d'abord trouver les clients.

J'ai le sentiment que le chiffre avancé de 1.4 GW (il n'y a toujours aucune indication de comment il a été dimensionné) est surtout de la Com, qui peut faire briller les yeux d'un président, à qui l'on fait miroiter le plus gros datacenter du monde, et donc assurer des appuis politiques pour ce projet, et une certaine pression sur RTE pour accepter le projet, d'autant que l'on cite derrière les pétro-dollars des émirats arabes unis, donc on dit cela ne coûtera rien à la France. Et cela permet d'assurer ce qui est le nerf de la guerre pour les opérateurs de datacenters, de grosses quantités de MW disponibles, susceptibles d'attirer ensuite les gros de la scène, comme les GAFAM...

Leon

  • Abonné Bbox fibre
  • Modérateur
  • *
  • Messages: 6 672
Je ne comprends toujours pas pourquoi certains (alain_p principalement) pensent toujours qu'il est impossible d'évacuer de telles puissances avec des dry coolers, et que le refroidissement évaporatif est obligatoire.
N'hésitez pas à m'expliquer.
Alors, je n'ai pas dit exactement cela.

Ah bon? Tu es sur et certain? Moi, je suis certain que tu l'as dit. N'hésites pas à admettre que tu t'es trompé. Oui, je sais, je t'en demande beaucoup.
Il faut savoir lire entre les lignes. Ici, c'est un communiqué pour le grand public, pas forcément précis.
"aucun prélèvement dans les ressources en eau locales", c'est sans ambiguïté : pas de refroidissement par évaporation, pas de consommation massive d'eau, et c'est cohérent avec la définition standard du "dry cooling".
Oui, mais on sait qu'il n'est pas possible d'évacuer 1.4 GW (ou même 700 MW, première phase), dans ces conditions, n'est-ce pas ? Vivien a relevé que cela ne concernait que les 3 premiers datacenters, certainement d'une puissance moindre, même si elle n'est pas précisée, malheureusement.

Vivien l'a relevé, toutes les centrales nucléaires de cette gamme de puissance sont situées près d'un fleuve ou de l'océan, pour prélever l'eau pour le refroidissement.


On continue :
Toi, tu nous donnes des exemples de datacenters de 100 ou 200 MW, pas de 1.4 GW. Or, même si la chaleur monte, elle va aussi fatalement s'étaler, et on aura un immense point chaud, dont la chaleur va s'étaler sur les autres datacenters et les réchauffer, diminuant leur capacité de refroidissement (surtout en période de canicules, de plus en plus nombreuses). Donc je doute, et le doute me parait raisonnable, que cela puisse fonctionner correctement à pleine échelle.
N'hésites pas à relire mes messages, car j'ai l'impression que tu écris beaucoup, mais que tu ne lis pas les messages des autres. Pas les miens en tout cas.
Les 2 campus géants, refroidis par dry-cooler, que j'ai montrés dépassent largement les 100 ou 200MW dont tu parles...
 - Microsoft Mount Pleasant (Winsconsin): 600MW total avec 2 datacenters
 - Open-AI Stargate Abilene (Texas): 1.2GW total avec 8 datacenters
Sachant que la région d'Abilene au Texas, est une des zones les plus chaude en été aux USA...
Abilene, c'est des température maxi journalière de 35degrés en moyenne l'été, et beaucoup plus en pointe.
Oui, l'air ambiant sur ces sites doit être augmenté de 2 ou 3 degrés quand il manque de vent... et alors? Ca dérange qui? Probablement pas les infrastructures du site.
Des industries qui dégagent beaucoup de chaleur localement, c'est quand même assez courant.

Voici le site Stargate-1 de Open-AI, dans la ville d'Abilène au Texas.
Cible 1.2GW au total pour ce campus, déjà réservés côté réseau électrique.
Le campus de 170 hectares abritera 8 datacenters géants, tous les 8 sont en cours de construction.
Chacun de ces datacenter géants est équipé de 90 dry coolers de bonne taille. Donc 720 dry coolers au total, ce qui explique bien le concept de mise à l'échelle que certains ici ont du mal à comprendre (je ne sais pas trop pourquoi).

On a aussi depuis des décennies des solution pour faire tourner des turbines à gaz géantes en plein désert où il n'y a pas d'eau, donc avec refroidissement  par dry coolers, sans consommation d'eau.

Je t'ai aussi montré le site d'un constructeur de dry cooler qui annonce "several GW".
Et voici un fabriquant de dry-cooler qui annonce fièrement
Scalable Without Limits
From 10 MW to several GWs, Hypercooler is designed for high heat transfer and seamless scalability — the perfect fit for projects of any size.

https://spgdrycooling.com/products/hypercooler/
Ses produits ressemblent fortement à ce que Microsoft a installé.

Oui, il est assez évident que le site de Fouju, s'il reste sur les 70hectares actuels, ne consommera pas les 1.4GW. 500-700MW, ça me semble crédible.
Et je ne vois toujours pas ce qui rendrait le refroidissement sans consommation d'eau infaisable.

Leon.
« Modifié: Aujourd'hui à 20:07:00 par Leon »

pioup

  • Abonné Free fibre
  • *
  • Messages: 1 430
  • 10000
Pour une petite correction la centrale nucléaire c'est Nogent sur Seine et pas Nogent sur Marne. Et le site est prévu pour accueillir deux tranches nucléaires en plus si besoin donc je suis d'accord que ça ne se construit pas en un jour mais il n'y a pas de vrai blocage de ce côté.

vivien

  • Administrateur
  • *
  • Messages: 51 170
    • Bluesky LaFibre.info
Car 1.4 GW, cela fait quand même un immense radiateur, quelqu'un évoque dans la vidéo la chaleur consommée par 200.000 logements, en demandant si c'était le bon ordre de grandeur, personne ne lui a répondu, donc une agglomération d'environ 500.000 habitants. Ce qui correspond aussi à l'ordre de grandeur que donnait Vivien d'une ville de la taille de Marseille, et cela sur 70 ha.
Les deux ne sont pasincompatibles.

1,4 GW est supérieur à la consommation électrique pointe de Marseille (1,1 GW), mais pour une ville comme Marseille (877 215 habitants), il y a d'autres sources de chaleur, comme le Gaz.