Si vous avez si peur de la consommation annoncée, alors sachez qu'il existe déjà dans l'industrie métallurgique des consommateurs électrique gigantesques, de même ordre de grandeur que les méga datacenter IA qu'on envisage ici.
* des fours à arc de 100MW le four. Oui, un seul et unique four.
* des usines de raffinage d'aluminium à 300MW ou 500MW la tranche d'usine.
Dans certains cas, les propriétaires de ces usines énergivores sont aussi propriétaires de centrales électriques.
Sinon, voici un datacenter de Microsoft, dédié à l'IA. Première tranche 300MW, et c'est confirmé ils utilisent des dry coolers. Ils parlent de "closed loop liquid cooling system", donc il n'y a aucun doute possible.
(Et ce qu'on voit sur les photos ne sont clairement pas des tours aéroréfrigérantes ouvertes fonctionnant par évaporation, si c'était le cas elles auraient des caissons en volume pour l'évaporation de l'eau).
Regardez bien la taille des dry-coolers. Chaque ventilateur fait la taille d'un camion, et il y en a 80 en tout.
La hauteur des dry-cooler, c'est équivalent à un bâtiment de 6 à 8 étages à la louche.
https://blogs.microsoft.com/on-the-issues/2025/09/18/made-in-wisconsin-the-worlds-most-powerful-ai-datacenter/More than 90 percent of the facility will rely on a state-of-the-art closed-loop liquid cooling system, filled during construction and recirculated continuously. The remaining portion of the facility will use outside air for cooling, switching to water only on the hottest days, minimizing environmental impact and maximizing operational efficiency. The result is a technological milestone — a datacenter with enough fiber cable to circle the Earth four times, yet its annual water use is modest, requiring roughly the amount of water a typical restaurant uses annually or what an 18-hole golf course consumes weekly in peak summer.Et voici un fabriquant de dry-cooler qui annonce fièrement
Scalable Without Limits
From 10 MW to several GWs, Hypercooler is designed for high heat transfer and seamless scalability — the perfect fit for projects of any size.https://spgdrycooling.com/products/hypercooler/Ses produits ressemblent fortement à ce que Microsoft a installé.
Voyant ça, encore une fois, je ne vois pas ce qui empêcherait l'utilisation de dry-cooling sur un campus IA de plus de 1GW, contrairement à ce que Alain et Vivien pensent. Encore une fois, pour mettre à l'échelle ("scaler") dans ce genre d'installation, on mets plus d'argent sur la table, on construit plus grand. Le datacenter Microsoft, et les dry-cooler gigantesques de spg-dry-cooling sont de très bons exemples.
Leon.