Une solution pas mal est d'implanter les DC à coté des villes, pour pouvoir réutiliser l'eau chaude de la clim pour les chauffages.
Pas mal de projets existent déja, où le DC du coin chauffe par exemple la piscine municipale, le gymnase , etc...
On ne peut pas aujourd'hui traiter de l'information, sans déplacer des électrons, et donc générer de la chaleur. Autant que celle-ci soit au maximum utile !
OK pour optimiser autour des serveurs, on peut améliorer le PUE et récupérer l'énergie, mais ça ne résoud pas le problème de fond.
Pour moi, il faut surtout se battre sur la consommation des serveurs eux mêmes!
Programmer des serveurs avec le code le plus "économique" possible en ressource. Malheureusement, c'est loin d'être répandu comme démarche! En dehors des services Facebook Google qui sont certainement bien optimisés, on est (je pense) très très en retard sur le sujet.
Tous les codeurs ont-ils des objectifs ambitieux de "ressource CPU/RAM"?
Faire de la vraie mutualisation de ressource en mode Cloud, efficace. Interdire les serveurs qui se tournent les pouces toute la journée.
Utiliser massivement des accélération hardware (GPU, FPGA, ASIC, etc...) partout ou c'est possible.
Eteindre les serveurs (instances cloud) inutilisés en période creuse (le gain serait monstrueux!).
Etc...
Ca ne m'étonnerai pas qu'avec tout ça, on divise par 2 la consommation des datacenters "normaux"!
Pareil côté réseaux : éteindre des fréquences 3G/4G en période creuse, diminuer le débit de faisceaux hertizens, éteindre des liens inutiles en période creuse, etc...
Leon.