De toutes façons, ce sera toujours pareil : tu économiseras toujours plus de courant si tu es capable de savoir à l'avance quelles données les gens vont vouloir.
D'habitude les gens veulent tout, tout de suite, donc il faut développer une offre qui cible un usage particulier ou, plus difficile, qui responsabilise le client en changeant son comportement pour le caler sur l'offre qui mettra plus d'efforts à attendre le temps de rapatrier ses données. C'est là qu'est toute l'astuce : soit tu stockes "bêtement" ta donnée et tu la ressors dès qu'on te sonne, ou bien tu es capable de prédire où ils vont taper pour gagner de précieuses secondes, minutes voire heures.
C'est sûr que monter une grosse salle machine qui s'allume juste qq heures/mois parce que tout le reste du mois on a constitué une liste sur un p'tit serveur de tout ce que les gens veulent récupérer, ça explosera des records d'économies de conso.
Par contre, je trouve personnellement que ce genre d'offre n'est pas encore très maîtrisée côté fournisseur, car il oblige le client à s'adapter à l'infra du fournisseur et non l'inverse. Ce n'est pas une opération transparente, ce qui pourrait être la clé d'une démocratisation de malade.
Dans mon infrastructure, j'avais mis sur pied un modèle mathématique qui permet d'arrêter d'investir au-délà d'une certaine durée de rétention (mes clients voulaient du contenu frais de qq jours à peine, avant tout, et très rapidement) car le coût marginal excédait celui de la vente marginale (autrement dit, rajouter un serveur supplèmentaire coutait plus cher que les ventes supplèmentaires que ça allait générer). Donc j'avais un chiffre qui me disait : "ne dépasse jamais les X jours de rétention".
QUID des jours supplèmentaires pour égaler les gros géants du secteur ? Ma solution était de passer sur du cold-storage pour les vieux articles car j'avais trouvé le moyen de savoir très précisèment que mon client voulait chercher, il était près à attendre, mais aucun n'était pas près à attendre plus de 5 minutes pour commencer le transfert. Donc j'ai réussi à gagner 5 minutes auprès de mon public pour rallumer des données en sommeil.
Et là c'était le drame sur le marché du cold-storage : il n'y en a aucun qui est capable de se fondre dans une infra existante (genre un montage NFS m'aurait vachement simplifié la vie), il fallait que je me coltine des jours/semaines de dev pour revoir mon SI pour savoir où je stocke, comment je rapatrie mes données (j'ai juste le filePath à la base hein) pour gérer l'API du dit-fournisseur (du coup ça me forçait aussi à rester enfermé chez un fournisseur).
Donc voilà, c'est vraiment un truc qui pourrait aider pas mal de structure selon moi. Si ça peut donner des idées à Online...