Hum, je suis plutôt dubitatif
Au niveau souplesse, je pense vraiment qu'un container est plus simple à gérer que plein de petite machines (d'ailleurs, comme les allume-t-on ?)
Au niveau énergie, un gros CPU inutilisé consomme peu (voir les notions de fréquences variables etc), et est bien plus réactif
Parmi les différentes hypothéses avancées :
- pour la parallèlisation: l'algorithmie distribuée est compliquée et est peut fréquente, j'imagine sans soucis que les clients préfèrent une grosse machine à dix petites
- la granularité de l'offre: à mon avis, le prix d'un serveur "classique" est négligeable face aux travaux de gestions (gérer deux serveurs est plus simple que gérer 20 serveurs, et coute donc moins cher)
À mon avis, c'est plutôt :
- pour faire la une!
- pour vendre du "dédié" à des petits besoins (avec la com qui va avec: matériel dédié, garanti etc etc etc)
Sinon, en vrac: BadMax, utilise Ganeti
Vivien: tu peux tout à fait mutualiser le CPU; sur l'un de mes serveurs (16 CPU), j'ai 10VM, avec un total de 30VCPU: au niveau de l'hôte (j'utilise kvm), chaque VM n'est qu'un groupe de n processus, n étant le nombre de VCPUS alloués à la VM: c'est le scheduler qui se charge de faire le reste, en repartissant les ressources parmis ceux qui en ont besoins. Ainsi, si chaque VM demande 100% des VCPUS, ils l'auront, mais la puissance nominale de chaque VCPUS ne sera plus qu'une portion de la puissance du CPU physique.
On peut voir cela comme une limite garantie et une limite "burst" : dans mon cas, une VM qui dispose de 3 VCPUS aura une puissance maximal de 3 CPU, et une puissance garantie de (16/30) * 3 = 1.6 CPU