Leon,
Ton analogie est intéressante et confirme bien ce que je dis sur la nécessité d'adapter la capacité du réseau à la somme des contrats que tu as vendu. Et quand ce n'est pas possible, tu ne vends pas. EDF fait exactement ça. Pas pour les contrats de particuliers (contrats bleus) mais pour les contrats des professionnels (contrats jaunes).
Par exemple, il n'est pas possible d'installer un datacenter n'importe ou. On ne parle pas de consommations et de puissance en Kilo W mais en Mega W et EDF, avant d'accepter de t'installer une telle alimentation valide que c'est faisable et qu'ils peuvent te garantir la puissance que tu réclames. S'ils n'en sont pas capables et qu'ils ne peuvent upgrader leur réseau, pas de datacenter allumé.
Maintenant oui, la probabilité statistique que 100% des utilisateurs utilise 100% des ressources est quasi nulle. Mais c'est comme toutes les probabilités (panne de matériels, coupure de fibre...) les opérateurs et les hébergeurs doivent les intégrer. Pour celles sur lesquelles il y a des probabilités importantes, il y a des mécanismes et des normes qui sont aujourd'hui standardisées (double alimentation, hsrp, bgp, ha, dual bulding, backup distant, etc). Il faut aussi intégrer les événements exceptionnels (11 septembre par exemple), lorsque tout le monde veut se connecter en même temps.
C'est de la responsabilité des opérateurs et des hébergeurs de définir leur niveau de service contractuel (SLA) et de mettre en place les moyens pour les garantir. A défaut, et en cas d'incident, ca peut leur couter cher
Sur le marché, je te l'accorde, beaucoup de fournisseurs appliquent des taux de contention...très très limites (sur le réseau mais aussi sur la redondance de leurs infras / equipements). Soit parce que leurs prix ne leurs permettent pas d'investir et de couvrir les charges soit parce qu'ils intègrent le risque de perdre un pourcentage de clients fâchés qu'ils jugent trop consommateurs par rapport à leur modèle.
Chez nous, nous avons des dizaines d'événements imprévisibles. 2 exemples :
Une fois quand l'émission M6 Capital a parlé d'un logiciel de plans d'intérieur 3D dont les serveurs de téléchargement sont sur nos plateformes. Conso moyenne habituelle : environ 40 Mbps. Lors de l'émission : plus de 400 Mbps. Ils ont été encaissés sans problème et je peux vous garantir que le client était bien content de cette pub gratuite qui leur a permis de vendre des milliers de licences en une soirée. Un autre logiciel était cité...leur serveur était down : perte d'image, manque à gagner en CA.
Une autre fois, une éditeur de BD Manga a acheté un espace pub pour y placer une vidéo avec lancement automatique à l'affichage. Gros investissement puisqu'il s'agissait d'être en home de voyages-sncf qui brasse plusieurs millions de visiteurs... Et ils avaient oublié de nous prévenir...trop confiants sans doute ou absolument pas conscients de l'impact
Résultat immédiat : la encore plus de 600Mbps de trafic à encaisser...et sur un seul serveur. C'est passé et cela a tenu plus d'une semaine, le temps de la campagne. Imaginez la perte d'image et la perte financière pour le client si cela n'avait pas été le cas.
Bien entendu ils ont du payer le "burst" mais ils étaient économiquement gagnants au final.
Je ne dit pas que nous avons dimensionné nos infrastructures pour encaisser 100% des événements exceptionnels, c'est impossible et il y a toujours une limite (il nous est arrivé de nous prendre des attaques DDOS à plus de 10Gb et quelques millions de hits par seconde sur un serveur et cela a très fortement dégradé la partie du réseau concerné) mais nous réduisons au minimum les taux de contention.
Certes nous ne sommes pas l'hébergeur le moins cher de la place mais nos clients qui ont intégré ces données dans leurs calculs de rentabilité s'y retrouvent. C'est un peu comme les assurances. On sait qu'on paye pour une probabilité statistique mais le jour ou on en a besoin on économise beaucoup plus que cela aurait couté si on ne l'avait pas prise. Et comme le 100% n'existe pas, mieux vaut la prendre l'assurance.
Dernier exemple pour démontrer que le rapport qualité / prix peut être déterminant : un célèbre vendeur de pizza à domicile était logé chez un hébergeur low cost. Les jours de match de foot notamment, le serveur plantait toujours.
Lorsqu'on leur a proposé un hébergement ils ont fait des bonds au plafond en voyant la différence de budget....mais finalement ils ont signé. Résultat, le premier jour d'exploitation ils ont fait une hausse de plus de 50% du chiffre d'affaires. Non seulement ils ne perdaient plus de commandes au moment des plantages mais mieux, ils concrétisaient les commandes des visiteurs les plus impatients qui déconnectent au bout de 2s si le service répond lentement.
La course à la vitesse est un élèment stratégique pour tous les sites de e-commerce et une différence d'une seconde a un impact sur les ventes. Amazon notamment a fait de nombreuses études sur le sujet.
Je peux vous garantir que la différence entre la hausse du cout de l'hébergement et la hausse du CA est largement en faveur du client
Et ses propres clients sont plus satisfaits aussi
Conclusion : pour un usage professionnel il est toujours bon de sur investir sur les infrastructures. C'est économiquement payant sur la durée.
Pour les particuliers, on sait que le niveau d'exigence a tendance à augmenter significativement (et ce d'autant plus que la journée, à leur bureau, ils ont les services pro), il n'est donc pas illogique que les fournisseurs intègrent de plus en plus la notion de SLA.