Je pense qu'un jour il faudra se tourner vers des solutions P2P. Même en augmentant la taille des liens, on ne pourra pas multiplier les fermes de serveur, même optimisées, cela a un coût .. Aujourd'hui les PC sont de plus en plus puissant, que de ressources disponibles. Imaginez une box quelconque qui gère ça de façon transparente, je pense qu'il y a un potentiel enorme
Je ne suis pas d'accord avec toi.
Il est facile de faire un serveur de streaming qui débite un max. Beaucoup plus facile que pour faire un serveur web classique. Délivrer un flux vidéo live ou un gros fichier vidéo, ça ne demande pas beaucoup de ressources serveur. Beaucoup moins que de calculer des pages PHP, ou délivrer plein de petits fichiers, pour le même débit.
Et je pense qu'on peut encore optimiser le matériel et les logiciels qui font du streaming. Nous ne sommes qu'au tout début de l'utilisation d'accélération matérielle dans les serveurs. Ca va se généraliser dans les années à venir.
A l'extrème, on trouve des produits surprenants qui délivrent des quantités monstrueuses de débit de streaming dans un tout petit volume. Les 2 systèmes utilisent des FPGA pour une optimisation maximale. Un FPGA est beaucoup plus performant qu'un processeur classique, pour effectuer une tâche bête et répétitive.
Le premier système fait 20Gb/s de streaming (y compris HTTP) en 1U, avec une consommation ridicule.
http://www.edgeware.tv/downloads/pdf/WTV_A4.pdfLe 2ieme fait 300Gb/s dans une baie. La distribution se fait via un énorme cache de 1To de RAM (!). Certes, pas en HTTP, le HTTP demande plus de ressource.
https://en-us.lionbridge.com/WorkArea/linkit.aspx?LinkIdentifier=id&ItemID=747&libID=959Et encore, ce sont des vieux matériels. On fait sans doute mieux aujourd'hui.
Le P2P? Ca n'est absolument pas optimisé. C'est un truc de Geek à mon avis. Ca nécessite de faire tourner un serveur 24h/24. Et ça a été montré que plein de petits serveurs étaient moins efficaces (économiquement et énergétiquement) qu'un très gros serveur centralisé.
Leon.