Précisions sur certains point évoqué ici :
Le 93 Mbit/s sur une carte 100 Mbits:La carte réseau est capable se gérer 100 Mbits/s de données "brutes" c'est à dire hors protocole. Cependant, les tests de débits (même celui de Netflix) sur du HTTPS.
Et selon le modèle OSI, il y plusieurs niveaux d'encapsulation de protocoles qui pour chaque niveau utilise une partie de ces données brutes pour des sommes de contrôles, du routage, des verbes...
Ici on parle au final du HTTPS lui même dans du TCP lui même dans de l'IP lui même dans de l'Ethernet, donc c'est normal de ne retrouver que 93 Mbits/s de charge "utile" sur les 100 Mbits/s demandé lors de teste de débit
Le 100 Mbits insuffisant pour les BR UHD qui montent à 180 Mbits/s:monsupercomptefiber a mis une liste issue de
https://www.reddit.com/r/PleX/comments/eoa03e/psa_100_mbps_is_not_enough_to_direct_play_4k/ où le posteur original tente de montrer qu'une carte réseau 100 Mbit/s est maintenant insuffisante pour les films UHD 4K HDR.
Alors si on lit son post, on se dit, bah oui c'est insuffisant... Sauf que malgré le mal qu'il s'est donné, il y a une sacrée anarque dans son raisonnement, je le cite car c'est écrit juste à la fin de énorme post :
"Given this analysis, hopefully we can now all agree that 100 Mbps is not enough to playback 4K files without buffering on all devices...".
Bah oui, testons des services de streaming en se disant que ... l'on ne va pas bufferiser !!! Car c'est clair que si on a 0 seconde de buffer, dans des scènes où l'on a plus de 100 Mbit/s ça risque d'être de la bouillie à ce moment là avec juste une carte réseau limitée à 100 Mbits/s. Sauf que pour palier à ce problème, les services de streaming (et pas qu'eux, Kodi par exemple permet un réglage assez fin du pré-buffer) utilisent un buffer qu'ils remplissent via leur application pour avoir les données en avance et ne pas être embêtés par la limite des cartes réseau des TV.
En allouant 10 ou 15 secondes de pré-buffer, on a pas de soucis de pic de débit instantané. Le film le plus contraignant serait donc "The Hunger Games: Mockingjay – Part 1" avec 25 minutes ) plus de 100 Mbits/s (101 ou 200, ça change pas mal), mais il n'aurait aucun soucis car il sera bufferisé.
D'ailleurs les min / max / avg ne sont pas suffisants pour faire des analyses qualitatives et quantitative suffisantes : une moyenne dans ce genre de cas ne veut pas dire grand chose, et des outils comme les centiles, la déviation standard et j'en passe ne sont pas mis en avant alors que l'évolution d'un bitrate dans un film est tout sauf stable. Mais ça demande pas mal de travail pour les utiliser et aussi d'analyser le film en amont.
De toute façon même si un film à une moyenne à 75 Mbits/s et un max à 200, il peut mathématiquement avoir un 95ième percentile à 90 (donc 95% de son bitrate instantané est sous 90 Mbits/s) et une médiane à 40. Ce qui fait qu'avec 100 Mbits/s avec un buffer de 10 secondes, on a une fenêtre glissante de 1 Gbits/s soit 5 secondes au pour le débit max demandé... Et comme les maximums sont souvent juste des pics, pas de problème sur la durée.
TL;DR : tant qu'il y a un cache (de plus en plus intelligent d'ailleurs), 100 Mbits/s suffisent sauf pour les TV "mal foutues" (il y en a..)