Salut,
Désolé si je poste ça ici, mais je ne savais pas du tout dans quelle catégorie poster ça donc je l'ai mis dans l'endroit le plus générique possible. Libre a vous de le déplacer là ou celà vous semble mieux.
Voilà, ce matin en copiant des fichiers d'un PC a un autre par le réseau local, j'ai remarqué ça :
Soit une vitesse de réception de 500Mbit/s (Limité par le disque dur destination) pour "seulement" 3Mbit/s d'émission...
Mais voilà, sur ma connexion "V"DSL lorsque je télécharge quelque chose, je ne dépasse généralement pas les 2Mo/s (16Mbit/s), alors que je devrais pouvoir monter à près de 2.5Mo/s (20Mbit/s) d'après Freebox OS. Sauf que vers 2Mo/s mon upload de 500Kbit/s est déjà saturé au maximum...
<- Hier après midi, téléchargement d'un jeu sur steam a environ 2Mo/s, upload pratiquement au max.
J'aimerais comprendre une telle différence... Si on divise les 3Mbit/s par 6 pour avoir environ 500Kbit/s en émission, alors en réception cela pourrais donner 500/6 soit environ 83Mbit/s. Du coup je comprends pas trop pourquoi lorsque je télécharge sur internet, on utilise déjà 500Kbit/s d'émission pour a peine 16Mbit/s en réception
Le protocole de partage de fichiers de Windows est plus optimisé que les protocoles utilisées sur internet ? J'aurais tendance a penser que la vitesse d'émission est utilisée pour envoyer les ACK tcp, alors pourquoi doit on envoyer plus d'ACK quand on télécharge sur internet que quand on récupère un fichier via un partage windows ? (A moins que je sois complètement a coté de la plaque
)
Si vous avez des idées je suis preneur