C'est un raccourci : il faut que la latence monte de quelques ms avant le drop de paquet, afin que TCP puisse régler de manière fine le débit : des buffer trop bas font que TCP n'arrive pas a estimer le débit et aprés la perte de paquet a la fin du slow start il n'arrive pas a estimer le débit.
Par contre avec un buffer suffisant, le pic du slow start est tellement important que les drop de paquets sont systématiques (je parle d'une ligne FTTH à 1 Gb/s, je connais aussi les optim buufer pour l'ADSL, mais pas du tout pour le mobile)
On a déjà parlé de ces buffers trop grands : le terme est
BufferbloatJ'ai souvenir de connexion ADSL a faible débit qui peuvent avoir des ping qui dépassent plusieurs secondes quand il y a un simple transfert http... (buffer de plusieurs milliers de paquets - une aberration qui empêche le surf quand il y a un téléchargement en //)
Les buffer doivent augmenter avec l'augmentation des débits et cela peut être complexe quand il y a des problématiques de buffer mutualisés. Là c'est assez simple : en 1 Gb/s l'endroit où sont buffurisés les paquets en download, c'est l'ONT chez le client. Par contre pour des débits < 1Gb/s, c'est l'OLT qui buffurise, vu que c'est lui qui limite le débit.