Auteur Sujet: FTTH 10G Free: Mesure de débit automatisé avec iPerf3 en IPv4 vs IPv6  (Lu 75517 fois)

0 Membres et 1 Invité sur ce sujet

vivien

  • Administrateur
  • *
  • Messages: 47 183
    • Twitter LaFibre.info
FTTH 10G Free: Mesure de débit automatisé avec iPerf3 en IPv4 vs IPv6
« Réponse #144 le: 21 janvier 2020 à 09:32:05 »
Voici les mêmes stats, sur https://ubuntu.lafibre.info/ serveur de même type mais la carte réseau est sur un slot PCI express différent, d'où la différence de nomage.

$ cat /proc/sys/net/core/default_qdisc
fq_codel

$ tc -s qdisc show dev enp2s0f0 | grep Sent
 Sent 21721141899435 bytes 1695798147 pkt (dropped 0, overlimits 0 requeues 276666)
 Sent 2711607802761 bytes 1820392980 pkt (dropped 0, overlimits 0 requeues 37073)
 Sent 2664240429274 bytes 1788334131 pkt (dropped 0, overlimits 0 requeues 28827)
 Sent 2707954728426 bytes 1817686483 pkt (dropped 0, overlimits 0 requeues 35519)
 Sent 2746799673780 bytes 1844104656 pkt (dropped 0, overlimits 0 requeues 40316)
 Sent 2728945381684 bytes 1832040588 pkt (dropped 0, overlimits 0 requeues 36603)
 Sent 2724850111553 bytes 1828744892 pkt (dropped 0, overlimits 0 requeues 28488)
 Sent 2715696352988 bytes 1822893976 pkt (dropped 0, overlimits 0 requeues 33105)
 Sent 2721047421981 bytes 1826502331 pkt (dropped 0, overlimits 0 requeues 36735)

$ tc -s qdisc show dev enp2s0f0 | grep Sent | awk '{a=$2/1000/1000/1000;b=$4/1000/1000; printf("%.0f GB %d Mpackets\n",a,b);}'
21723 GB 1697 Mpackets
2712 GB 1820 Mpackets
2665 GB 1788 Mpackets
2708 GB 1817 Mpackets
2747 GB 1844 Mpackets
2729 GB 1832 Mpackets
2725 GB 1828 Mpackets
2716 GB 1823 Mpackets
2721 GB 1826 Mpackets

$ tc -s class show dev enp2s0f0
class mq :1 root
 Sent 2721350159660 bytes 1826705567 pkt (dropped 0, overlimits 0 requeues 36737)
 backlog 0b 0p requeues 36737
class mq :2 root
 Sent 2716155925857 bytes 1823203782 pkt (dropped 0, overlimits 0 requeues 33116)
 backlog 0b 0p requeues 33116
class mq :3 root
 Sent 2725442468434 bytes 1829142131 pkt (dropped 0, overlimits 0 requeues 28499)
 backlog 0b 0p requeues 28499
class mq :4 root
 Sent 2729410406673 bytes 1832351085 pkt (dropped 0, overlimits 0 requeues 36610)
 backlog 0b 0p requeues 36610
class mq :5 root
 Sent 2747230142368 bytes 1844393260 pkt (dropped 0, overlimits 0 requeues 40322)
 backlog 0b 0p requeues 40322
class mq :6 root
 Sent 2708343620192 bytes 1817948585 pkt (dropped 0, overlimits 0 requeues 35521)
 backlog 0b 0p requeues 35521
class mq :7 root
 Sent 2664756430440 bytes 1788678339 pkt (dropped 0, overlimits 0 requeues 28829)
 backlog 0b 0p requeues 28829
class mq :8 root
 Sent 2712013824367 bytes 1820663694 pkt (dropped 0, overlimits 0 requeues 37074)
 backlog 0b 0p requeues 37074
class mq :9 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :a root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :b root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :c root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :d root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :e root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :f root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :10 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :11 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :12 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :13 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :14 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :15 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :16 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :17 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :18 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :19 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :1a root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :1b root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :1c root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :1d root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :1e root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :1f root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :20 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :21 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :22 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :23 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :24 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :25 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :26 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :27 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :28 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :29 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :2a root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :2b root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :2c root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :2d root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :2e root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :2f root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :30 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :31 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :32 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :33 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :34 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :35 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :36 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :37 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :38 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :39 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :3a root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :3b root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :3c root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :3d root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :3e root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :3f root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0
class mq :40 root
 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
 backlog 0b 0p requeues 0

$ tc -s filter show dev enp2s0f0
=> ne donne rien non plus.

vivien

  • Administrateur
  • *
  • Messages: 47 183
    • Twitter LaFibre.info
FTTH 10G Free: Mesure de débit automatisé avec iPerf3 en IPv4 vs IPv6
« Réponse #145 le: 21 janvier 2020 à 09:38:17 »
Depuis 9h34, j'ai supprimé la ligne net.core.default_qdisc=fq de mon fichier /etc/sysctl.d/90-server-optimization.conf

ON est en configuration qdisc par défaut :

$ cat /proc/sys/net/core/default_qdisc
fq_codel

On reste en BBR.

On va voir si cela a un impact (en théorie ce n'est que quand on sature le lien du serveur)

kgersen

  • Modérateur
  • Abonné Bbox fibre
  • *
  • Messages: 9 091
  • Paris (75)
FTTH 10G Free: Mesure de débit automatisé avec iPerf3 en IPv4 vs IPv6
« Réponse #146 le: 21 janvier 2020 à 14:38:15 »
net.core.default_qdisc est un "defaut". ca ne s'applique qu'au boot ou si on supprime le qdisc d'une interface.

j'ai pas l'impression que tu n'applique pas un qdisc top level ?

si c'est le cas, pour changer le qdisc sans reboot, le plus immédiat est d'ajouter un puis enlever une top level disc:

sudo tc qdisc add dev xxxx  root fq
sudo tc qdisc delete dev xxxx root
1. on ajoute une top level disc (logiciel)
2. on l'enleve donc ca reset a un top level de type mq (=multiqueue) utilisant "net.core.default_qdisc" pour les queues matérielles.

Mais vu ton hardware, tu peux aussi essayer  ceci: https://www.kernel.org/doc/Documentation/networking/multiqueue.txt

sudo tc qdisc add dev xxxxx root handle 1: multiq
Bon apres le souci de retransmissions de ton serveur est peut-etre du a autre chose. "glances" est un bon outil pour voir ce qui ce passe.

vivien

  • Administrateur
  • *
  • Messages: 47 183
    • Twitter LaFibre.info
FTTH 10G Free: Mesure de débit automatisé avec iPerf3 en IPv4 vs IPv6
« Réponse #147 le: 21 janvier 2020 à 14:55:38 »
J'ai une question plus générale : Le qdisc ne devrait impacter que si on sature la bande passante 10 G du serveur, non ? Je me demande si il y a un gain a attendre d'avoir une gestion de file différente sachant qu'il n'y a pas de flux prioritaire.

Sinon pour répondre à ta question, je n'ai pas précisé, mais a chaque modification, je reboot le serveur.

Voici son uptime :

kgersen

  • Modérateur
  • Abonné Bbox fibre
  • *
  • Messages: 9 091
  • Paris (75)
FTTH 10G Free: Mesure de débit automatisé avec iPerf3 en IPv4 vs IPv6
« Réponse #148 le: 21 janvier 2020 à 15:51:48 »
J'ai une question plus générale : Le qdisc ne devrait impacter que si on sature la bande passante 10 G du serveur, non ? Je me demande si il y a un gain a attendre d'avoir une gestion de file différente sachant qu'il n'y a pas de flux prioritaire.

Ben disons qu'un FQ ou FQ_CODEL permet de privilégier les traffics qui se 'vident' des files par rapport a ceux qui bouchonnent parce qu'au delà du lien est saturé ou le récepteur est 'lent'. Donc il peut y a voir un gain quand y'a beaucoup de flux vers différentes destinations en meme temps (ca rempli les files bien que l'interface n'est pas saturée).
FQ_CODEL reste le réglage par défaut recommandé par systemd meme si y'a des précautions a prendre pour les basses vitesses (donc sur un serveur 10G devrait pas y avoir de souci).

Mais dans ton cas tu n'a pas "beaucoup de flux vers différentes destinations"  du coup difficile a savoir.

En tout cas y'a trop de retransmissions c'est clairement visible mais dur a diagnostiquer car en plus UDP est bloqué donc on ne peut savoir si c'est un souci de saturation ou de TCP  (taille buffers, latence,  algo, etc).
Par exemple demander :
iperf3 -4 -c paris.testdebit.info -P 4 -R -V --get-server-output -u -b 230M -p 520x"
reste bloquer au lieu d'envoyer 4 flux UDP a 230 Mbps

ou c'est peut-être juste les switches ou routeurs juste apres ton serveur qui ne sont pas bons.

sinon une  bonne lecture: https://www.linuxjournal.com/content/queueing-linux-network-stack

vivien

  • Administrateur
  • *
  • Messages: 47 183
    • Twitter LaFibre.info
FTTH 10G Free: Mesure de débit automatisé avec iPerf3 en IPv4 vs IPv6
« Réponse #149 le: 21 janvier 2020 à 21:35:15 »
Merci pour l'explication.
Je débloque l'UDP demain.

Je pense tester sans initcwnd 90 demain, mais comment savoir si c'est bien mis en place ?

Cela a peut-être plus d'impact pour les connexions TCP courtes.

A 8h47, j'ai basculé initcwnd de 10 à 90, uniquement pour le trafic IPv4

Concrètement, j'ai rajouté une ligne qui change la route par défaut avec initcwnd 90 en plus.

iface enp1s0f0 inet static
        address 89.84.1.186
        netmask 255.255.255.248
        gateway 89.84.1.185
post-up /sbin/ip route change default via 89.84.1.185 dev enp1s0f0 initcwnd 90
A 15h03, j'ai basculé initcwnd de 10 à 90, pour le trafic IPv6: On a donc IPv4 et IPv6 qui sont tous les deux en initcwnd 90

iface enp1s0f0 inet6 static
        address 2001:860:de01:1100::2
        netmask 64
        gateway 2001:860:de01:1100::1
post-up /sbin/ip -6 route change default via 2001:860:de01:1100::1 dev enp1s0f0 initcwnd 90
        accept_ra 0
        dns-nameservers 2001:860:b0ff:1::1 2001:860:b0ff:1::2


Demain matin je recommence les tests de différents algorithme de congestion TCP en gardant les optimisations actuelles.

- Aujourd'hui : Illinois, l'algorithme qui était souvent proposés pour des très haut débit (qdisc fq)
- Demain : Cubic l'algorithme par défaut de presque tous les Linux (qdisc fq)
- Après-demain : Cubic (test avec qdisc fq_codel)
- Les jours suivants : BBR sensé être l'algorithme miracle.

Breizh29

  • Abonné Free fibre
  • *
  • Messages: 408
  • Ergué-Gabéric (29)
FTTH 10G Free: Mesure de débit automatisé avec iPerf3 en IPv4 vs IPv6
« Réponse #150 le: 22 janvier 2020 à 08:33:04 »
Mise à jour de ce matin 8h20.
Pas grand changement à signaler...

vivien

  • Administrateur
  • *
  • Messages: 47 183
    • Twitter LaFibre.info
FTTH 10G Free: Mesure de débit automatisé avec iPerf3 en IPv4 vs IPv6
« Réponse #151 le: 22 janvier 2020 à 10:00:32 »
kgersen mes serveur n'ont pas deux cartes réseau 10 Gb/s.

- enp1s0f0 => Carte sur serveur paris.testdebit.info
- enp2s0f0 => Carte sur un serveur sans aucune optimisation, en l’occurrence fr.archive.ubuntu.com

Voici les stats sur paris.testdebit.info aprés une journée de trafic. C'est le serveur iPerf utilisé ici (qui est dans le groupe anycast bouygues.testdebit.info et bouygues.iperf.fr)

# cat /proc/sys/net/core/default_qdisc
fq

# tc -s qdisc show dev enp1s0f0 | grep Sent
 Sent 13211459496692 bytes 891164247 pkt (dropped 128631, overlimits 0 requeues 599)
 Sent 2443893935256 bytes 1732130454 pkt (dropped 19452, overlimits 0 requeues 126)
 Sent 1118920704494 bytes 809363638 pkt (dropped 13210, overlimits 0 requeues 20)
 Sent 1624253413379 bytes 1161309714 pkt (dropped 16431, overlimits 0 requeues 31)
 Sent 1393148045189 bytes 1002149899 pkt (dropped 15490, overlimits 0 requeues 20)
 Sent 1748422951877 bytes 1259229980 pkt (dropped 24527, overlimits 0 requeues 54)
 Sent 2586109052255 bytes 1845078801 pkt (dropped 18241, overlimits 0 requeues 306)
 Sent 1214571703559 bytes 883020716 pkt (dropped 8698, overlimits 0 requeues 29)
 Sent 1082139684113 bytes 788815578 pkt (dropped 12582, overlimits 0 requeues 13)
 Sent 550 bytes 5 pkt (dropped 0, overlimits 0 requeues 0)
 Sent 590 bytes 5 pkt (dropped 0, overlimits 0 requeues 0)
 Sent 770 bytes 7 pkt (dropped 0, overlimits 0 requeues 0)
 Sent 920 bytes 8 pkt (dropped 0, overlimits 0 requeues 0)
 Sent 990 bytes 9 pkt (dropped 0, overlimits 0 requeues 0)
 Sent 990 bytes 9 pkt (dropped 0, overlimits 0 requeues 0)
 Sent 880 bytes 8 pkt (dropped 0, overlimits 0 requeues 0)
 Sent 880 bytes 8 pkt (dropped 0, overlimits 0 requeues 0)

# tc -s qdisc show dev enp1s0f0 | grep Sent | awk '{a=$2/1000/1000/1000;b=$4/1000/1000; printf("%.0f GB %d Mpackets\n",a,b);}'
13219 GB 896 Mpackets
2444 GB 1732 Mpackets
1120 GB 810 Mpackets
1624 GB 1161 Mpackets
1394 GB 1002 Mpackets
1750 GB 1260 Mpackets
2588 GB 1846 Mpackets
1216 GB 883 Mpackets
1083 GB 789 Mpackets
0 GB 0 Mpackets
0 GB 0 Mpackets
0 GB 0 Mpackets
0 GB 0 Mpackets
0 GB 0 Mpackets
0 GB 0 Mpackets
0 GB 0 Mpackets
0 GB 0 Mpackets

Stats aprés 24h :

$ cat /proc/sys/net/core/default_qdisc
fq_codel

$ tc -s qdisc show dev enp1s0f0 | grep Sent
 Sent 13769832649936 bytes 1242503640 pkt (dropped 25, overlimits 0 requeues 2575775)
 Sent 1658249576292 bytes 1187479491 pkt (dropped 0, overlimits 0 requeues 335167)
 Sent 1866040237832 bytes 1341347339 pkt (dropped 16, overlimits 0 requeues 369608)
 Sent 2533301600162 bytes 1802120947 pkt (dropped 4, overlimits 0 requeues 291038)
 Sent 1218915561680 bytes 875466650 pkt (dropped 0, overlimits 0 requeues 260882)
 Sent 1058722998695 bytes 758573962 pkt (dropped 1, overlimits 0 requeues 245917)
 Sent 2368295995084 bytes 1679314523 pkt (dropped 4, overlimits 0 requeues 343351)
 Sent 1410889478868 bytes 1006583537 pkt (dropped 0, overlimits 0 requeues 341817)
 Sent 1655417195213 bytes 1181551728 pkt (dropped 0, overlimits 0 requeues 387995)
 Sent 660 bytes 6 pkt (dropped 0, overlimits 0 requeues 0)
 Sent 660 bytes 6 pkt (dropped 0, overlimits 0 requeues 0)
 Sent 440 bytes 4 pkt (dropped 0, overlimits 0 requeues 0)
 Sent 880 bytes 8 pkt (dropped 0, overlimits 0 requeues 0)
 Sent 880 bytes 8 pkt (dropped 0, overlimits 0 requeues 0)
 Sent 1030 bytes 9 pkt (dropped 0, overlimits 0 requeues 0)
 Sent 660 bytes 6 pkt (dropped 0, overlimits 0 requeues 0)
 Sent 900 bytes 8 pkt (dropped 0, overlimits 0 requeues 0)

$ tc -s qdisc show dev enp1s0f0 | grep Sent | awk '{a=$2/1000/1000/1000;b=$4/1000/1000; printf("%.0f GB %d Mpackets\n",a,b);}'
13770 GB 1242 Mpackets
1658 GB 1187 Mpackets
1866 GB 1341 Mpackets
2533 GB 1802 Mpackets
1219 GB 875 Mpackets
1059 GB 758 Mpackets
2368 GB 1679 Mpackets
1411 GB 1006 Mpackets
1655 GB 1181 Mpackets
0 GB 0 Mpackets
0 GB 0 Mpackets
0 GB 0 Mpackets
0 GB 0 Mpackets
0 GB 0 Mpackets
0 GB 0 Mpackets
0 GB 0 Mpackets
0 GB 0 Mpackets

vivien

  • Administrateur
  • *
  • Messages: 47 183
    • Twitter LaFibre.info
FTTH 10G Free: Mesure de débit automatisé avec iPerf3 en IPv4 vs IPv6
« Réponse #152 le: 22 janvier 2020 à 10:04:02 »
Les évolutions du tcp_congestion_control :
- 17 janvier 9h32 Illinois => Cubic
- 20 janvier 8h12 Cubic => BBR
- 22 janvier 10h03 BBR => Illinois (on n'avais pas de tests mono-thread en Illinois)

Actuellement :
$ cat /proc/sys/net/ipv4/tcp_congestion_control
illinois







Breizh29

  • Abonné Free fibre
  • *
  • Messages: 408
  • Ergué-Gabéric (29)
FTTH 10G Free: Mesure de débit automatisé avec iPerf3 en IPv4 vs IPv6
« Réponse #153 le: 22 janvier 2020 à 13:30:49 »
Quelques chiffres encadrant le changement de 10h03 :

22/01/2020 09:00:00 ; 2,19 ; 3,92 ; 5,74 ; 6,64
22/01/2020 09:10:00 ; 2,08 ; 1,94 ; 4,43 ; 5,52
22/01/2020 09:20:00 ; 1,77 ; 2,44 ; 4,09 ; 5,33
22/01/2020 09:30:00 ; 1,96 ; 2,19 ; 5,11 ; 4,27
22/01/2020 09:40:00 ; 2,37 ; 1,92 ; 5,48 ; 6,82
22/01/2020 09:50:00 ; 1,92 ; 2,10 ; 3,58 ; 3,12
22/01/2020 10:00:00 ; 2,11 ; 1,80 ; 5,51 ; 5,69
22/01/2020 10:10:00 ; 6,24 ; 6,05 ; 5,73 ; 5,94 <-- 1ère mesure après changement
22/01/2020 10:20:00 ; 6,22 ; 5,83 ; 5,67 ; 6,00
22/01/2020 10:30:00 ; 6,31 ; 6,07 ; 5,43 ; 5,50
22/01/2020 10:40:00 ; 6,26 ; 5,97 ; 5,65 ; 5,76
22/01/2020 10:50:00 ; 6,27 ; 6,00 ; 5,09 ; 5,08
22/01/2020 11:00:00 ; 6,18 ; 5,58 ; 5,31 ; 5,21
22/01/2020 11:10:00 ; 6,29 ; 5,89 ; 5,15 ; 5,62
22/01/2020 11:20:00 ; 6,15 ; 5,85 ; 4,92 ; 6,08
22/01/2020 11:30:00 ; 6,21 ; 5,87 ; 5,55 ; 5,62
22/01/2020 11:40:00 ; 6,07 ; 5,87 ; 4,09 ; 5,56
22/01/2020 12:10:00 ; 6,19 ; 5,93 ; 3,31 ; 4,59
22/01/2020 12:20:01 ; 6,15 ; 5,86 ; 4,20 ; 4,45
22/01/2020 12:30:00 ; 6,17 ; 5,84 ; 3,65 ; 5,21

kgersen

  • Modérateur
  • Abonné Bbox fibre
  • *
  • Messages: 9 091
  • Paris (75)
FTTH 10G Free: Mesure de débit automatisé avec iPerf3 en IPv4 vs IPv6
« Réponse #154 le: 22 janvier 2020 à 19:16:16 »
C'est curieux l'inversement de BBR vs cubic en multi/mono.

A .cubic = loss-based = régit uniquement sur la perte de paquets. donc en mono devrait y a voir peu de perte de paquets pourtant cubic marche mal en mono.
B bbr  = model-based = il tente de modéliser le réseau en analysant le RTT et la bande passante. en mono il s'adapte au mieux mais en multi considere qu'il y n'y pas assez de bande passante du coup réduit le debit de chaque threads ?

A. ca montre bien en tout cas le souci avec ce serveur et ses trop nombreuses retransmissions ?

Apres c'est peut-être le serveur qui est simplement trop chargé pour fournir un test a 10G exploitable ?

Au vue des graphes de Vivien:

Coté serveur, la charge est stable :


Il est moyenne a plus de 1G donc mais manque peut-être de précision ? (j'ai 90% du temps un 'occupé' quand je tente un iperf3 sur ce serveur).

Tant qu'on a pas une mesure plus fine (prometheus par exemple) pour obtenir le crosstalk pendant les 20 secondes d'un IPerf3 de Breizh29 c'est délicat de conclure précisément.

Tu peux log en json tes serveurs IPerf3: "iperf3 -s -J --logfile /chemin/iperf3.json" ca permettrait de faire des stats sur le taux d'utilisation d'IPerf3 (et de faire des graphes sur le Retr par exemple). Si t'as les logs des autres services (apache et nperf?) avec les dates ca permet de 'calculer' le crosstalk.

Il serait bien de tester Goben sur ce serveur aussi pour voir si IPerf3 a une influence.

Je travaille a développer un "curl/wget vers /dev/null" multi-threadé ca permettra de comparer avec iperf3 et Goben.


l'histoire des 16 files tc disc mal reparties est suspicieuse aussi. Sur un petit serveur ou la carte réseau n'a que 2 files si je fais un iperf3 ca utilise la 1er puis le suivant la 2eme etc. Donc sur une journée en moyenne les 2 files ont a peu pres émit la meme quantité.

Sur ton serveur:

2444 GB 1732 Mpackets
1120 GB 810 Mpackets
1624 GB 1161 Mpackets
1394 GB 1002 Mpackets
1750 GB 1260 Mpackets
2588 GB 1846 Mpackets
1216 GB 883 Mpackets
1083 GB 789 Mpackets

T'as une file qui a émit 2.5 TB  et une autre avec 1.1TB soit 2x moins. Je doute qu'un seul flux est occupé 1TB a lui seul ou alors c'est basé sur un hash destination ? T'as bien 'mq' en root sur tc disc ?


Breizh29

  • Abonné Free fibre
  • *
  • Messages: 408
  • Ergué-Gabéric (29)
FTTH 10G Free: Mesure de débit automatisé avec iPerf3 en IPv4 vs IPv6
« Réponse #155 le: 23 janvier 2020 à 09:07:19 »
Mise à jour de ce matin 8h50.
Illinois fonctionne pas mal en monothread...