Auteur Sujet: FTTH 10G Free: Mesure de débit automatisé avec iPerf3 en IPv4 vs IPv6  (Lu 76149 fois)

0 Membres et 1 Invité sur ce sujet

Breizh29

  • Abonné Free fibre
  • *
  • Messages: 408
  • Ergué-Gabéric (29)
FTTH 10G Free: Mesure de débit automatisé avec iPerf3 en IPv4 vs IPv6
« Réponse #108 le: 17 janvier 2020 à 08:25:36 »
Mise à jour de ce matin, 8h.

Question: en monothread, pourquoi ne dépasse-t-on jamais 1,3 Gb/s environ (là, c'est flagrant) ?
Est-ce une limite liée au paramétrage de la pile TCP ? du PC ?

vivien

  • Administrateur
  • *
  • Messages: 47 282
    • Twitter LaFibre.info
FTTH 10G Free: Mesure de débit automatisé avec iPerf3 en IPv4 vs IPv6
« Réponse #109 le: 17 janvier 2020 à 09:37:43 »
Depuis 9h32 on est passé en cubic pour l'algorithme d'évitement de congestion TCP.

Avant on était en illinois.

Petit rectificatif : le passage du kernel 5.0 au kernel 5.3 s'est fait à 5h56 ce matin et non 6h56.
On semble voir que cela ne change rien dans ton graphique, de même que les nombreuses optimisations réalisées les deux jours précédents.

Breizh29

  • Abonné Free fibre
  • *
  • Messages: 408
  • Ergué-Gabéric (29)
FTTH 10G Free: Mesure de débit automatisé avec iPerf3 en IPv4 vs IPv6
« Réponse #110 le: 17 janvier 2020 à 11:32:11 »
@Vivien

Je ne sais pas encore si ça vient de chez moi ou de tes changements, mais je n'arrive plus à avoir des résultats en IPv6 depuis tes modifs... timeout sur tous les n° de port.
J'ai pas trop d'accès de là où je travaille, donc ma capacité d'analyse est limitée.
Peux-tu jeter un oeil de ton côté ?

EDIT: bon je regarderai dès que je pourrai, mais le truc est parti en vrille suite à l'intervention.
« Modifié: 17 janvier 2020 à 11:58:02 par Breizh29 »

Breizh29

  • Abonné Free fibre
  • *
  • Messages: 408
  • Ergué-Gabéric (29)
FTTH 10G Free: Mesure de débit automatisé avec iPerf3 en IPv4 vs IPv6
« Réponse #111 le: 17 janvier 2020 à 14:40:47 »
Bon, je confirme que tous les lancements iperf3 en IPv6 tombent en timeout, port après port...

darkmoon

  • Abonné Free fibre
  • *
  • Messages: 760
  • ↓ 8 Gbps | ↑ 8 Gbps (SGL 69)
FTTH 10G Free: Mesure de débit automatisé avec iPerf3 en IPv4 vs IPv6
« Réponse #112 le: 17 janvier 2020 à 15:09:44 »
Pas de soucis de mon coté, en ipv6 ça passe sans soucis via paris.testdebit.info

moon@Freeze:[~] > iperf3 -f m -c paris.testdebit.info -p 5205 -6 -R -P4 -t 2
Connecting to host paris.testdebit.info, port 5205
Reverse mode, remote host paris.testdebit.info is sending
[  5] local 2a01:e0a:1d2:xxxx::xxxx:xxxx port 48850 connected to 2001:860:de01:1100::2 port 5205
[  7] local 2a01:e0a:1d2:xxxx::xxxx:xxxx port 48852 connected to 2001:860:de01:1100::2 port 5205
[  9] local 2a01:e0a:1d2:xxxx::xxxx:xxxx port 48854 connected to 2001:860:de01:1100::2 port 5205
[ 11] local 2a01:e0a:1d2:xxxx::xxxx:xxxx port 48856 connected to 2001:860:de01:1100::2 port 5205
[ ID] Interval           Transfer     Bitrate
[  5]   0.00-1.00   sec  26.9 MBytes   226 Mbits/sec
[  7]   0.00-1.00   sec  25.4 MBytes   213 Mbits/sec
[  9]   0.00-1.00   sec  24.8 MBytes   208 Mbits/sec
[ 11]   0.00-1.00   sec  26.8 MBytes   225 Mbits/sec
[SUM]   0.00-1.00   sec   104 MBytes   871 Mbits/sec
- - - - - - - - - - - - - - - - - - - - - - - - -
[  5]   1.00-2.00   sec  27.9 MBytes   234 Mbits/sec
[  7]   1.00-2.00   sec  29.3 MBytes   246 Mbits/sec
[  9]   1.00-2.00   sec  22.7 MBytes   190 Mbits/sec
[ 11]   1.00-2.00   sec  30.8 MBytes   258 Mbits/sec
[SUM]   1.00-2.00   sec   111 MBytes   928 Mbits/sec
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bitrate         Retr
[  5]   0.00-2.00   sec  56.9 MBytes   239 Mbits/sec  125             sender
[  5]   0.00-2.00   sec  54.8 MBytes   230 Mbits/sec                  receiver
[  7]   0.00-2.00   sec  56.8 MBytes   238 Mbits/sec  131             sender
[  7]   0.00-2.00   sec  54.7 MBytes   230 Mbits/sec                  receiver
[  9]   0.00-2.00   sec  49.6 MBytes   208 Mbits/sec   94             sender
[  9]   0.00-2.00   sec  47.5 MBytes   199 Mbits/sec                  receiver
[ 11]   0.00-2.00   sec  59.6 MBytes   250 Mbits/sec  124             sender
[ 11]   0.00-2.00   sec  57.6 MBytes   241 Mbits/sec                  receiver
[SUM]   0.00-2.00   sec   223 MBytes   935 Mbits/sec  474             sender
[SUM]   0.00-2.00   sec   215 MBytes   900 Mbits/sec                  receiver

iperf Done.

Breizh29

  • Abonné Free fibre
  • *
  • Messages: 408
  • Ergué-Gabéric (29)
FTTH 10G Free: Mesure de débit automatisé avec iPerf3 en IPv4 vs IPv6
« Réponse #113 le: 17 janvier 2020 à 15:27:16 »
OK, alors je vais tenter un reboot machine...
C'est marrant, aucun problème en IPv4, mais plus rien en IPv6

Breizh29

  • Abonné Free fibre
  • *
  • Messages: 408
  • Ergué-Gabéric (29)
FTTH 10G Free: Mesure de débit automatisé avec iPerf3 en IPv4 vs IPv6
« Réponse #114 le: 17 janvier 2020 à 15:32:25 »
Après reboot machine, c'est bon en IPv6 aussi.
A n'y rien comprendre...

daleksek

  • Abonné Orange Fibre
  • *
  • Messages: 1 372
FTTH 10G Free: Mesure de débit automatisé avec iPerf3 en IPv4 vs IPv6
« Réponse #115 le: 17 janvier 2020 à 17:41:32 »
C'est pas en rapport avec le DNS ?

vivien

  • Administrateur
  • *
  • Messages: 47 282
    • Twitter LaFibre.info
FTTH 10G Free: Mesure de débit automatisé avec iPerf3 en IPv4 vs IPv6
« Réponse #116 le: 17 janvier 2020 à 21:26:28 »
Je n'ai pas répondu, mais le serveur a toujours sont trafic habituel.

Le pb c'était le port iperf3 occupé ?

J'ai prévu un changement des ports iPerf3 quand je passerais à la nouvelle version.
Il y aura plus de ports disponibles.

Aujourd'hui : Apache écoute du port 1 au port 32767 (sauf les ports 5200 à 5209 qui écoutent avec iPerf3) pour des tests de neutralité.

Demain : du port 1 au port 9199, car il n'y a pas d'application intéressante à tester au delà de 9051 (Tor). Les ports iPerf3 seront à la suite, du port 9200 à 9222, soit 23 ports contre 10 aujourd'hui.

vivien

  • Administrateur
  • *
  • Messages: 47 282
    • Twitter LaFibre.info
FTTH 10G Free: Mesure de débit automatisé avec iPerf3 en IPv4 vs IPv6
« Réponse #117 le: 18 janvier 2020 à 09:44:07 »
Modification du jour (à 9h42) :

Passer de fq (généralement recommandé pour du 10 Gb/s) à fq_codel (défault pour Ubuntu 18.04)

On avait vu une baisse de débit en passant à fq_codel, je voudrais voir si c'est bien lié à en revenant en arrière sachant que l'on reste sur cubic en algo de congestion TCP.

Avant :
# cat /proc/sys/net/core/default_qdisc
fq
# tc qdisc show
qdisc noqueue 0: dev lo root refcnt 2
qdisc mq 0: dev enp1s0f0 root
qdisc fq 0: dev enp1s0f0 parent :10 limit 10000p flow_limit 100p buckets 1024 orphan_mask 1023 quantum 3028 initial_quantum 15140 low_rate_threshold 550Kbit refill_delay 40.0ms
qdisc fq 0: dev enp1s0f0 parent :f limit 10000p flow_limit 100p buckets 1024 orphan_mask 1023 quantum 3028 initial_quantum 15140 low_rate_threshold 550Kbit refill_delay 40.0ms
qdisc fq 0: dev enp1s0f0 parent :e limit 10000p flow_limit 100p buckets 1024 orphan_mask 1023 quantum 3028 initial_quantum 15140 low_rate_threshold 550Kbit refill_delay 40.0ms
qdisc fq 0: dev enp1s0f0 parent :d limit 10000p flow_limit 100p buckets 1024 orphan_mask 1023 quantum 3028 initial_quantum 15140 low_rate_threshold 550Kbit refill_delay 40.0ms
qdisc fq 0: dev enp1s0f0 parent :c limit 10000p flow_limit 100p buckets 1024 orphan_mask 1023 quantum 3028 initial_quantum 15140 low_rate_threshold 550Kbit refill_delay 40.0ms
qdisc fq 0: dev enp1s0f0 parent :b limit 10000p flow_limit 100p buckets 1024 orphan_mask 1023 quantum 3028 initial_quantum 15140 low_rate_threshold 550Kbit refill_delay 40.0ms
qdisc fq 0: dev enp1s0f0 parent :a limit 10000p flow_limit 100p buckets 1024 orphan_mask 1023 quantum 3028 initial_quantum 15140 low_rate_threshold 550Kbit refill_delay 40.0ms
qdisc fq 0: dev enp1s0f0 parent :9 limit 10000p flow_limit 100p buckets 1024 orphan_mask 1023 quantum 3028 initial_quantum 15140 low_rate_threshold 550Kbit refill_delay 40.0ms
qdisc fq 0: dev enp1s0f0 parent :8 limit 10000p flow_limit 100p buckets 1024 orphan_mask 1023 quantum 3028 initial_quantum 15140 low_rate_threshold 550Kbit refill_delay 40.0ms
qdisc fq 0: dev enp1s0f0 parent :7 limit 10000p flow_limit 100p buckets 1024 orphan_mask 1023 quantum 3028 initial_quantum 15140 low_rate_threshold 550Kbit refill_delay 40.0ms
qdisc fq 0: dev enp1s0f0 parent :6 limit 10000p flow_limit 100p buckets 1024 orphan_mask 1023 quantum 3028 initial_quantum 15140 low_rate_threshold 550Kbit refill_delay 40.0ms
qdisc fq 0: dev enp1s0f0 parent :5 limit 10000p flow_limit 100p buckets 1024 orphan_mask 1023 quantum 3028 initial_quantum 15140 low_rate_threshold 550Kbit refill_delay 40.0ms
qdisc fq 0: dev enp1s0f0 parent :4 limit 10000p flow_limit 100p buckets 1024 orphan_mask 1023 quantum 3028 initial_quantum 15140 low_rate_threshold 550Kbit refill_delay 40.0ms
qdisc fq 0: dev enp1s0f0 parent :3 limit 10000p flow_limit 100p buckets 1024 orphan_mask 1023 quantum 3028 initial_quantum 15140 low_rate_threshold 550Kbit refill_delay 40.0ms
qdisc fq 0: dev enp1s0f0 parent :2 limit 10000p flow_limit 100p buckets 1024 orphan_mask 1023 quantum 3028 initial_quantum 15140 low_rate_threshold 550Kbit refill_delay 40.0ms
qdisc fq 0: dev enp1s0f0 parent :1 limit 10000p flow_limit 100p buckets 1024 orphan_mask 1023 quantum 3028 initial_quantum 15140 low_rate_threshold 550Kbit refill_delay 40.0ms

Maintenant :
$ cat /proc/sys/net/core/default_qdisc
fq_codel
# tc qdisc show
qdisc noqueue 0: dev lo root refcnt 2
qdisc mq 0: dev enp1s0f0 root
qdisc fq_codel 0: dev enp1s0f0 parent :10 limit 10240p flows 1024 quantum 1514 target 5.0ms interval 100.0ms memory_limit 32Mb ecn
qdisc fq_codel 0: dev enp1s0f0 parent :f limit 10240p flows 1024 quantum 1514 target 5.0ms interval 100.0ms memory_limit 32Mb ecn
qdisc fq_codel 0: dev enp1s0f0 parent :e limit 10240p flows 1024 quantum 1514 target 5.0ms interval 100.0ms memory_limit 32Mb ecn
qdisc fq_codel 0: dev enp1s0f0 parent :d limit 10240p flows 1024 quantum 1514 target 5.0ms interval 100.0ms memory_limit 32Mb ecn
qdisc fq_codel 0: dev enp1s0f0 parent :c limit 10240p flows 1024 quantum 1514 target 5.0ms interval 100.0ms memory_limit 32Mb ecn
qdisc fq_codel 0: dev enp1s0f0 parent :b limit 10240p flows 1024 quantum 1514 target 5.0ms interval 100.0ms memory_limit 32Mb ecn
qdisc fq_codel 0: dev enp1s0f0 parent :a limit 10240p flows 1024 quantum 1514 target 5.0ms interval 100.0ms memory_limit 32Mb ecn
qdisc fq_codel 0: dev enp1s0f0 parent :9 limit 10240p flows 1024 quantum 1514 target 5.0ms interval 100.0ms memory_limit 32Mb ecn
qdisc fq_codel 0: dev enp1s0f0 parent :8 limit 10240p flows 1024 quantum 1514 target 5.0ms interval 100.0ms memory_limit 32Mb ecn
qdisc fq_codel 0: dev enp1s0f0 parent :7 limit 10240p flows 1024 quantum 1514 target 5.0ms interval 100.0ms memory_limit 32Mb ecn
qdisc fq_codel 0: dev enp1s0f0 parent :6 limit 10240p flows 1024 quantum 1514 target 5.0ms interval 100.0ms memory_limit 32Mb ecn
qdisc fq_codel 0: dev enp1s0f0 parent :5 limit 10240p flows 1024 quantum 1514 target 5.0ms interval 100.0ms memory_limit 32Mb ecn
qdisc fq_codel 0: dev enp1s0f0 parent :4 limit 10240p flows 1024 quantum 1514 target 5.0ms interval 100.0ms memory_limit 32Mb ecn
qdisc fq_codel 0: dev enp1s0f0 parent :3 limit 10240p flows 1024 quantum 1514 target 5.0ms interval 100.0ms memory_limit 32Mb ecn
qdisc fq_codel 0: dev enp1s0f0 parent :2 limit 10240p flows 1024 quantum 1514 target 5.0ms interval 100.0ms memory_limit 32Mb ecn
qdisc fq_codel 0: dev enp1s0f0 parent :1 limit 10240p flows 1024 quantum 1514 target 5.0ms interval 100.0ms memory_limit 32Mb ecn

Breizh29

  • Abonné Free fibre
  • *
  • Messages: 408
  • Ergué-Gabéric (29)
FTTH 10G Free: Mesure de débit automatisé avec iPerf3 en IPv4 vs IPv6
« Réponse #118 le: 18 janvier 2020 à 13:42:29 »
Mise à jour à 13h30.

- En multithread, on retrouve le comportement précédemment observé avec Cubic. Cela dit, la chute d'hier soir semble moindre que lors des précédentes tentatives : effet des autres optimisations peut-être ? on tient peut-être une alternative avantageuse à Illinois, surtout si on peut encore améliorer. A confirmer sur la durée.

- En mono thread, moins de stabilité on dirait. Effet week-end peut-être ?

kgersen

  • Modérateur
  • Abonné Bbox fibre
  • *
  • Messages: 9 102
  • Paris (75)
FTTH 10G Free: Mesure de débit automatisé avec iPerf3 en IPv4 vs IPv6
« Réponse #119 le: 18 janvier 2020 à 15:48:52 »
"tc -s qdisc show dev enp1s0f0"  c'est plus utile.

Je ne vois pas pourquoi tu cherches a changer la qdisc sur le serveur, tu veux privilégier un traffic plus qu'un autre ? y'a quoi d'autre sur ce serveur en plus d'IPerf3 ?

(l'histoire du qdisc fq pour BBR ne concernait que les anciens kernel. la confusion vient peut-etre de la)