Auteur Sujet: TCP offload engine - Segmentation réalisée par la carte réseau  (Lu 24213 fois)

0 Membres et 1 Invité sur ce sujet

jack

  • Professionnel des télécoms
  • *
  • Messages: 1 473
  • La Madeleine (59)
TCP offload engine - Segmentation réalisée par la carte réseau
« Réponse #24 le: 08 août 2014 à 11:06:56 »
Vivien, tu as compris à quoi sert le TSO "émulé logiciellement" ?
Si je ne m'abuse, le TSO déporte la segmentation et le checksum sur la carte réseau, donc c'est bénéfique
Sans TSO (avant, donc), c'est le kernel qui se charge de couper et de compter
Avec le TSO émulé, c'est le kernel qui se charge de couper et de compter

J'ai surement raté un morceau  :(

Harvester

  • Client Orange Fibre
  • *
  • Messages: 8
  • Laval (53)
TCP offload engine - Segmentation réalisée par la carte réseau
« Réponse #25 le: 08 août 2014 à 12:13:06 »
Sauf qu'avant, apparemment, le kernel ne se comportait pas TSO-style pour le découpage et l'envoi des packets. Là, pour les drivers qui le supporte, tu émules un TSO logiciel, ce qui ne te fait rien gagner en terme de consommation CPU (il indique dans son commit 30% d'usage avec ou sans), mais permet de gagner en débit, car comme pour le TSO, tu envoies plus de packets d'un coup.

C'est comme ça que je le comprends à la lecture des commits et de la LKML, n'hésitez pas à me corriger...

EDIT:
Citer
Add SG and software TSO support for FEC. This feature allows to improve outbound throughput performance. Tested on imx6dl sabresd board, running iperf tcp tests shows: * 82% improvement comparing with NO SG & TSO patch

$ ethtool -K eth0 sg on $ ethtool -K eth0 tso on [ 3] local 10.192.242.108 port 35388 connected with 10.192.242.167 port 5001 [ ID] Interval Transfer Bandwidth [ 3] 0.0- 3.0 sec 181 MBytes 506 Mbits/sec * cpu loading is 30%

$ ethtool -K eth0 sg off $ ethtool -K eth0 tso off [ 3] local 10.192.242.108 port 52618 connected with 10.192.242.167 port 5001 [ ID] Interval Transfer Bandwidth [ 3] 0.0- 3.0 sec 99.5 MBytes 278 Mbits/sec

FEC HW support IP header and TCP/UDP hw checksum, support multi buffer descriptor transfer one frame, but don't support HW TSO. And imx6q/dl SOC FEC Gbps speed has HW bus Bandwidth limitation (400Mbps ~ 700Mbps), imx6sx SOC FEC Gbps speed has no HW bandwidth limitation.

The patch set just enable TSO feature, which is done following the mv643xx_eth driver.

Test result analyze: imx6dl sabresd board: there have 82% improvement, since imx6dl FEC HW has bandwidth limitation, the performance with SW TSO is a milestone.

Addition test: imx6sx sdb board: upstream still don't support imx6sx due to some patches being upstream... they use same FEC IP. Use the SW TSO patches test imx6sx sdb board in internal kernel tree: No SW TSO patch: tx bandwidth 840Mbps, cpu loading is 100%. SW TSO patch: tx bandwidth 942Mbps, cpu loading is 65%. It means the patch set have great improvement for imx6sx FEC performance.

https://gitorious.org/linux-can/linux-can-next/commit/fba0e1a3cfcc1d61e593f97650e18931a2aa1fc8

A final ça réduit quand même bien les cycles bouffés :)

jack

  • Professionnel des télécoms
  • *
  • Messages: 1 473
  • La Madeleine (59)
TCP offload engine - Segmentation réalisée par la carte réseau
« Réponse #26 le: 08 août 2014 à 13:13:52 »
Tu veux dire qu'avant, le kernel prenait chaque paquet un par un
Et après, il envoye des gros bloc à un module plus spécialisé ?


Harvester

  • Client Orange Fibre
  • *
  • Messages: 8
  • Laval (53)
TCP offload engine - Segmentation réalisée par la carte réseau
« Réponse #27 le: 08 août 2014 à 14:37:52 »
Non, avant il respectait la MTU pour séparer les paquets, ce qui génère pas mal d'overhead sur des gros fichiers: http://www.linuxjournal.com/content/queueing-linux-network-stack

Citer
Huge Packets from the Stack

Most NICs have a fixed maximum transmission unit (MTU), which is the biggest frame that can be transmitted by the physical media. For Ethernet, the default MTU is 1,500 bytes, but some Ethernet networks support Jumbo Frames (https://en.wikipedia.org/wiki/Jumbo_frame) of up to 9,000 bytes. Inside the IP network stack, the MTU can manifest as a limit on the size of the packets that are sent to the device for transmission. For example, if an application writes 2,000 bytes to a TCP socket, the IP stack needs to create two IP packets to keep the packet size less than or equal to a 1,500 MTU. For large data transfers, the comparably small MTU causes a large number of small packets to be created and transferred through the driver queue.

In order to avoid the overhead associated with a large number of packets on the transmit path, the Linux kernel implements several optimizations: TCP segmentation offload (TSO), UDP fragmentation offload (UFO) and generic segmentation offload (GSO). All of these optimizations allow the IP stack to create packets that are larger than the MTU of the outgoing NIC. For IPv4, packets as large as the IPv4 maximum of 65,536 bytes can be created and queued to the driver queue. In the case of TSO and UFO, the NIC hardware takes responsibility for breaking the single large packet into packets small enough to be transmitted on the physical interface. For NICs without hardware support, GSO performs the same operation in software immediately before queueing to the driver queue.

Ici, l'émulation est bien logicielle et se fait bien au niveau du driver (qui doivent donc être adaptés, d'où ma remarque d'au dessus sur les deux drivers implèmentants la chose), ce qui du coup explique aussi le gain CPU observé (moins de paquets à découper pour respecter la MTU).

Je sais pas si je suis très clair en fait...

vivien

  • Administrateur
  • *
  • Messages: 27 373
    • Twitter LaFibre.info
TCP offload engine - Segmentation réalisée par la carte réseau
« Réponse #28 le: 08 août 2014 à 14:41:19 »
J'ai bien compris le gain de décharger cette opération à la carte réseau.

Par contre je ne vois pas de gain à faire cette opération logiciellement au niveau du driver ou logiciellement dans la pile TCP/IP.

C'est un gain de CPU, de débit, de latence ou aucun des 3 ?

Harvester

  • Client Orange Fibre
  • *
  • Messages: 8
  • Laval (53)
TCP offload engine - Segmentation réalisée par la carte réseau
« Réponse #29 le: 08 août 2014 à 15:01:42 »
Citer
C'est un gain de CPU, de débit, de latence ou aucun des 3 ?

A la vue des micro-benchs postés dans les commits, CPU et débits (il y en a un dans la partie en gras dans mon édit deux messages au dessus).

En cherchant des détails sur la chose, on tombe sur un post de 2008 sur la mailing list d'OpenWall (distrib orientée serveurs) (!) ici: http://lists.openwall.net/netdev/2008/07/31/14 qui explique un peu plus clairement la chose:

Citer
If a netdevice does not support hardware GSO, allowing the stack to
use GSO anyway and then splitting the GSO skb into MSS-sized pieces
as it is handed to the netdevice for transmitting is likely still
a win at least as far as CPU usage is concerned, since it reduces
the number of trips through the output path.

This patch enables the use of GSO on any netdevice that supports SG
and hardware checksumming.  If a GSO skb is then sent to a netdevice
that supports SG and checksumming but does not support hardware GSO,
net/core/dev.c:dev_hard_start_xmit() will take care of doing the
necessary GSO segmentation in software.

Donc ce que j'en comprends, c'est qu'avant, on ne profitais pas du SG et du checksumming matériel sans TSO, ce qui est normal. La en émulant le TSO de façon logicielle, on peut en tirer parti, d'où les gains constatés que ce soit en terme de débit ou de conso CPU. Si quelqu'un à une meilleure explication...

vivien

  • Administrateur
  • *
  • Messages: 27 373
    • Twitter LaFibre.info
TCP offload engine - Segmentation réalisée par la carte réseau
« Réponse #30 le: 27 novembre 2017 à 08:34:36 »
Pour certaines cartes réseaux, le TOE - TCP Offload Engine est proposé en option payante.

Vous avez alors sur la carte mère un petit connecteur RJ11 pour le TOE : (c'est surtout sur des carte mère de serveur Dell commercialisées de 2006 à 2008)




Voici la clef TOE, qui sert juste a prouver que vous avez bien payé :



Le dos :


vivien

  • Administrateur
  • *
  • Messages: 27 373
    • Twitter LaFibre.info
TCP offload engine - Segmentation réalisée par la carte réseau
« Réponse #31 le: 27 novembre 2017 à 08:35:57 »
Voici la clef dans son connecteur :


Pour ceux qui n'ont pas acheté la clef avec le serveur, il est possible de l'acheter ultérieurement :


Il existe aussi des clef iSCSI :


vivien

  • Administrateur
  • *
  • Messages: 27 373
    • Twitter LaFibre.info
TCP offload engine - Segmentation réalisée par la carte réseau
« Réponse #32 le: 27 novembre 2017 à 08:40:13 »
Documentation sur le TCP offload engine :
(cliquez sur la miniature ci-dessous - le document est au format PDF)



Le BIOS permet de voir que le TOE est présent, mais que nous n'avons pas payé pour le iSCSI :


Le chip réseau de la carte en question :


vivien

  • Administrateur
  • *
  • Messages: 27 373
    • Twitter LaFibre.info
TCP offload engine - Segmentation réalisée par la carte réseau
« Réponse #33 le: 27 novembre 2017 à 08:55:37 »
Le driver permet de paramétrer le TOE :


(copie d'écran du driver de mai 2008 pour Windows Server 2003)

 

Mobile View