veth: Support bulk XDP_TX
authorToshiaki Makita <toshiaki.makita1@gmail.com>
Thu, 13 Jun 2019 09:39:59 +0000 (18:39 +0900)
committerDaniel Borkmann <daniel@iogearbox.net>
Tue, 25 Jun 2019 12:26:54 +0000 (14:26 +0200)
commit9cda7807ee1e25a3771b5357d9fb12991b2550f9
tree747233a818a6d631686f424c52f5838dd3909655
parente7d4798960b3ebcd243ae6a59e04d4fe6518c96c
veth: Support bulk XDP_TX

XDP_TX is similar to XDP_REDIRECT as it essentially redirects packets to
the device itself. XDP_REDIRECT has bulk transmit mechanism to avoid the
heavy cost of indirect call but it also reduces lock acquisition on the
destination device that needs locks like veth and tun.

XDP_TX does not use indirect calls but drivers which require locks can
benefit from the bulk transmit for XDP_TX as well.

This patch introduces bulk transmit mechanism in veth using bulk queue
on stack, and improves XDP_TX performance by about 9%.

Here are single-core/single-flow XDP_TX test results. CPU consumptions
are taken from "perf report --no-child".

- Before:

  7.26 Mpps

  _raw_spin_lock  7.83%
  veth_xdp_xmit  12.23%

- After:

  7.94 Mpps

  _raw_spin_lock  1.08%
  veth_xdp_xmit   6.10%

v2:
- Use stack for bulk queue instead of a global variable.

Signed-off-by: Toshiaki Makita <toshiaki.makita1@gmail.com>
Acked-by: Jesper Dangaard Brouer <brouer@redhat.com>
Signed-off-by: Daniel Borkmann <daniel@iogearbox.net>
drivers/net/veth.c