Merge branch 'skb-gro-optimize'
authorDavid S. Miller <davem@davemloft.net>
Thu, 29 Jul 2021 11:18:51 +0000 (12:18 +0100)
committerDavid S. Miller <davem@davemloft.net>
Thu, 29 Jul 2021 11:18:51 +0000 (12:18 +0100)
commit8cb79af5c63ff2dbcab048085302256dd7e8208d
tree3fd1eae06a0bb5286063d8aed35c11a51db5c531
parent883d71a55e968371d1ff151249732466b5581f58
parentd504fff0d14a0fd683e9ec1f736c6e1f894667ae
Merge branch 'skb-gro-optimize'

Paolo Abeni says:

====================
sk_buff: optimize GRO for the common case

This is a trimmed down revision of "sk_buff: optimize layout for GRO",
specifically dropping the changes to the sk_buff layout[1].

This series tries to accomplish 2 goals:
- optimize the GRO stage for the most common scenario, avoiding a bunch
  of conditional and some more code
- let owned skbs entering the GRO engine, allowing backpressure in the
  veth GRO forward path.

A new sk_buff flag (!!!) is introduced and maintained for GRO's sake.
Such field uses an existing hole, so there is no change to the sk_buff
size.

[1] two main reasons:
- move skb->inner_ field requires some extra care, as some in kernel
  users access and the fields regardless of skb->encapsulation.
- extending secmark size clash with ct and nft uAPIs

address the all above is possible, I think, but for sure not in a single
series.
====================

Signed-off-by: David S. Miller <davem@davemloft.net>