Merge tag 'ktest-v5.11' of git://git.kernel.org/pub/scm/linux/kernel/git/rostedt...
[linux-2.6-microblaze.git] / net / netfilter / nft_flow_offload.c
1 // SPDX-License-Identifier: GPL-2.0-only
2 #include <linux/kernel.h>
3 #include <linux/module.h>
4 #include <linux/init.h>
5 #include <linux/netlink.h>
6 #include <linux/netfilter.h>
7 #include <linux/workqueue.h>
8 #include <linux/spinlock.h>
9 #include <linux/netfilter/nf_conntrack_common.h>
10 #include <linux/netfilter/nf_tables.h>
11 #include <net/ip.h> /* for ipv4 options. */
12 #include <net/netfilter/nf_tables.h>
13 #include <net/netfilter/nf_tables_core.h>
14 #include <net/netfilter/nf_conntrack_core.h>
15 #include <net/netfilter/nf_conntrack_extend.h>
16 #include <net/netfilter/nf_flow_table.h>
17
18 struct nft_flow_offload {
19         struct nft_flowtable    *flowtable;
20 };
21
22 static int nft_flow_route(const struct nft_pktinfo *pkt,
23                           const struct nf_conn *ct,
24                           struct nf_flow_route *route,
25                           enum ip_conntrack_dir dir)
26 {
27         struct dst_entry *this_dst = skb_dst(pkt->skb);
28         struct dst_entry *other_dst = NULL;
29         struct flowi fl;
30
31         memset(&fl, 0, sizeof(fl));
32         switch (nft_pf(pkt)) {
33         case NFPROTO_IPV4:
34                 fl.u.ip4.daddr = ct->tuplehash[dir].tuple.src.u3.ip;
35                 fl.u.ip4.flowi4_oif = nft_in(pkt)->ifindex;
36                 break;
37         case NFPROTO_IPV6:
38                 fl.u.ip6.daddr = ct->tuplehash[dir].tuple.src.u3.in6;
39                 fl.u.ip6.flowi6_oif = nft_in(pkt)->ifindex;
40                 break;
41         }
42
43         nf_route(nft_net(pkt), &other_dst, &fl, false, nft_pf(pkt));
44         if (!other_dst)
45                 return -ENOENT;
46
47         route->tuple[dir].dst           = this_dst;
48         route->tuple[!dir].dst          = other_dst;
49
50         return 0;
51 }
52
53 static bool nft_flow_offload_skip(struct sk_buff *skb, int family)
54 {
55         if (skb_sec_path(skb))
56                 return true;
57
58         if (family == NFPROTO_IPV4) {
59                 const struct ip_options *opt;
60
61                 opt = &(IPCB(skb)->opt);
62
63                 if (unlikely(opt->optlen))
64                         return true;
65         }
66
67         return false;
68 }
69
70 static void nft_flow_offload_eval(const struct nft_expr *expr,
71                                   struct nft_regs *regs,
72                                   const struct nft_pktinfo *pkt)
73 {
74         struct nft_flow_offload *priv = nft_expr_priv(expr);
75         struct nf_flowtable *flowtable = &priv->flowtable->data;
76         struct tcphdr _tcph, *tcph = NULL;
77         enum ip_conntrack_info ctinfo;
78         struct nf_flow_route route;
79         struct flow_offload *flow;
80         enum ip_conntrack_dir dir;
81         struct nf_conn *ct;
82         int ret;
83
84         if (nft_flow_offload_skip(pkt->skb, nft_pf(pkt)))
85                 goto out;
86
87         ct = nf_ct_get(pkt->skb, &ctinfo);
88         if (!ct)
89                 goto out;
90
91         switch (ct->tuplehash[IP_CT_DIR_ORIGINAL].tuple.dst.protonum) {
92         case IPPROTO_TCP:
93                 tcph = skb_header_pointer(pkt->skb, pkt->xt.thoff,
94                                           sizeof(_tcph), &_tcph);
95                 if (unlikely(!tcph || tcph->fin || tcph->rst))
96                         goto out;
97                 break;
98         case IPPROTO_UDP:
99                 break;
100         default:
101                 goto out;
102         }
103
104         if (nf_ct_ext_exist(ct, NF_CT_EXT_HELPER) ||
105             ct->status & (IPS_SEQ_ADJUST | IPS_NAT_CLASH))
106                 goto out;
107
108         if (!nf_ct_is_confirmed(ct))
109                 goto out;
110
111         if (test_and_set_bit(IPS_OFFLOAD_BIT, &ct->status))
112                 goto out;
113
114         dir = CTINFO2DIR(ctinfo);
115         if (nft_flow_route(pkt, ct, &route, dir) < 0)
116                 goto err_flow_route;
117
118         flow = flow_offload_alloc(ct);
119         if (!flow)
120                 goto err_flow_alloc;
121
122         if (flow_offload_route_init(flow, &route) < 0)
123                 goto err_flow_add;
124
125         if (tcph) {
126                 ct->proto.tcp.seen[0].flags |= IP_CT_TCP_FLAG_BE_LIBERAL;
127                 ct->proto.tcp.seen[1].flags |= IP_CT_TCP_FLAG_BE_LIBERAL;
128         }
129
130         ret = flow_offload_add(flowtable, flow);
131         if (ret < 0)
132                 goto err_flow_add;
133
134         dst_release(route.tuple[!dir].dst);
135         return;
136
137 err_flow_add:
138         flow_offload_free(flow);
139 err_flow_alloc:
140         dst_release(route.tuple[!dir].dst);
141 err_flow_route:
142         clear_bit(IPS_OFFLOAD_BIT, &ct->status);
143 out:
144         regs->verdict.code = NFT_BREAK;
145 }
146
147 static int nft_flow_offload_validate(const struct nft_ctx *ctx,
148                                      const struct nft_expr *expr,
149                                      const struct nft_data **data)
150 {
151         unsigned int hook_mask = (1 << NF_INET_FORWARD);
152
153         return nft_chain_validate_hooks(ctx->chain, hook_mask);
154 }
155
156 static const struct nla_policy nft_flow_offload_policy[NFTA_FLOW_MAX + 1] = {
157         [NFTA_FLOW_TABLE_NAME]  = { .type = NLA_STRING,
158                                     .len = NFT_NAME_MAXLEN - 1 },
159 };
160
161 static int nft_flow_offload_init(const struct nft_ctx *ctx,
162                                  const struct nft_expr *expr,
163                                  const struct nlattr * const tb[])
164 {
165         struct nft_flow_offload *priv = nft_expr_priv(expr);
166         u8 genmask = nft_genmask_next(ctx->net);
167         struct nft_flowtable *flowtable;
168
169         if (!tb[NFTA_FLOW_TABLE_NAME])
170                 return -EINVAL;
171
172         flowtable = nft_flowtable_lookup(ctx->table, tb[NFTA_FLOW_TABLE_NAME],
173                                          genmask);
174         if (IS_ERR(flowtable))
175                 return PTR_ERR(flowtable);
176
177         priv->flowtable = flowtable;
178         flowtable->use++;
179
180         return nf_ct_netns_get(ctx->net, ctx->family);
181 }
182
183 static void nft_flow_offload_deactivate(const struct nft_ctx *ctx,
184                                         const struct nft_expr *expr,
185                                         enum nft_trans_phase phase)
186 {
187         struct nft_flow_offload *priv = nft_expr_priv(expr);
188
189         nf_tables_deactivate_flowtable(ctx, priv->flowtable, phase);
190 }
191
192 static void nft_flow_offload_activate(const struct nft_ctx *ctx,
193                                       const struct nft_expr *expr)
194 {
195         struct nft_flow_offload *priv = nft_expr_priv(expr);
196
197         priv->flowtable->use++;
198 }
199
200 static void nft_flow_offload_destroy(const struct nft_ctx *ctx,
201                                      const struct nft_expr *expr)
202 {
203         nf_ct_netns_put(ctx->net, ctx->family);
204 }
205
206 static int nft_flow_offload_dump(struct sk_buff *skb, const struct nft_expr *expr)
207 {
208         struct nft_flow_offload *priv = nft_expr_priv(expr);
209
210         if (nla_put_string(skb, NFTA_FLOW_TABLE_NAME, priv->flowtable->name))
211                 goto nla_put_failure;
212
213         return 0;
214
215 nla_put_failure:
216         return -1;
217 }
218
219 static struct nft_expr_type nft_flow_offload_type;
220 static const struct nft_expr_ops nft_flow_offload_ops = {
221         .type           = &nft_flow_offload_type,
222         .size           = NFT_EXPR_SIZE(sizeof(struct nft_flow_offload)),
223         .eval           = nft_flow_offload_eval,
224         .init           = nft_flow_offload_init,
225         .activate       = nft_flow_offload_activate,
226         .deactivate     = nft_flow_offload_deactivate,
227         .destroy        = nft_flow_offload_destroy,
228         .validate       = nft_flow_offload_validate,
229         .dump           = nft_flow_offload_dump,
230 };
231
232 static struct nft_expr_type nft_flow_offload_type __read_mostly = {
233         .name           = "flow_offload",
234         .ops            = &nft_flow_offload_ops,
235         .policy         = nft_flow_offload_policy,
236         .maxattr        = NFTA_FLOW_MAX,
237         .owner          = THIS_MODULE,
238 };
239
240 static int flow_offload_netdev_event(struct notifier_block *this,
241                                      unsigned long event, void *ptr)
242 {
243         struct net_device *dev = netdev_notifier_info_to_dev(ptr);
244
245         if (event != NETDEV_DOWN)
246                 return NOTIFY_DONE;
247
248         nf_flow_table_cleanup(dev);
249
250         return NOTIFY_DONE;
251 }
252
253 static struct notifier_block flow_offload_netdev_notifier = {
254         .notifier_call  = flow_offload_netdev_event,
255 };
256
257 static int __init nft_flow_offload_module_init(void)
258 {
259         int err;
260
261         err = register_netdevice_notifier(&flow_offload_netdev_notifier);
262         if (err)
263                 goto err;
264
265         err = nft_register_expr(&nft_flow_offload_type);
266         if (err < 0)
267                 goto register_expr;
268
269         return 0;
270
271 register_expr:
272         unregister_netdevice_notifier(&flow_offload_netdev_notifier);
273 err:
274         return err;
275 }
276
277 static void __exit nft_flow_offload_module_exit(void)
278 {
279         nft_unregister_expr(&nft_flow_offload_type);
280         unregister_netdevice_notifier(&flow_offload_netdev_notifier);
281 }
282
283 module_init(nft_flow_offload_module_init);
284 module_exit(nft_flow_offload_module_exit);
285
286 MODULE_LICENSE("GPL");
287 MODULE_AUTHOR("Pablo Neira Ayuso <pablo@netfilter.org>");
288 MODULE_ALIAS_NFT_EXPR("flow_offload");
289 MODULE_DESCRIPTION("nftables hardware flow offload module");