}
 EXPORT_SYMBOL(tcp_v4_md5_hash_skb);
 
+#endif
+
 /* Called with rcu_read_lock() */
-static bool tcp_v4_inbound_md5_hash(struct sock *sk,
+static bool tcp_v4_inbound_md5_hash(const struct sock *sk,
                                    const struct sk_buff *skb)
 {
+#ifdef CONFIG_TCP_MD5SIG
        /*
         * This gets called for each TCP segment that arrives
         * so we want to be efficient.
                return true;
        }
        return false;
-}
 #endif
+       return false;
+}
 
 static void tcp_v4_init_req(struct request_sock *req,
                            const struct sock *sk_listener,
        if (!xfrm4_policy_check(sk, XFRM_POLICY_IN, skb))
                goto discard_and_relse;
 
-#ifdef CONFIG_TCP_MD5SIG
-       /*
-        * We really want to reject the packet as early as possible
-        * if:
-        *  o We're expecting an MD5'd packet and this is no MD5 tcp option
-        *  o There is an MD5 option and we're not expecting one
-        */
        if (tcp_v4_inbound_md5_hash(sk, skb))
                goto discard_and_relse;
-#endif
 
        nf_reset(skb);
 
 
        return 1;
 }
 
-static bool tcp_v6_inbound_md5_hash(struct sock *sk, const struct sk_buff *skb)
+#endif
+
+static bool tcp_v6_inbound_md5_hash(const struct sock *sk,
+                                   const struct sk_buff *skb)
 {
+#ifdef CONFIG_TCP_MD5SIG
        const __u8 *hash_location = NULL;
        struct tcp_md5sig_key *hash_expected;
        const struct ipv6hdr *ip6h = ipv6_hdr(skb);
                                     &ip6h->daddr, ntohs(th->dest));
                return true;
        }
+#endif
        return false;
 }
-#endif
 
 static void tcp_v6_init_req(struct request_sock *req,
                            const struct sock *sk_listener,
 
        tcp_v6_fill_cb(skb, hdr, th);
 
-#ifdef CONFIG_TCP_MD5SIG
        if (tcp_v6_inbound_md5_hash(sk, skb))
                goto discard_and_relse;
-#endif
 
        if (sk_filter(sk, skb))
                goto discard_and_relse;