KVM: X86: Force ASYNC_PF_PER_VCPU to be power of two
authorPeter Xu <peterx@redhat.com>
Thu, 16 Apr 2020 15:58:59 +0000 (11:58 -0400)
committerPaolo Bonzini <pbonzini@redhat.com>
Fri, 15 May 2020 16:26:13 +0000 (12:26 -0400)
Forcing the ASYNC_PF_PER_VCPU to be power of two is much easier to be
used rather than calling roundup_pow_of_two() from time to time.  Do
this by adding a BUILD_BUG_ON() inside the hash function.

Another point is that generally async pf does not allow concurrency
over ASYNC_PF_PER_VCPU after all (see kvm_setup_async_pf()), so it
does not make much sense either to have it not a power of two or some
of the entries will definitely be wasted.

Signed-off-by: Peter Xu <peterx@redhat.com>
Message-Id: <20200416155859.267366-1-peterx@redhat.com>
Signed-off-by: Paolo Bonzini <pbonzini@redhat.com>
arch/x86/include/asm/kvm_host.h
arch/x86/kvm/x86.c

index b8d0356..04f4496 100644 (file)
@@ -763,7 +763,7 @@ struct kvm_vcpu_arch {
 
        struct {
                bool halted;
-               gfn_t gfns[roundup_pow_of_two(ASYNC_PF_PER_VCPU)];
+               gfn_t gfns[ASYNC_PF_PER_VCPU];
                struct gfn_to_hva_cache data;
                u64 msr_val;
                u32 id;
index a52ef81..8e28f21 100644 (file)
@@ -257,7 +257,7 @@ static int emulator_fix_hypercall(struct x86_emulate_ctxt *ctxt);
 static inline void kvm_async_pf_hash_reset(struct kvm_vcpu *vcpu)
 {
        int i;
-       for (i = 0; i < roundup_pow_of_two(ASYNC_PF_PER_VCPU); i++)
+       for (i = 0; i < ASYNC_PF_PER_VCPU; i++)
                vcpu->arch.apf.gfns[i] = ~0;
 }
 
@@ -10310,12 +10310,14 @@ void kvm_arch_async_page_ready(struct kvm_vcpu *vcpu, struct kvm_async_pf *work)
 
 static inline u32 kvm_async_pf_hash_fn(gfn_t gfn)
 {
+       BUILD_BUG_ON(!is_power_of_2(ASYNC_PF_PER_VCPU));
+
        return hash_32(gfn & 0xffffffff, order_base_2(ASYNC_PF_PER_VCPU));
 }
 
 static inline u32 kvm_async_pf_next_probe(u32 key)
 {
-       return (key + 1) & (roundup_pow_of_two(ASYNC_PF_PER_VCPU) - 1);
+       return (key + 1) & (ASYNC_PF_PER_VCPU - 1);
 }
 
 static void kvm_add_async_pf_gfn(struct kvm_vcpu *vcpu, gfn_t gfn)
@@ -10333,7 +10335,7 @@ static u32 kvm_async_pf_gfn_slot(struct kvm_vcpu *vcpu, gfn_t gfn)
        int i;
        u32 key = kvm_async_pf_hash_fn(gfn);
 
-       for (i = 0; i < roundup_pow_of_two(ASYNC_PF_PER_VCPU) &&
+       for (i = 0; i < ASYNC_PF_PER_VCPU &&
                     (vcpu->arch.apf.gfns[key] != gfn &&
                      vcpu->arch.apf.gfns[key] != ~0); i++)
                key = kvm_async_pf_next_probe(key);