/*
  * Take gfn and return the reverse mapping to it.
  */
-static unsigned long *gfn_to_rmap(struct kvm *kvm, gfn_t gfn, int level)
+static unsigned long *gfn_to_rmap(struct kvm *kvm, gfn_t gfn, struct kvm_mmu_page *sp)
 {
        struct kvm_memory_slot *slot;
 
        slot = gfn_to_memslot(kvm, gfn);
-       return __gfn_to_rmap(gfn, level, slot);
+       return __gfn_to_rmap(gfn, sp->role.level, slot);
 }
 
 static bool rmap_can_add(struct kvm_vcpu *vcpu)
 
        sp = page_header(__pa(spte));
        kvm_mmu_page_set_gfn(sp, spte - sp->spt, gfn);
-       rmapp = gfn_to_rmap(vcpu->kvm, gfn, sp->role.level);
+       rmapp = gfn_to_rmap(vcpu->kvm, gfn, sp);
        return pte_list_add(vcpu, spte, rmapp);
 }
 
 
        sp = page_header(__pa(spte));
        gfn = kvm_mmu_page_get_gfn(sp, spte - sp->spt);
-       rmapp = gfn_to_rmap(kvm, gfn, sp->role.level);
+       rmapp = gfn_to_rmap(kvm, gfn, sp);
        pte_list_remove(spte, rmapp);
 }
 
 
        sp = page_header(__pa(spte));
 
-       rmapp = gfn_to_rmap(vcpu->kvm, gfn, sp->role.level);
+       rmapp = gfn_to_rmap(vcpu->kvm, gfn, sp);
 
        kvm_unmap_rmapp(vcpu->kvm, rmapp, NULL, gfn, sp->role.level, 0);
        kvm_flush_remote_tlbs(vcpu->kvm);
 
                return;
        }
 
-       rmapp = gfn_to_rmap(kvm, gfn, rev_sp->role.level);
+       rmapp = gfn_to_rmap(kvm, gfn, rev_sp);
        if (!*rmapp) {
                if (!__ratelimit(&ratelimit_state))
                        return;
        unsigned long *rmapp;
        u64 *sptep;
        struct rmap_iterator iter;
+       struct kvm_memslots *slots;
+       struct kvm_memory_slot *slot;
 
        if (sp->role.direct || sp->unsync || sp->role.invalid)
                return;
 
-       rmapp = gfn_to_rmap(kvm, sp->gfn, PT_PAGE_TABLE_LEVEL);
+       slots = kvm_memslots(kvm);
+       slot = __gfn_to_memslot(slots, sp->gfn);
+       rmapp = __gfn_to_rmap(sp->gfn, PT_PAGE_TABLE_LEVEL, slot);
 
        for_each_rmap_spte(rmapp, &iter, sptep)
                if (is_writable_pte(*sptep))