arm64: kdump: Skip kmemleak scan reserved memory for kdump
[linux-2.6-microblaze.git] / arch / arm64 / mm / init.c
index 6e1ca04..5a16f57 100644 (file)
@@ -30,6 +30,7 @@
 #include <linux/crash_dump.h>
 #include <linux/hugetlb.h>
 #include <linux/acpi_iort.h>
+#include <linux/kmemleak.h>
 
 #include <asm/boot.h>
 #include <asm/fixmap.h>
@@ -115,6 +116,11 @@ static void __init reserve_crashkernel(void)
        pr_info("crashkernel reserved: 0x%016llx - 0x%016llx (%lld MB)\n",
                crash_base, crash_base + crash_size, crash_size >> 20);
 
+       /*
+        * The crashkernel memory will be removed from the kernel linear
+        * map. Inform kmemleak so that it won't try to access it.
+        */
+       kmemleak_ignore_phys(crash_base);
        crashk_res.start = crash_base;
        crashk_res.end = crash_base + crash_size - 1;
 }
@@ -219,42 +225,17 @@ static void __init zone_sizes_init(unsigned long min, unsigned long max)
        free_area_init(max_zone_pfns);
 }
 
-int pfn_valid(unsigned long pfn)
+int pfn_is_map_memory(unsigned long pfn)
 {
        phys_addr_t addr = PFN_PHYS(pfn);
-       struct mem_section *ms;
 
-       /*
-        * Ensure the upper PAGE_SHIFT bits are clear in the
-        * pfn. Else it might lead to false positives when
-        * some of the upper bits are set, but the lower bits
-        * match a valid pfn.
-        */
+       /* avoid false positives for bogus PFNs, see comment in pfn_valid() */
        if (PHYS_PFN(addr) != pfn)
                return 0;
 
-       if (pfn_to_section_nr(pfn) >= NR_MEM_SECTIONS)
-               return 0;
-
-       ms = __pfn_to_section(pfn);
-       if (!valid_section(ms))
-               return 0;
-
-       /*
-        * ZONE_DEVICE memory does not have the memblock entries.
-        * memblock_is_map_memory() check for ZONE_DEVICE based
-        * addresses will always fail. Even the normal hotplugged
-        * memory will never have MEMBLOCK_NOMAP flag set in their
-        * memblock entries. Skip memblock search for all non early
-        * memory sections covering all of hotplug memory including
-        * both normal and ZONE_DEVICE based.
-        */
-       if (!early_section(ms))
-               return pfn_section_valid(ms, pfn);
-
        return memblock_is_map_memory(addr);
 }
-EXPORT_SYMBOL(pfn_valid);
+EXPORT_SYMBOL(pfn_is_map_memory);
 
 static phys_addr_t memory_limit = PHYS_ADDR_MAX;
 
@@ -307,7 +288,21 @@ static void __init fdt_enforce_memory_region(void)
 
 void __init arm64_memblock_init(void)
 {
-       const s64 linear_region_size = PAGE_END - _PAGE_OFFSET(vabits_actual);
+       s64 linear_region_size = PAGE_END - _PAGE_OFFSET(vabits_actual);
+
+       /*
+        * Corner case: 52-bit VA capable systems running KVM in nVHE mode may
+        * be limited in their ability to support a linear map that exceeds 51
+        * bits of VA space, depending on the placement of the ID map. Given
+        * that the placement of the ID map may be randomized, let's simply
+        * limit the kernel's linear map to 51 bits as well if we detect this
+        * configuration.
+        */
+       if (IS_ENABLED(CONFIG_KVM) && vabits_actual == 52 &&
+           is_hyp_mode_available() && !is_kernel_in_hyp_mode()) {
+               pr_info("Capping linear region to 51 bits for KVM in nVHE mode on LVA capable hardware.\n");
+               linear_region_size = min_t(u64, linear_region_size, BIT(51));
+       }
 
        /* Handle linux,usable-memory-range property */
        fdt_enforce_memory_region();