memcg: localize memcg_kmem_enabled() check
[linux-2.6-microblaze.git] / mm / page_alloc.c
index 0b9f577..034b8b6 100644 (file)
@@ -1056,7 +1056,7 @@ static __always_inline bool free_pages_prepare(struct page *page,
        if (PageMappingFlags(page))
                page->mapping = NULL;
        if (memcg_kmem_enabled() && PageKmemcg(page))
-               memcg_kmem_uncharge(page, order);
+               __memcg_kmem_uncharge(page, order);
        if (check_free)
                bad += free_pages_check(page);
        if (bad)
@@ -1303,7 +1303,7 @@ static void __free_pages_ok(struct page *page, unsigned int order)
        local_irq_restore(flags);
 }
 
-static void __init __free_pages_boot_core(struct page *page, unsigned int order)
+void __free_pages_core(struct page *page, unsigned int order)
 {
        unsigned int nr_pages = 1 << order;
        struct page *p = page;
@@ -1382,7 +1382,7 @@ void __init memblock_free_pages(struct page *page, unsigned long pfn,
 {
        if (early_page_uninitialised(pfn))
                return;
-       return __free_pages_boot_core(page, order);
+       __free_pages_core(page, order);
 }
 
 /*
@@ -1472,14 +1472,14 @@ static void __init deferred_free_range(unsigned long pfn,
        if (nr_pages == pageblock_nr_pages &&
            (pfn & (pageblock_nr_pages - 1)) == 0) {
                set_pageblock_migratetype(page, MIGRATE_MOVABLE);
-               __free_pages_boot_core(page, pageblock_order);
+               __free_pages_core(page, pageblock_order);
                return;
        }
 
        for (i = 0; i < nr_pages; i++, page++, pfn++) {
                if ((pfn & (pageblock_nr_pages - 1)) == 0)
                        set_pageblock_migratetype(page, MIGRATE_MOVABLE);
-               __free_pages_boot_core(page, 0);
+               __free_pages_core(page, 0);
        }
 }
 
@@ -1945,8 +1945,8 @@ inline void post_alloc_hook(struct page *page, unsigned int order,
 
        arch_alloc_page(page, order);
        kernel_map_pages(page, 1 << order, 1);
-       kernel_poison_pages(page, 1 << order, 1);
        kasan_alloc_pages(page, order);
+       kernel_poison_pages(page, 1 << order, 1);
        set_page_owner(page, order, gfp_flags);
 }
 
@@ -4568,7 +4568,7 @@ __alloc_pages_nodemask(gfp_t gfp_mask, unsigned int order, int preferred_nid,
 
 out:
        if (memcg_kmem_enabled() && (gfp_mask & __GFP_ACCOUNT) && page &&
-           unlikely(memcg_kmem_charge(page, gfp_mask, order) != 0)) {
+           unlikely(__memcg_kmem_charge(page, gfp_mask, order) != 0)) {
                __free_pages(page, order);
                page = NULL;
        }
@@ -6016,7 +6016,7 @@ int __meminit __early_pfn_to_nid(unsigned long pfn,
                return state->last_nid;
 
        nid = memblock_search_pfn_nid(pfn, &start_pfn, &end_pfn);
-       if (nid != -1) {
+       if (nid != NUMA_NO_NODE) {
                state->last_start = start_pfn;
                state->last_end = end_pfn;
                state->last_nid = nid;
@@ -6771,7 +6771,7 @@ unsigned long __init node_map_pfn_alignment(void)
 {
        unsigned long accl_mask = 0, last_end = 0;
        unsigned long start, end, mask;
-       int last_nid = -1;
+       int last_nid = NUMA_NO_NODE;
        int i, nid;
 
        for_each_mem_pfn_range(i, MAX_NUMNODES, &start, &end, &nid) {