mm: slub: call account_slab_page() after slab page initialization
[linux-2.6-microblaze.git] / mm / slub.c
index 34dcc09..dc5b42e 100644 (file)
--- a/mm/slub.c
+++ b/mm/slub.c
@@ -249,7 +249,7 @@ static inline void *freelist_ptr(const struct kmem_cache *s, void *ptr,
 {
 #ifdef CONFIG_SLAB_FREELIST_HARDENED
        /*
-        * When CONFIG_KASAN_SW_TAGS is enabled, ptr_addr might be tagged.
+        * When CONFIG_KASAN_SW/HW_TAGS is enabled, ptr_addr might be tagged.
         * Normally, this doesn't cause any issues, as both set_freepointer()
         * and get_freepointer() are called with a pointer with the same tag.
         * However, there are some issues with CONFIG_SLUB_DEBUG code. For
@@ -275,6 +275,7 @@ static inline void *freelist_dereference(const struct kmem_cache *s,
 
 static inline void *get_freepointer(struct kmem_cache *s, void *object)
 {
+       object = kasan_reset_tag(object);
        return freelist_dereference(s, object + s->offset);
 }
 
@@ -304,6 +305,7 @@ static inline void set_freepointer(struct kmem_cache *s, void *object, void *fp)
        BUG_ON(object == fp); /* naive detection of double free or corruption */
 #endif
 
+       freeptr_addr = (unsigned long)kasan_reset_tag((void *)freeptr_addr);
        *(void **)freeptr_addr = freelist_ptr(s, fp, freeptr_addr);
 }
 
@@ -538,8 +540,8 @@ static void print_section(char *level, char *text, u8 *addr,
                          unsigned int length)
 {
        metadata_access_enable();
-       print_hex_dump(level, text, DUMP_PREFIX_ADDRESS, 16, 1, addr,
-                       length, 1);
+       print_hex_dump(level, kasan_reset_tag(text), DUMP_PREFIX_ADDRESS,
+                       16, 1, addr, length, 1);
        metadata_access_disable();
 }
 
@@ -570,7 +572,7 @@ static struct track *get_track(struct kmem_cache *s, void *object,
 
        p = object + get_info_end(s);
 
-       return p + alloc;
+       return kasan_reset_tag(p + alloc);
 }
 
 static void set_track(struct kmem_cache *s, void *object,
@@ -583,7 +585,8 @@ static void set_track(struct kmem_cache *s, void *object,
                unsigned int nr_entries;
 
                metadata_access_enable();
-               nr_entries = stack_trace_save(p->addrs, TRACK_ADDRS_COUNT, 3);
+               nr_entries = stack_trace_save(kasan_reset_tag(p->addrs),
+                                             TRACK_ADDRS_COUNT, 3);
                metadata_access_disable();
 
                if (nr_entries < TRACK_ADDRS_COUNT)
@@ -747,7 +750,7 @@ static __printf(3, 4) void slab_err(struct kmem_cache *s, struct page *page,
 
 static void init_object(struct kmem_cache *s, void *object, u8 val)
 {
-       u8 *p = object;
+       u8 *p = kasan_reset_tag(object);
 
        if (s->flags & SLAB_RED_ZONE)
                memset(p - s->red_left_pad, val, s->red_left_pad);
@@ -777,7 +780,7 @@ static int check_bytes_and_report(struct kmem_cache *s, struct page *page,
        u8 *addr = page_address(page);
 
        metadata_access_enable();
-       fault = memchr_inv(start, value, bytes);
+       fault = memchr_inv(kasan_reset_tag(start), value, bytes);
        metadata_access_disable();
        if (!fault)
                return 1;
@@ -873,7 +876,7 @@ static int slab_pad_check(struct kmem_cache *s, struct page *page)
 
        pad = end - remainder;
        metadata_access_enable();
-       fault = memchr_inv(pad, POISON_INUSE, remainder);
+       fault = memchr_inv(kasan_reset_tag(pad), POISON_INUSE, remainder);
        metadata_access_disable();
        if (!fault)
                return 1;
@@ -1118,7 +1121,7 @@ void setup_page_debug(struct kmem_cache *s, struct page *page, void *addr)
                return;
 
        metadata_access_enable();
-       memset(addr, POISON_INUSE, page_size(page));
+       memset(kasan_reset_tag(addr), POISON_INUSE, page_size(page));
        metadata_access_disable();
 }
 
@@ -1566,10 +1569,10 @@ static inline bool slab_free_freelist_hook(struct kmem_cache *s,
                         * Clear the object and the metadata, but don't touch
                         * the redzone.
                         */
-                       memset(object, 0, s->object_size);
+                       memset(kasan_reset_tag(object), 0, s->object_size);
                        rsize = (s->flags & SLAB_RED_ZONE) ? s->red_left_pad
                                                           : 0;
-                       memset((char *)object + s->inuse, 0,
+                       memset((char *)kasan_reset_tag(object) + s->inuse, 0,
                               s->size - s->inuse - rsize);
 
                }
@@ -1616,9 +1619,6 @@ static inline struct page *alloc_slab_page(struct kmem_cache *s,
        else
                page = __alloc_pages_node(node, flags, order);
 
-       if (page)
-               account_slab_page(page, order, s);
-
        return page;
 }
 
@@ -1771,6 +1771,8 @@ static struct page *allocate_slab(struct kmem_cache *s, gfp_t flags, int node)
 
        page->objects = oo_objects(oo);
 
+       account_slab_page(page, oo_order(oo), s);
+
        page->slab_cache = s;
        __SetPageSlab(page);
        if (page_is_pfmemalloc(page))
@@ -1836,8 +1838,8 @@ static void __free_slab(struct kmem_cache *s, struct page *page)
 
        __ClearPageSlabPfmemalloc(page);
        __ClearPageSlab(page);
-
-       page->mapping = NULL;
+       /* In union with page->mapping where page allocator expects NULL */
+       page->slab_cache = NULL;
        if (current->reclaim_state)
                current->reclaim_state->reclaimed_slab += pages;
        unaccount_slab_page(page, order, s);
@@ -2245,8 +2247,7 @@ redo:
                }
        } else {
                m = M_FULL;
-#ifdef CONFIG_SLUB_DEBUG
-               if ((s->flags & SLAB_STORE_USER) && !lock) {
+               if (kmem_cache_debug_flags(s, SLAB_STORE_USER) && !lock) {
                        lock = 1;
                        /*
                         * This also ensures that the scanning of full
@@ -2255,7 +2256,6 @@ redo:
                         */
                        spin_lock(&n->list_lock);
                }
-#endif
        }
 
        if (l != m) {
@@ -2883,10 +2883,10 @@ redo:
                stat(s, ALLOC_FASTPATH);
        }
 
-       maybe_wipe_obj_freeptr(s, object);
+       maybe_wipe_obj_freeptr(s, kasan_reset_tag(object));
 
        if (unlikely(slab_want_init_on_alloc(gfpflags, s)) && object)
-               memset(object, 0, s->object_size);
+               memset(kasan_reset_tag(object), 0, s->object_size);
 
        slab_post_alloc_hook(s, objcg, gfpflags, 1, &object);
 
@@ -3433,7 +3433,7 @@ static inline int calculate_order(unsigned int size)
         */
        min_objects = slub_min_objects;
        if (!min_objects)
-               min_objects = 4 * (fls(nr_cpu_ids) + 1);
+               min_objects = 4 * (fls(num_online_cpus()) + 1);
        max_objects = order_objects(slub_max_order, size);
        min_objects = min(min_objects, max_objects);
 
@@ -4726,7 +4726,7 @@ static void process_slab(struct loc_track *t, struct kmem_cache *s,
 }
 
 static int list_locations(struct kmem_cache *s, char *buf,
-                                       enum track_item alloc)
+                         enum track_item alloc)
 {
        int len = 0;
        unsigned long i;
@@ -4736,7 +4736,7 @@ static int list_locations(struct kmem_cache *s, char *buf,
 
        if (!alloc_loc_track(&t, PAGE_SIZE / sizeof(struct location),
                             GFP_KERNEL)) {
-               return sprintf(buf, "Out of memory\n");
+               return sysfs_emit(buf, "Out of memory\n");
        }
        /* Push back cpu slabs */
        flush_all(s);
@@ -4759,50 +4759,45 @@ static int list_locations(struct kmem_cache *s, char *buf,
        for (i = 0; i < t.count; i++) {
                struct location *l = &t.loc[i];
 
-               if (len > PAGE_SIZE - KSYM_SYMBOL_LEN - 100)
-                       break;
-               len += sprintf(buf + len, "%7ld ", l->count);
+               len += sysfs_emit_at(buf, len, "%7ld ", l->count);
 
                if (l->addr)
-                       len += sprintf(buf + len, "%pS", (void *)l->addr);
+                       len += sysfs_emit_at(buf, len, "%pS", (void *)l->addr);
                else
-                       len += sprintf(buf + len, "<not-available>");
-
-               if (l->sum_time != l->min_time) {
-                       len += sprintf(buf + len, " age=%ld/%ld/%ld",
-                               l->min_time,
-                               (long)div_u64(l->sum_time, l->count),
-                               l->max_time);
-               } else
-                       len += sprintf(buf + len, " age=%ld",
-                               l->min_time);
+                       len += sysfs_emit_at(buf, len, "<not-available>");
+
+               if (l->sum_time != l->min_time)
+                       len += sysfs_emit_at(buf, len, " age=%ld/%ld/%ld",
+                                            l->min_time,
+                                            (long)div_u64(l->sum_time,
+                                                          l->count),
+                                            l->max_time);
+               else
+                       len += sysfs_emit_at(buf, len, " age=%ld", l->min_time);
 
                if (l->min_pid != l->max_pid)
-                       len += sprintf(buf + len, " pid=%ld-%ld",
-                               l->min_pid, l->max_pid);
+                       len += sysfs_emit_at(buf, len, " pid=%ld-%ld",
+                                            l->min_pid, l->max_pid);
                else
-                       len += sprintf(buf + len, " pid=%ld",
-                               l->min_pid);
+                       len += sysfs_emit_at(buf, len, " pid=%ld",
+                                            l->min_pid);
 
                if (num_online_cpus() > 1 &&
-                               !cpumask_empty(to_cpumask(l->cpus)) &&
-                               len < PAGE_SIZE - 60)
-                       len += scnprintf(buf + len, PAGE_SIZE - len - 50,
-                                        " cpus=%*pbl",
-                                        cpumask_pr_args(to_cpumask(l->cpus)));
-
-               if (nr_online_nodes > 1 && !nodes_empty(l->nodes) &&
-                               len < PAGE_SIZE - 60)
-                       len += scnprintf(buf + len, PAGE_SIZE - len - 50,
-                                        " nodes=%*pbl",
-                                        nodemask_pr_args(&l->nodes));
-
-               len += sprintf(buf + len, "\n");
+                   !cpumask_empty(to_cpumask(l->cpus)))
+                       len += sysfs_emit_at(buf, len, " cpus=%*pbl",
+                                            cpumask_pr_args(to_cpumask(l->cpus)));
+
+               if (nr_online_nodes > 1 && !nodes_empty(l->nodes))
+                       len += sysfs_emit_at(buf, len, " nodes=%*pbl",
+                                            nodemask_pr_args(&l->nodes));
+
+               len += sysfs_emit_at(buf, len, "\n");
        }
 
        free_loc_track(&t);
        if (!t.count)
-               len += sprintf(buf, "No data\n");
+               len += sysfs_emit_at(buf, len, "No data\n");
+
        return len;
 }
 #endif /* CONFIG_SLUB_DEBUG */
@@ -4899,12 +4894,13 @@ __setup("slub_memcg_sysfs=", setup_slub_memcg_sysfs);
 #endif
 
 static ssize_t show_slab_objects(struct kmem_cache *s,
-                           char *buf, unsigned long flags)
+                                char *buf, unsigned long flags)
 {
        unsigned long total = 0;
        int node;
        int x;
        unsigned long *nodes;
+       int len = 0;
 
        nodes = kcalloc(nr_node_ids, sizeof(unsigned long), GFP_KERNEL);
        if (!nodes)
@@ -4993,15 +4989,19 @@ static ssize_t show_slab_objects(struct kmem_cache *s,
                        nodes[node] += x;
                }
        }
-       x = sprintf(buf, "%lu", total);
+
+       len += sysfs_emit_at(buf, len, "%lu", total);
 #ifdef CONFIG_NUMA
-       for (node = 0; node < nr_node_ids; node++)
+       for (node = 0; node < nr_node_ids; node++) {
                if (nodes[node])
-                       x += sprintf(buf + x, " N%d=%lu",
-                                       node, nodes[node]);
+                       len += sysfs_emit_at(buf, len, " N%d=%lu",
+                                            node, nodes[node]);
+       }
 #endif
+       len += sysfs_emit_at(buf, len, "\n");
        kfree(nodes);
-       return x + sprintf(buf + x, "\n");
+
+       return len;
 }
 
 #define to_slab_attr(n) container_of(n, struct slab_attribute, attr)
@@ -5023,37 +5023,37 @@ struct slab_attribute {
 
 static ssize_t slab_size_show(struct kmem_cache *s, char *buf)
 {
-       return sprintf(buf, "%u\n", s->size);
+       return sysfs_emit(buf, "%u\n", s->size);
 }
 SLAB_ATTR_RO(slab_size);
 
 static ssize_t align_show(struct kmem_cache *s, char *buf)
 {
-       return sprintf(buf, "%u\n", s->align);
+       return sysfs_emit(buf, "%u\n", s->align);
 }
 SLAB_ATTR_RO(align);
 
 static ssize_t object_size_show(struct kmem_cache *s, char *buf)
 {
-       return sprintf(buf, "%u\n", s->object_size);
+       return sysfs_emit(buf, "%u\n", s->object_size);
 }
 SLAB_ATTR_RO(object_size);
 
 static ssize_t objs_per_slab_show(struct kmem_cache *s, char *buf)
 {
-       return sprintf(buf, "%u\n", oo_objects(s->oo));
+       return sysfs_emit(buf, "%u\n", oo_objects(s->oo));
 }
 SLAB_ATTR_RO(objs_per_slab);
 
 static ssize_t order_show(struct kmem_cache *s, char *buf)
 {
-       return sprintf(buf, "%u\n", oo_order(s->oo));
+       return sysfs_emit(buf, "%u\n", oo_order(s->oo));
 }
 SLAB_ATTR_RO(order);
 
 static ssize_t min_partial_show(struct kmem_cache *s, char *buf)
 {
-       return sprintf(buf, "%lu\n", s->min_partial);
+       return sysfs_emit(buf, "%lu\n", s->min_partial);
 }
 
 static ssize_t min_partial_store(struct kmem_cache *s, const char *buf,
@@ -5073,7 +5073,7 @@ SLAB_ATTR(min_partial);
 
 static ssize_t cpu_partial_show(struct kmem_cache *s, char *buf)
 {
-       return sprintf(buf, "%u\n", slub_cpu_partial(s));
+       return sysfs_emit(buf, "%u\n", slub_cpu_partial(s));
 }
 
 static ssize_t cpu_partial_store(struct kmem_cache *s, const char *buf,
@@ -5098,13 +5098,13 @@ static ssize_t ctor_show(struct kmem_cache *s, char *buf)
 {
        if (!s->ctor)
                return 0;
-       return sprintf(buf, "%pS\n", s->ctor);
+       return sysfs_emit(buf, "%pS\n", s->ctor);
 }
 SLAB_ATTR_RO(ctor);
 
 static ssize_t aliases_show(struct kmem_cache *s, char *buf)
 {
-       return sprintf(buf, "%d\n", s->refcount < 0 ? 0 : s->refcount - 1);
+       return sysfs_emit(buf, "%d\n", s->refcount < 0 ? 0 : s->refcount - 1);
 }
 SLAB_ATTR_RO(aliases);
 
@@ -5137,7 +5137,7 @@ static ssize_t slabs_cpu_partial_show(struct kmem_cache *s, char *buf)
        int objects = 0;
        int pages = 0;
        int cpu;
-       int len;
+       int len = 0;
 
        for_each_online_cpu(cpu) {
                struct page *page;
@@ -5150,52 +5150,53 @@ static ssize_t slabs_cpu_partial_show(struct kmem_cache *s, char *buf)
                }
        }
 
-       len = sprintf(buf, "%d(%d)", objects, pages);
+       len += sysfs_emit_at(buf, len, "%d(%d)", objects, pages);
 
 #ifdef CONFIG_SMP
        for_each_online_cpu(cpu) {
                struct page *page;
 
                page = slub_percpu_partial(per_cpu_ptr(s->cpu_slab, cpu));
-
-               if (page && len < PAGE_SIZE - 20)
-                       len += sprintf(buf + len, " C%d=%d(%d)", cpu,
-                               page->pobjects, page->pages);
+               if (page)
+                       len += sysfs_emit_at(buf, len, " C%d=%d(%d)",
+                                            cpu, page->pobjects, page->pages);
        }
 #endif
-       return len + sprintf(buf + len, "\n");
+       len += sysfs_emit_at(buf, len, "\n");
+
+       return len;
 }
 SLAB_ATTR_RO(slabs_cpu_partial);
 
 static ssize_t reclaim_account_show(struct kmem_cache *s, char *buf)
 {
-       return sprintf(buf, "%d\n", !!(s->flags & SLAB_RECLAIM_ACCOUNT));
+       return sysfs_emit(buf, "%d\n", !!(s->flags & SLAB_RECLAIM_ACCOUNT));
 }
 SLAB_ATTR_RO(reclaim_account);
 
 static ssize_t hwcache_align_show(struct kmem_cache *s, char *buf)
 {
-       return sprintf(buf, "%d\n", !!(s->flags & SLAB_HWCACHE_ALIGN));
+       return sysfs_emit(buf, "%d\n", !!(s->flags & SLAB_HWCACHE_ALIGN));
 }
 SLAB_ATTR_RO(hwcache_align);
 
 #ifdef CONFIG_ZONE_DMA
 static ssize_t cache_dma_show(struct kmem_cache *s, char *buf)
 {
-       return sprintf(buf, "%d\n", !!(s->flags & SLAB_CACHE_DMA));
+       return sysfs_emit(buf, "%d\n", !!(s->flags & SLAB_CACHE_DMA));
 }
 SLAB_ATTR_RO(cache_dma);
 #endif
 
 static ssize_t usersize_show(struct kmem_cache *s, char *buf)
 {
-       return sprintf(buf, "%u\n", s->usersize);
+       return sysfs_emit(buf, "%u\n", s->usersize);
 }
 SLAB_ATTR_RO(usersize);
 
 static ssize_t destroy_by_rcu_show(struct kmem_cache *s, char *buf)
 {
-       return sprintf(buf, "%d\n", !!(s->flags & SLAB_TYPESAFE_BY_RCU));
+       return sysfs_emit(buf, "%d\n", !!(s->flags & SLAB_TYPESAFE_BY_RCU));
 }
 SLAB_ATTR_RO(destroy_by_rcu);
 
@@ -5214,33 +5215,33 @@ SLAB_ATTR_RO(total_objects);
 
 static ssize_t sanity_checks_show(struct kmem_cache *s, char *buf)
 {
-       return sprintf(buf, "%d\n", !!(s->flags & SLAB_CONSISTENCY_CHECKS));
+       return sysfs_emit(buf, "%d\n", !!(s->flags & SLAB_CONSISTENCY_CHECKS));
 }
 SLAB_ATTR_RO(sanity_checks);
 
 static ssize_t trace_show(struct kmem_cache *s, char *buf)
 {
-       return sprintf(buf, "%d\n", !!(s->flags & SLAB_TRACE));
+       return sysfs_emit(buf, "%d\n", !!(s->flags & SLAB_TRACE));
 }
 SLAB_ATTR_RO(trace);
 
 static ssize_t red_zone_show(struct kmem_cache *s, char *buf)
 {
-       return sprintf(buf, "%d\n", !!(s->flags & SLAB_RED_ZONE));
+       return sysfs_emit(buf, "%d\n", !!(s->flags & SLAB_RED_ZONE));
 }
 
 SLAB_ATTR_RO(red_zone);
 
 static ssize_t poison_show(struct kmem_cache *s, char *buf)
 {
-       return sprintf(buf, "%d\n", !!(s->flags & SLAB_POISON));
+       return sysfs_emit(buf, "%d\n", !!(s->flags & SLAB_POISON));
 }
 
 SLAB_ATTR_RO(poison);
 
 static ssize_t store_user_show(struct kmem_cache *s, char *buf)
 {
-       return sprintf(buf, "%d\n", !!(s->flags & SLAB_STORE_USER));
+       return sysfs_emit(buf, "%d\n", !!(s->flags & SLAB_STORE_USER));
 }
 
 SLAB_ATTR_RO(store_user);
@@ -5284,7 +5285,7 @@ SLAB_ATTR_RO(free_calls);
 #ifdef CONFIG_FAILSLAB
 static ssize_t failslab_show(struct kmem_cache *s, char *buf)
 {
-       return sprintf(buf, "%d\n", !!(s->flags & SLAB_FAILSLAB));
+       return sysfs_emit(buf, "%d\n", !!(s->flags & SLAB_FAILSLAB));
 }
 SLAB_ATTR_RO(failslab);
 #endif
@@ -5308,7 +5309,7 @@ SLAB_ATTR(shrink);
 #ifdef CONFIG_NUMA
 static ssize_t remote_node_defrag_ratio_show(struct kmem_cache *s, char *buf)
 {
-       return sprintf(buf, "%u\n", s->remote_node_defrag_ratio / 10);
+       return sysfs_emit(buf, "%u\n", s->remote_node_defrag_ratio / 10);
 }
 
 static ssize_t remote_node_defrag_ratio_store(struct kmem_cache *s,
@@ -5335,7 +5336,7 @@ static int show_stat(struct kmem_cache *s, char *buf, enum stat_item si)
 {
        unsigned long sum  = 0;
        int cpu;
-       int len;
+       int len = 0;
        int *data = kmalloc_array(nr_cpu_ids, sizeof(int), GFP_KERNEL);
 
        if (!data)
@@ -5348,16 +5349,19 @@ static int show_stat(struct kmem_cache *s, char *buf, enum stat_item si)
                sum += x;
        }
 
-       len = sprintf(buf, "%lu", sum);
+       len += sysfs_emit_at(buf, len, "%lu", sum);
 
 #ifdef CONFIG_SMP
        for_each_online_cpu(cpu) {
-               if (data[cpu] && len < PAGE_SIZE - 20)
-                       len += sprintf(buf + len, " C%d=%u", cpu, data[cpu]);
+               if (data[cpu])
+                       len += sysfs_emit_at(buf, len, " C%d=%u",
+                                            cpu, data[cpu]);
        }
 #endif
        kfree(data);
-       return len + sprintf(buf + len, "\n");
+       len += sysfs_emit_at(buf, len, "\n");
+
+       return len;
 }
 
 static void clear_stat(struct kmem_cache *s, enum stat_item si)