Merge tag 'locking-core-2021-02-17' of git://git.kernel.org/pub/scm/linux/kernel...
[linux-2.6-microblaze.git] / mm / mempool.c
index 79bff63..624ed51 100644 (file)
@@ -58,11 +58,10 @@ static void __check_element(mempool_t *pool, void *element, size_t size)
 static void check_element(mempool_t *pool, void *element)
 {
        /* Mempools backed by slab allocator */
-       if (pool->free == mempool_free_slab || pool->free == mempool_kfree)
+       if (pool->free == mempool_free_slab || pool->free == mempool_kfree) {
                __check_element(pool, element, ksize(element));
-
-       /* Mempools backed by page allocator */
-       if (pool->free == mempool_free_pages) {
+       } else if (pool->free == mempool_free_pages) {
+               /* Mempools backed by page allocator */
                int order = (int)(long)pool->pool_data;
                void *addr = kmap_atomic((struct page *)element);
 
@@ -82,11 +81,10 @@ static void __poison_element(void *element, size_t size)
 static void poison_element(mempool_t *pool, void *element)
 {
        /* Mempools backed by slab allocator */
-       if (pool->alloc == mempool_alloc_slab || pool->alloc == mempool_kmalloc)
+       if (pool->alloc == mempool_alloc_slab || pool->alloc == mempool_kmalloc) {
                __poison_element(element, ksize(element));
-
-       /* Mempools backed by page allocator */
-       if (pool->alloc == mempool_alloc_pages) {
+       } else if (pool->alloc == mempool_alloc_pages) {
+               /* Mempools backed by page allocator */
                int order = (int)(long)pool->pool_data;
                void *addr = kmap_atomic((struct page *)element);
 
@@ -106,16 +104,16 @@ static inline void poison_element(mempool_t *pool, void *element)
 static __always_inline void kasan_poison_element(mempool_t *pool, void *element)
 {
        if (pool->alloc == mempool_alloc_slab || pool->alloc == mempool_kmalloc)
-               kasan_poison_kfree(element, _RET_IP_);
-       if (pool->alloc == mempool_alloc_pages)
+               kasan_slab_free_mempool(element, _RET_IP_);
+       else if (pool->alloc == mempool_alloc_pages)
                kasan_free_pages(element, (unsigned long)pool->pool_data);
 }
 
 static void kasan_unpoison_element(mempool_t *pool, void *element)
 {
        if (pool->alloc == mempool_alloc_slab || pool->alloc == mempool_kmalloc)
-               kasan_unpoison_slab(element);
-       if (pool->alloc == mempool_alloc_pages)
+               kasan_unpoison_range(element, __ksize(element));
+       else if (pool->alloc == mempool_alloc_pages)
                kasan_alloc_pages(element, (unsigned long)pool->pool_data);
 }