arm64: dts: ls1028a: add missing CAN nodes
[linux-2.6-microblaze.git] / mm / vmalloc.c
index 04ac98b..6ae491a 100644 (file)
@@ -1,7 +1,5 @@
 // SPDX-License-Identifier: GPL-2.0-only
 /*
- *  linux/mm/vmalloc.c
- *
  *  Copyright (C) 1993  Linus Torvalds
  *  Support of BIGMEM added by Gerhard Wichert, Siemens AG, July 1999
  *  SMP-safe vmalloc/vfree/ioremap, Tigran Aivazian <tigran@veritas.com>, May 2000
@@ -2321,20 +2319,21 @@ static void __vfree(const void *addr)
 }
 
 /**
- * vfree - release memory allocated by vmalloc()
- * @addr:  memory base address
+ * vfree - Release memory allocated by vmalloc()
+ * @addr:  Memory base address
  *
- * Free the virtually continuous memory area starting at @addr, as
- * obtained from vmalloc(), vmalloc_32() or __vmalloc(). If @addr is
- * NULL, no operation is performed.
+ * Free the virtually continuous memory area starting at @addr, as obtained
+ * from one of the vmalloc() family of APIs.  This will usually also free the
+ * physical memory underlying the virtual allocation, but that memory is
+ * reference counted, so it will not be freed until the last user goes away.
  *
- * Must not be called in NMI context (strictly speaking, only if we don't
- * have CONFIG_ARCH_HAVE_NMI_SAFE_CMPXCHG, but making the calling
- * conventions for vfree() arch-depenedent would be a really bad idea)
+ * If @addr is NULL, no operation is performed.
  *
+ * Context:
  * May sleep if called *not* from interrupt context.
- *
- * NOTE: assumes that the object at @addr has a size >= sizeof(llist_node)
+ * Must not be called in NMI context (strictly speaking, it could be
+ * if we have CONFIG_ARCH_HAVE_NMI_SAFE_CMPXCHG, but making the calling
+ * conventions for vfree() arch-depenedent would be a really bad idea).
  */
 void vfree(const void *addr)
 {
@@ -2376,8 +2375,11 @@ EXPORT_SYMBOL(vunmap);
  * @flags: vm_area->flags
  * @prot: page protection for the mapping
  *
- * Maps @count pages from @pages into contiguous kernel virtual
- * space.
+ * Maps @count pages from @pages into contiguous kernel virtual space.
+ * If @flags contains %VM_MAP_PUT_PAGES the ownership of the pages array itself
+ * (which must be kmalloc or vmalloc memory) and one reference per pages in it
+ * are transferred from the caller to vmap(), and will be freed / dropped when
+ * vfree() is called on the return value.
  *
  * Return: the address of the area or %NULL on failure
  */
@@ -2403,28 +2405,73 @@ void *vmap(struct page **pages, unsigned int count,
                return NULL;
        }
 
+       if (flags & VM_MAP_PUT_PAGES)
+               area->pages = pages;
        return area->addr;
 }
 EXPORT_SYMBOL(vmap);
 
+#ifdef CONFIG_VMAP_PFN
+struct vmap_pfn_data {
+       unsigned long   *pfns;
+       pgprot_t        prot;
+       unsigned int    idx;
+};
+
+static int vmap_pfn_apply(pte_t *pte, unsigned long addr, void *private)
+{
+       struct vmap_pfn_data *data = private;
+
+       if (WARN_ON_ONCE(pfn_valid(data->pfns[data->idx])))
+               return -EINVAL;
+       *pte = pte_mkspecial(pfn_pte(data->pfns[data->idx++], data->prot));
+       return 0;
+}
+
+/**
+ * vmap_pfn - map an array of PFNs into virtually contiguous space
+ * @pfns: array of PFNs
+ * @count: number of pages to map
+ * @prot: page protection for the mapping
+ *
+ * Maps @count PFNs from @pfns into contiguous kernel virtual space and returns
+ * the start address of the mapping.
+ */
+void *vmap_pfn(unsigned long *pfns, unsigned int count, pgprot_t prot)
+{
+       struct vmap_pfn_data data = { .pfns = pfns, .prot = pgprot_nx(prot) };
+       struct vm_struct *area;
+
+       area = get_vm_area_caller(count * PAGE_SIZE, VM_IOREMAP,
+                       __builtin_return_address(0));
+       if (!area)
+               return NULL;
+       if (apply_to_page_range(&init_mm, (unsigned long)area->addr,
+                       count * PAGE_SIZE, vmap_pfn_apply, &data)) {
+               free_vm_area(area);
+               return NULL;
+       }
+       return area->addr;
+}
+EXPORT_SYMBOL_GPL(vmap_pfn);
+#endif /* CONFIG_VMAP_PFN */
+
 static void *__vmalloc_area_node(struct vm_struct *area, gfp_t gfp_mask,
                                 pgprot_t prot, int node)
 {
-       struct page **pages;
-       unsigned int nr_pages, array_size, i;
        const gfp_t nested_gfp = (gfp_mask & GFP_RECLAIM_MASK) | __GFP_ZERO;
-       const gfp_t alloc_mask = gfp_mask | __GFP_NOWARN;
-       const gfp_t highmem_mask = (gfp_mask & (GFP_DMA | GFP_DMA32)) ?
-                                       0 :
-                                       __GFP_HIGHMEM;
+       unsigned int nr_pages = get_vm_area_size(area) >> PAGE_SHIFT;
+       unsigned int array_size = nr_pages * sizeof(struct page *), i;
+       struct page **pages;
 
-       nr_pages = get_vm_area_size(area) >> PAGE_SHIFT;
-       array_size = (nr_pages * sizeof(struct page *));
+       gfp_mask |= __GFP_NOWARN;
+       if (!(gfp_mask & (GFP_DMA | GFP_DMA32)))
+               gfp_mask |= __GFP_HIGHMEM;
 
        /* Please note that the recursion is strictly bounded. */
        if (array_size > PAGE_SIZE) {
-               pages = __vmalloc_node(array_size, 1, nested_gfp|highmem_mask,
-                               node, area->caller);
+               pages = __vmalloc_node(array_size, 1, nested_gfp, node,
+                                       area->caller);
        } else {
                pages = kmalloc_node(array_size, nested_gfp, node);
        }
@@ -2442,9 +2489,9 @@ static void *__vmalloc_area_node(struct vm_struct *area, gfp_t gfp_mask,
                struct page *page;
 
                if (node == NUMA_NO_NODE)
-                       page = alloc_page(alloc_mask|highmem_mask);
+                       page = alloc_page(gfp_mask);
                else
-                       page = alloc_pages_node(node, alloc_mask|highmem_mask, 0);
+                       page = alloc_pages_node(node, gfp_mask, 0);
 
                if (unlikely(!page)) {
                        /* Successfully allocated i pages, free them in __vfree() */
@@ -3032,54 +3079,6 @@ int remap_vmalloc_range(struct vm_area_struct *vma, void *addr,
 }
 EXPORT_SYMBOL(remap_vmalloc_range);
 
-static int f(pte_t *pte, unsigned long addr, void *data)
-{
-       pte_t ***p = data;
-
-       if (p) {
-               *(*p) = pte;
-               (*p)++;
-       }
-       return 0;
-}
-
-/**
- * alloc_vm_area - allocate a range of kernel address space
- * @size:         size of the area
- * @ptes:         returns the PTEs for the address space
- *
- * Returns:    NULL on failure, vm_struct on success
- *
- * This function reserves a range of kernel address space, and
- * allocates pagetables to map that range.  No actual mappings
- * are created.
- *
- * If @ptes is non-NULL, pointers to the PTEs (in init_mm)
- * allocated for the VM area are returned.
- */
-struct vm_struct *alloc_vm_area(size_t size, pte_t **ptes)
-{
-       struct vm_struct *area;
-
-       area = get_vm_area_caller(size, VM_IOREMAP,
-                               __builtin_return_address(0));
-       if (area == NULL)
-               return NULL;
-
-       /*
-        * This ensures that page tables are constructed for this region
-        * of kernel virtual address space and mapped into init_mm.
-        */
-       if (apply_to_page_range(&init_mm, (unsigned long)area->addr,
-                               size, f, ptes ? &ptes : NULL)) {
-               free_vm_area(area);
-               return NULL;
-       }
-
-       return area;
-}
-EXPORT_SYMBOL_GPL(alloc_vm_area);
-
 void free_vm_area(struct vm_struct *area)
 {
        struct vm_struct *ret;