sparc32: get rid of odd callers of copy_regset_from_user()
[linux-2.6-microblaze.git] / mm / userfaultfd.c
index 691613c..b804193 100644 (file)
@@ -76,7 +76,7 @@ static int mcopy_atomic_pte(struct mm_struct *dst_mm,
                                     PAGE_SIZE);
                kunmap_atomic(page_kaddr);
 
-               /* fallback to copy_from_user outside mmap_sem */
+               /* fallback to copy_from_user outside mmap_lock */
                if (unlikely(ret)) {
                        ret = -ENOENT;
                        *pagep = page;
@@ -200,7 +200,7 @@ static pmd_t *mm_alloc_pmd(struct mm_struct *mm, unsigned long address)
 #ifdef CONFIG_HUGETLB_PAGE
 /*
  * __mcopy_atomic processing for HUGETLB vmas.  Note that this routine is
- * called with mmap_sem held, it will release mmap_sem before returning.
+ * called with mmap_lock held, it will release mmap_lock before returning.
  */
 static __always_inline ssize_t __mcopy_atomic_hugetlb(struct mm_struct *dst_mm,
                                              struct vm_area_struct *dst_vma,
@@ -247,7 +247,7 @@ static __always_inline ssize_t __mcopy_atomic_hugetlb(struct mm_struct *dst_mm,
 
 retry:
        /*
-        * On routine entry dst_vma is set.  If we had to drop mmap_sem and
+        * On routine entry dst_vma is set.  If we had to drop mmap_lock and
         * retry, dst_vma will be set to NULL and we must lookup again.
         */
        if (!dst_vma) {
@@ -357,7 +357,7 @@ out:
                 * private and shared mappings.  See the routine
                 * restore_reserve_on_error for details.  Unfortunately, we
                 * can not call restore_reserve_on_error now as it would
-                * require holding mmap_sem.
+                * require holding mmap_lock.
                 *
                 * If a reservation for the page existed in the reservation
                 * map of a private mapping, the map was modified to indicate