selftests/timens: Add a test for futex()
[linux-2.6-microblaze.git] / mm / internal.h
index a801a4d..c43ccdd 100644 (file)
@@ -49,20 +49,15 @@ void unmap_page_range(struct mmu_gather *tlb,
                             unsigned long addr, unsigned long end,
                             struct zap_details *details);
 
-void force_page_cache_readahead(struct address_space *, struct file *,
-               pgoff_t index, unsigned long nr_to_read);
-void __do_page_cache_readahead(struct address_space *, struct file *,
-               pgoff_t index, unsigned long nr_to_read,
+void do_page_cache_ra(struct readahead_control *, unsigned long nr_to_read,
                unsigned long lookahead_size);
-
-/*
- * Submit IO for the read-ahead request in file_ra_state.
- */
-static inline void ra_submit(struct file_ra_state *ra,
-               struct address_space *mapping, struct file *filp)
+void force_page_cache_ra(struct readahead_control *, struct file_ra_state *,
+               unsigned long nr);
+static inline void force_page_cache_readahead(struct address_space *mapping,
+               struct file *file, pgoff_t index, unsigned long nr_to_read)
 {
-       __do_page_cache_readahead(mapping, filp,
-                       ra->start, ra->size, ra->async_size);
+       DEFINE_READAHEAD(ractl, file, mapping, index);
+       force_page_cache_ra(&ractl, &file->f_ra, nr_to_read);
 }
 
 struct page *find_get_entry(struct address_space *mapping, pgoff_t index);
@@ -275,16 +270,16 @@ int find_suitable_fallback(struct free_area *area, unsigned int order,
  * page from being allocated in parallel and returning garbage as the order.
  * If a caller does not hold page_zone(page)->lock, it must guarantee that the
  * page cannot be allocated or merged in parallel. Alternatively, it must
- * handle invalid values gracefully, and use page_order_unsafe() below.
+ * handle invalid values gracefully, and use buddy_order_unsafe() below.
  */
-static inline unsigned int page_order(struct page *page)
+static inline unsigned int buddy_order(struct page *page)
 {
        /* PageBuddy() must be checked by the caller */
        return page_private(page);
 }
 
 /*
- * Like page_order(), but for callers who cannot afford to hold the zone lock.
+ * Like buddy_order(), but for callers who cannot afford to hold the zone lock.
  * PageBuddy() should be checked first by the caller to minimize race window,
  * and invalid values must be handled gracefully.
  *
@@ -294,7 +289,7 @@ static inline unsigned int page_order(struct page *page)
  * times, potentially observing different values in the tests and the actual
  * use of the result.
  */
-#define page_order_unsafe(page)                READ_ONCE(page_private(page))
+#define buddy_order_unsafe(page)       READ_ONCE(page_private(page))
 
 static inline bool is_cow_mapping(vm_flags_t flags)
 {