Merge tag 'virtio-fs-5.4' of git://git.kernel.org/pub/scm/linux/kernel/git/mszeredi...
[linux-2.6-microblaze.git] / drivers / dma-buf / dma-buf.c
index f45bfb2..433d91d 100644 (file)
@@ -21,7 +21,7 @@
 #include <linux/module.h>
 #include <linux/seq_file.h>
 #include <linux/poll.h>
-#include <linux/reservation.h>
+#include <linux/dma-resv.h>
 #include <linux/mm.h>
 #include <linux/mount.h>
 #include <linux/pseudo_fs.h>
@@ -104,8 +104,8 @@ static int dma_buf_release(struct inode *inode, struct file *file)
        list_del(&dmabuf->list_node);
        mutex_unlock(&db_list.lock);
 
-       if (dmabuf->resv == (struct reservation_object *)&dmabuf[1])
-               reservation_object_fini(dmabuf->resv);
+       if (dmabuf->resv == (struct dma_resv *)&dmabuf[1])
+               dma_resv_fini(dmabuf->resv);
 
        module_put(dmabuf->owner);
        kfree(dmabuf);
@@ -165,7 +165,7 @@ static loff_t dma_buf_llseek(struct file *file, loff_t offset, int whence)
  * To support cross-device and cross-driver synchronization of buffer access
  * implicit fences (represented internally in the kernel with &struct fence) can
  * be attached to a &dma_buf. The glue for that and a few related things are
- * provided in the &reservation_object structure.
+ * provided in the &dma_resv structure.
  *
  * Userspace can query the state of these implicitly tracked fences using poll()
  * and related system calls:
@@ -195,8 +195,8 @@ static void dma_buf_poll_cb(struct dma_fence *fence, struct dma_fence_cb *cb)
 static __poll_t dma_buf_poll(struct file *file, poll_table *poll)
 {
        struct dma_buf *dmabuf;
-       struct reservation_object *resv;
-       struct reservation_object_list *fobj;
+       struct dma_resv *resv;
+       struct dma_resv_list *fobj;
        struct dma_fence *fence_excl;
        __poll_t events;
        unsigned shared_count, seq;
@@ -506,13 +506,13 @@ err_alloc_file:
 struct dma_buf *dma_buf_export(const struct dma_buf_export_info *exp_info)
 {
        struct dma_buf *dmabuf;
-       struct reservation_object *resv = exp_info->resv;
+       struct dma_resv *resv = exp_info->resv;
        struct file *file;
        size_t alloc_size = sizeof(struct dma_buf);
        int ret;
 
        if (!exp_info->resv)
-               alloc_size += sizeof(struct reservation_object);
+               alloc_size += sizeof(struct dma_resv);
        else
                /* prevent &dma_buf[1] == dma_buf->resv */
                alloc_size += 1;
@@ -544,8 +544,8 @@ struct dma_buf *dma_buf_export(const struct dma_buf_export_info *exp_info)
        dmabuf->cb_excl.active = dmabuf->cb_shared.active = 0;
 
        if (!resv) {
-               resv = (struct reservation_object *)&dmabuf[1];
-               reservation_object_init(resv);
+               resv = (struct dma_resv *)&dmabuf[1];
+               dma_resv_init(resv);
        }
        dmabuf->resv = resv;
 
@@ -909,11 +909,11 @@ static int __dma_buf_begin_cpu_access(struct dma_buf *dmabuf,
 {
        bool write = (direction == DMA_BIDIRECTIONAL ||
                      direction == DMA_TO_DEVICE);
-       struct reservation_object *resv = dmabuf->resv;
+       struct dma_resv *resv = dmabuf->resv;
        long ret;
 
        /* Wait on any implicit rendering fences */
-       ret = reservation_object_wait_timeout_rcu(resv, write, true,
+       ret = dma_resv_wait_timeout_rcu(resv, write, true,
                                                  MAX_SCHEDULE_TIMEOUT);
        if (ret < 0)
                return ret;
@@ -1154,8 +1154,8 @@ static int dma_buf_debug_show(struct seq_file *s, void *unused)
        int ret;
        struct dma_buf *buf_obj;
        struct dma_buf_attachment *attach_obj;
-       struct reservation_object *robj;
-       struct reservation_object_list *fobj;
+       struct dma_resv *robj;
+       struct dma_resv_list *fobj;
        struct dma_fence *fence;
        unsigned seq;
        int count = 0, attach_count, shared_count, i;