dma-buf: cleanup dma-resv shared fence debugging a bit v2
[linux-2.6-microblaze.git] / include / linux / dma-resv.h
1 /*
2  * Header file for reservations for dma-buf and ttm
3  *
4  * Copyright(C) 2011 Linaro Limited. All rights reserved.
5  * Copyright (C) 2012-2013 Canonical Ltd
6  * Copyright (C) 2012 Texas Instruments
7  *
8  * Authors:
9  * Rob Clark <robdclark@gmail.com>
10  * Maarten Lankhorst <maarten.lankhorst@canonical.com>
11  * Thomas Hellstrom <thellstrom-at-vmware-dot-com>
12  *
13  * Based on bo.c which bears the following copyright notice,
14  * but is dual licensed:
15  *
16  * Copyright (c) 2006-2009 VMware, Inc., Palo Alto, CA., USA
17  * All Rights Reserved.
18  *
19  * Permission is hereby granted, free of charge, to any person obtaining a
20  * copy of this software and associated documentation files (the
21  * "Software"), to deal in the Software without restriction, including
22  * without limitation the rights to use, copy, modify, merge, publish,
23  * distribute, sub license, and/or sell copies of the Software, and to
24  * permit persons to whom the Software is furnished to do so, subject to
25  * the following conditions:
26  *
27  * The above copyright notice and this permission notice (including the
28  * next paragraph) shall be included in all copies or substantial portions
29  * of the Software.
30  *
31  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
32  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
33  * FITNESS FOR A PARTICULAR PURPOSE AND NON-INFRINGEMENT. IN NO EVENT SHALL
34  * THE COPYRIGHT HOLDERS, AUTHORS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM,
35  * DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR
36  * OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE
37  * USE OR OTHER DEALINGS IN THE SOFTWARE.
38  */
39 #ifndef _LINUX_RESERVATION_H
40 #define _LINUX_RESERVATION_H
41
42 #include <linux/ww_mutex.h>
43 #include <linux/dma-fence.h>
44 #include <linux/slab.h>
45 #include <linux/seqlock.h>
46 #include <linux/rcupdate.h>
47
48 extern struct ww_class reservation_ww_class;
49
50 /**
51  * struct dma_resv_list - a list of shared fences
52  * @rcu: for internal use
53  * @shared_count: table of shared fences
54  * @shared_max: for growing shared fence table
55  * @shared: shared fence table
56  */
57 struct dma_resv_list {
58         struct rcu_head rcu;
59         u32 shared_count, shared_max;
60         struct dma_fence __rcu *shared[];
61 };
62
63 /**
64  * struct dma_resv - a reservation object manages fences for a buffer
65  * @lock: update side lock
66  * @seq: sequence count for managing RCU read-side synchronization
67  * @fence_excl: the exclusive fence, if there is one currently
68  * @fence: list of current shared fences
69  */
70 struct dma_resv {
71         struct ww_mutex lock;
72         seqcount_ww_mutex_t seq;
73
74         struct dma_fence __rcu *fence_excl;
75         struct dma_resv_list __rcu *fence;
76 };
77
78 #define dma_resv_held(obj) lockdep_is_held(&(obj)->lock.base)
79 #define dma_resv_assert_held(obj) lockdep_assert_held(&(obj)->lock.base)
80
81 /**
82  * dma_resv_get_list - get the reservation object's
83  * shared fence list, with update-side lock held
84  * @obj: the reservation object
85  *
86  * Returns the shared fence list.  Does NOT take references to
87  * the fence.  The obj->lock must be held.
88  */
89 static inline struct dma_resv_list *dma_resv_get_list(struct dma_resv *obj)
90 {
91         return rcu_dereference_protected(obj->fence,
92                                          dma_resv_held(obj));
93 }
94
95 #ifdef CONFIG_DEBUG_MUTEXES
96 void dma_resv_reset_shared_max(struct dma_resv *obj);
97 #else
98 static inline void dma_resv_reset_shared_max(struct dma_resv *obj) {}
99 #endif
100
101 /**
102  * dma_resv_lock - lock the reservation object
103  * @obj: the reservation object
104  * @ctx: the locking context
105  *
106  * Locks the reservation object for exclusive access and modification. Note,
107  * that the lock is only against other writers, readers will run concurrently
108  * with a writer under RCU. The seqlock is used to notify readers if they
109  * overlap with a writer.
110  *
111  * As the reservation object may be locked by multiple parties in an
112  * undefined order, a #ww_acquire_ctx is passed to unwind if a cycle
113  * is detected. See ww_mutex_lock() and ww_acquire_init(). A reservation
114  * object may be locked by itself by passing NULL as @ctx.
115  */
116 static inline int dma_resv_lock(struct dma_resv *obj,
117                                 struct ww_acquire_ctx *ctx)
118 {
119         return ww_mutex_lock(&obj->lock, ctx);
120 }
121
122 /**
123  * dma_resv_lock_interruptible - lock the reservation object
124  * @obj: the reservation object
125  * @ctx: the locking context
126  *
127  * Locks the reservation object interruptible for exclusive access and
128  * modification. Note, that the lock is only against other writers, readers
129  * will run concurrently with a writer under RCU. The seqlock is used to
130  * notify readers if they overlap with a writer.
131  *
132  * As the reservation object may be locked by multiple parties in an
133  * undefined order, a #ww_acquire_ctx is passed to unwind if a cycle
134  * is detected. See ww_mutex_lock() and ww_acquire_init(). A reservation
135  * object may be locked by itself by passing NULL as @ctx.
136  */
137 static inline int dma_resv_lock_interruptible(struct dma_resv *obj,
138                                               struct ww_acquire_ctx *ctx)
139 {
140         return ww_mutex_lock_interruptible(&obj->lock, ctx);
141 }
142
143 /**
144  * dma_resv_lock_slow - slowpath lock the reservation object
145  * @obj: the reservation object
146  * @ctx: the locking context
147  *
148  * Acquires the reservation object after a die case. This function
149  * will sleep until the lock becomes available. See dma_resv_lock() as
150  * well.
151  */
152 static inline void dma_resv_lock_slow(struct dma_resv *obj,
153                                       struct ww_acquire_ctx *ctx)
154 {
155         ww_mutex_lock_slow(&obj->lock, ctx);
156 }
157
158 /**
159  * dma_resv_lock_slow_interruptible - slowpath lock the reservation
160  * object, interruptible
161  * @obj: the reservation object
162  * @ctx: the locking context
163  *
164  * Acquires the reservation object interruptible after a die case. This function
165  * will sleep until the lock becomes available. See
166  * dma_resv_lock_interruptible() as well.
167  */
168 static inline int dma_resv_lock_slow_interruptible(struct dma_resv *obj,
169                                                    struct ww_acquire_ctx *ctx)
170 {
171         return ww_mutex_lock_slow_interruptible(&obj->lock, ctx);
172 }
173
174 /**
175  * dma_resv_trylock - trylock the reservation object
176  * @obj: the reservation object
177  *
178  * Tries to lock the reservation object for exclusive access and modification.
179  * Note, that the lock is only against other writers, readers will run
180  * concurrently with a writer under RCU. The seqlock is used to notify readers
181  * if they overlap with a writer.
182  *
183  * Also note that since no context is provided, no deadlock protection is
184  * possible.
185  *
186  * Returns true if the lock was acquired, false otherwise.
187  */
188 static inline bool __must_check dma_resv_trylock(struct dma_resv *obj)
189 {
190         return ww_mutex_trylock(&obj->lock);
191 }
192
193 /**
194  * dma_resv_is_locked - is the reservation object locked
195  * @obj: the reservation object
196  *
197  * Returns true if the mutex is locked, false if unlocked.
198  */
199 static inline bool dma_resv_is_locked(struct dma_resv *obj)
200 {
201         return ww_mutex_is_locked(&obj->lock);
202 }
203
204 /**
205  * dma_resv_locking_ctx - returns the context used to lock the object
206  * @obj: the reservation object
207  *
208  * Returns the context used to lock a reservation object or NULL if no context
209  * was used or the object is not locked at all.
210  */
211 static inline struct ww_acquire_ctx *dma_resv_locking_ctx(struct dma_resv *obj)
212 {
213         return READ_ONCE(obj->lock.ctx);
214 }
215
216 /**
217  * dma_resv_unlock - unlock the reservation object
218  * @obj: the reservation object
219  *
220  * Unlocks the reservation object following exclusive access.
221  */
222 static inline void dma_resv_unlock(struct dma_resv *obj)
223 {
224         dma_resv_reset_shared_max(obj);
225         ww_mutex_unlock(&obj->lock);
226 }
227
228 /**
229  * dma_resv_get_excl - get the reservation object's
230  * exclusive fence, with update-side lock held
231  * @obj: the reservation object
232  *
233  * Returns the exclusive fence (if any).  Does NOT take a
234  * reference. Writers must hold obj->lock, readers may only
235  * hold a RCU read side lock.
236  *
237  * RETURNS
238  * The exclusive fence or NULL
239  */
240 static inline struct dma_fence *
241 dma_resv_get_excl(struct dma_resv *obj)
242 {
243         return rcu_dereference_protected(obj->fence_excl,
244                                          dma_resv_held(obj));
245 }
246
247 /**
248  * dma_resv_get_excl_rcu - get the reservation object's
249  * exclusive fence, without lock held.
250  * @obj: the reservation object
251  *
252  * If there is an exclusive fence, this atomically increments it's
253  * reference count and returns it.
254  *
255  * RETURNS
256  * The exclusive fence or NULL if none
257  */
258 static inline struct dma_fence *
259 dma_resv_get_excl_rcu(struct dma_resv *obj)
260 {
261         struct dma_fence *fence;
262
263         if (!rcu_access_pointer(obj->fence_excl))
264                 return NULL;
265
266         rcu_read_lock();
267         fence = dma_fence_get_rcu_safe(&obj->fence_excl);
268         rcu_read_unlock();
269
270         return fence;
271 }
272
273 void dma_resv_init(struct dma_resv *obj);
274 void dma_resv_fini(struct dma_resv *obj);
275 int dma_resv_reserve_shared(struct dma_resv *obj, unsigned int num_fences);
276 void dma_resv_add_shared_fence(struct dma_resv *obj, struct dma_fence *fence);
277
278 void dma_resv_add_excl_fence(struct dma_resv *obj, struct dma_fence *fence);
279
280 int dma_resv_get_fences_rcu(struct dma_resv *obj,
281                             struct dma_fence **pfence_excl,
282                             unsigned *pshared_count,
283                             struct dma_fence ***pshared);
284
285 int dma_resv_copy_fences(struct dma_resv *dst, struct dma_resv *src);
286
287 long dma_resv_wait_timeout_rcu(struct dma_resv *obj, bool wait_all, bool intr,
288                                unsigned long timeout);
289
290 bool dma_resv_test_signaled_rcu(struct dma_resv *obj, bool test_all);
291
292 #endif /* _LINUX_RESERVATION_H */