Merge tag 'char-misc-5.9-rc1' of git://git.kernel.org/pub/scm/linux/kernel/git/gregkh...
[linux-2.6-microblaze.git] / include / linux / device.h
1 // SPDX-License-Identifier: GPL-2.0
2 /*
3  * device.h - generic, centralized driver model
4  *
5  * Copyright (c) 2001-2003 Patrick Mochel <mochel@osdl.org>
6  * Copyright (c) 2004-2009 Greg Kroah-Hartman <gregkh@suse.de>
7  * Copyright (c) 2008-2009 Novell Inc.
8  *
9  * See Documentation/driver-api/driver-model/ for more information.
10  */
11
12 #ifndef _DEVICE_H_
13 #define _DEVICE_H_
14
15 #include <linux/dev_printk.h>
16 #include <linux/energy_model.h>
17 #include <linux/ioport.h>
18 #include <linux/kobject.h>
19 #include <linux/klist.h>
20 #include <linux/list.h>
21 #include <linux/lockdep.h>
22 #include <linux/compiler.h>
23 #include <linux/types.h>
24 #include <linux/mutex.h>
25 #include <linux/pm.h>
26 #include <linux/atomic.h>
27 #include <linux/uidgid.h>
28 #include <linux/gfp.h>
29 #include <linux/overflow.h>
30 #include <linux/device/bus.h>
31 #include <linux/device/class.h>
32 #include <linux/device/driver.h>
33 #include <asm/device.h>
34
35 struct device;
36 struct device_private;
37 struct device_driver;
38 struct driver_private;
39 struct module;
40 struct class;
41 struct subsys_private;
42 struct device_node;
43 struct fwnode_handle;
44 struct iommu_ops;
45 struct iommu_group;
46 struct dev_pin_info;
47 struct dev_iommu;
48
49 /**
50  * struct subsys_interface - interfaces to device functions
51  * @name:       name of the device function
52  * @subsys:     subsytem of the devices to attach to
53  * @node:       the list of functions registered at the subsystem
54  * @add_dev:    device hookup to device function handler
55  * @remove_dev: device hookup to device function handler
56  *
57  * Simple interfaces attached to a subsystem. Multiple interfaces can
58  * attach to a subsystem and its devices. Unlike drivers, they do not
59  * exclusively claim or control devices. Interfaces usually represent
60  * a specific functionality of a subsystem/class of devices.
61  */
62 struct subsys_interface {
63         const char *name;
64         struct bus_type *subsys;
65         struct list_head node;
66         int (*add_dev)(struct device *dev, struct subsys_interface *sif);
67         void (*remove_dev)(struct device *dev, struct subsys_interface *sif);
68 };
69
70 int subsys_interface_register(struct subsys_interface *sif);
71 void subsys_interface_unregister(struct subsys_interface *sif);
72
73 int subsys_system_register(struct bus_type *subsys,
74                            const struct attribute_group **groups);
75 int subsys_virtual_register(struct bus_type *subsys,
76                             const struct attribute_group **groups);
77
78 /*
79  * The type of device, "struct device" is embedded in. A class
80  * or bus can contain devices of different types
81  * like "partitions" and "disks", "mouse" and "event".
82  * This identifies the device type and carries type-specific
83  * information, equivalent to the kobj_type of a kobject.
84  * If "name" is specified, the uevent will contain it in
85  * the DEVTYPE variable.
86  */
87 struct device_type {
88         const char *name;
89         const struct attribute_group **groups;
90         int (*uevent)(struct device *dev, struct kobj_uevent_env *env);
91         char *(*devnode)(struct device *dev, umode_t *mode,
92                          kuid_t *uid, kgid_t *gid);
93         void (*release)(struct device *dev);
94
95         const struct dev_pm_ops *pm;
96 };
97
98 /* interface for exporting device attributes */
99 struct device_attribute {
100         struct attribute        attr;
101         ssize_t (*show)(struct device *dev, struct device_attribute *attr,
102                         char *buf);
103         ssize_t (*store)(struct device *dev, struct device_attribute *attr,
104                          const char *buf, size_t count);
105 };
106
107 struct dev_ext_attribute {
108         struct device_attribute attr;
109         void *var;
110 };
111
112 ssize_t device_show_ulong(struct device *dev, struct device_attribute *attr,
113                           char *buf);
114 ssize_t device_store_ulong(struct device *dev, struct device_attribute *attr,
115                            const char *buf, size_t count);
116 ssize_t device_show_int(struct device *dev, struct device_attribute *attr,
117                         char *buf);
118 ssize_t device_store_int(struct device *dev, struct device_attribute *attr,
119                          const char *buf, size_t count);
120 ssize_t device_show_bool(struct device *dev, struct device_attribute *attr,
121                         char *buf);
122 ssize_t device_store_bool(struct device *dev, struct device_attribute *attr,
123                          const char *buf, size_t count);
124
125 #define DEVICE_ATTR(_name, _mode, _show, _store) \
126         struct device_attribute dev_attr_##_name = __ATTR(_name, _mode, _show, _store)
127 #define DEVICE_ATTR_PREALLOC(_name, _mode, _show, _store) \
128         struct device_attribute dev_attr_##_name = \
129                 __ATTR_PREALLOC(_name, _mode, _show, _store)
130 #define DEVICE_ATTR_RW(_name) \
131         struct device_attribute dev_attr_##_name = __ATTR_RW(_name)
132 #define DEVICE_ATTR_RO(_name) \
133         struct device_attribute dev_attr_##_name = __ATTR_RO(_name)
134 #define DEVICE_ATTR_WO(_name) \
135         struct device_attribute dev_attr_##_name = __ATTR_WO(_name)
136 #define DEVICE_ULONG_ATTR(_name, _mode, _var) \
137         struct dev_ext_attribute dev_attr_##_name = \
138                 { __ATTR(_name, _mode, device_show_ulong, device_store_ulong), &(_var) }
139 #define DEVICE_INT_ATTR(_name, _mode, _var) \
140         struct dev_ext_attribute dev_attr_##_name = \
141                 { __ATTR(_name, _mode, device_show_int, device_store_int), &(_var) }
142 #define DEVICE_BOOL_ATTR(_name, _mode, _var) \
143         struct dev_ext_attribute dev_attr_##_name = \
144                 { __ATTR(_name, _mode, device_show_bool, device_store_bool), &(_var) }
145 #define DEVICE_ATTR_IGNORE_LOCKDEP(_name, _mode, _show, _store) \
146         struct device_attribute dev_attr_##_name =              \
147                 __ATTR_IGNORE_LOCKDEP(_name, _mode, _show, _store)
148
149 extern int device_create_file(struct device *device,
150                               const struct device_attribute *entry);
151 extern void device_remove_file(struct device *dev,
152                                const struct device_attribute *attr);
153 extern bool device_remove_file_self(struct device *dev,
154                                     const struct device_attribute *attr);
155 extern int __must_check device_create_bin_file(struct device *dev,
156                                         const struct bin_attribute *attr);
157 extern void device_remove_bin_file(struct device *dev,
158                                    const struct bin_attribute *attr);
159
160 /* device resource management */
161 typedef void (*dr_release_t)(struct device *dev, void *res);
162 typedef int (*dr_match_t)(struct device *dev, void *res, void *match_data);
163
164 #ifdef CONFIG_DEBUG_DEVRES
165 extern void *__devres_alloc_node(dr_release_t release, size_t size, gfp_t gfp,
166                                  int nid, const char *name) __malloc;
167 #define devres_alloc(release, size, gfp) \
168         __devres_alloc_node(release, size, gfp, NUMA_NO_NODE, #release)
169 #define devres_alloc_node(release, size, gfp, nid) \
170         __devres_alloc_node(release, size, gfp, nid, #release)
171 #else
172 extern void *devres_alloc_node(dr_release_t release, size_t size, gfp_t gfp,
173                                int nid) __malloc;
174 static inline void *devres_alloc(dr_release_t release, size_t size, gfp_t gfp)
175 {
176         return devres_alloc_node(release, size, gfp, NUMA_NO_NODE);
177 }
178 #endif
179
180 extern void devres_for_each_res(struct device *dev, dr_release_t release,
181                                 dr_match_t match, void *match_data,
182                                 void (*fn)(struct device *, void *, void *),
183                                 void *data);
184 extern void devres_free(void *res);
185 extern void devres_add(struct device *dev, void *res);
186 extern void *devres_find(struct device *dev, dr_release_t release,
187                          dr_match_t match, void *match_data);
188 extern void *devres_get(struct device *dev, void *new_res,
189                         dr_match_t match, void *match_data);
190 extern void *devres_remove(struct device *dev, dr_release_t release,
191                            dr_match_t match, void *match_data);
192 extern int devres_destroy(struct device *dev, dr_release_t release,
193                           dr_match_t match, void *match_data);
194 extern int devres_release(struct device *dev, dr_release_t release,
195                           dr_match_t match, void *match_data);
196
197 /* devres group */
198 extern void * __must_check devres_open_group(struct device *dev, void *id,
199                                              gfp_t gfp);
200 extern void devres_close_group(struct device *dev, void *id);
201 extern void devres_remove_group(struct device *dev, void *id);
202 extern int devres_release_group(struct device *dev, void *id);
203
204 /* managed devm_k.alloc/kfree for device drivers */
205 extern void *devm_kmalloc(struct device *dev, size_t size, gfp_t gfp) __malloc;
206 extern __printf(3, 0)
207 char *devm_kvasprintf(struct device *dev, gfp_t gfp, const char *fmt,
208                       va_list ap) __malloc;
209 extern __printf(3, 4)
210 char *devm_kasprintf(struct device *dev, gfp_t gfp, const char *fmt, ...) __malloc;
211 static inline void *devm_kzalloc(struct device *dev, size_t size, gfp_t gfp)
212 {
213         return devm_kmalloc(dev, size, gfp | __GFP_ZERO);
214 }
215 static inline void *devm_kmalloc_array(struct device *dev,
216                                        size_t n, size_t size, gfp_t flags)
217 {
218         size_t bytes;
219
220         if (unlikely(check_mul_overflow(n, size, &bytes)))
221                 return NULL;
222
223         return devm_kmalloc(dev, bytes, flags);
224 }
225 static inline void *devm_kcalloc(struct device *dev,
226                                  size_t n, size_t size, gfp_t flags)
227 {
228         return devm_kmalloc_array(dev, n, size, flags | __GFP_ZERO);
229 }
230 extern void devm_kfree(struct device *dev, const void *p);
231 extern char *devm_kstrdup(struct device *dev, const char *s, gfp_t gfp) __malloc;
232 extern const char *devm_kstrdup_const(struct device *dev,
233                                       const char *s, gfp_t gfp);
234 extern void *devm_kmemdup(struct device *dev, const void *src, size_t len,
235                           gfp_t gfp);
236
237 extern unsigned long devm_get_free_pages(struct device *dev,
238                                          gfp_t gfp_mask, unsigned int order);
239 extern void devm_free_pages(struct device *dev, unsigned long addr);
240
241 void __iomem *devm_ioremap_resource(struct device *dev,
242                                     const struct resource *res);
243 void __iomem *devm_ioremap_resource_wc(struct device *dev,
244                                        const struct resource *res);
245
246 void __iomem *devm_of_iomap(struct device *dev,
247                             struct device_node *node, int index,
248                             resource_size_t *size);
249
250 /* allows to add/remove a custom action to devres stack */
251 int devm_add_action(struct device *dev, void (*action)(void *), void *data);
252 void devm_remove_action(struct device *dev, void (*action)(void *), void *data);
253 void devm_release_action(struct device *dev, void (*action)(void *), void *data);
254
255 static inline int devm_add_action_or_reset(struct device *dev,
256                                            void (*action)(void *), void *data)
257 {
258         int ret;
259
260         ret = devm_add_action(dev, action, data);
261         if (ret)
262                 action(data);
263
264         return ret;
265 }
266
267 /**
268  * devm_alloc_percpu - Resource-managed alloc_percpu
269  * @dev: Device to allocate per-cpu memory for
270  * @type: Type to allocate per-cpu memory for
271  *
272  * Managed alloc_percpu. Per-cpu memory allocated with this function is
273  * automatically freed on driver detach.
274  *
275  * RETURNS:
276  * Pointer to allocated memory on success, NULL on failure.
277  */
278 #define devm_alloc_percpu(dev, type)      \
279         ((typeof(type) __percpu *)__devm_alloc_percpu((dev), sizeof(type), \
280                                                       __alignof__(type)))
281
282 void __percpu *__devm_alloc_percpu(struct device *dev, size_t size,
283                                    size_t align);
284 void devm_free_percpu(struct device *dev, void __percpu *pdata);
285
286 struct device_dma_parameters {
287         /*
288          * a low level driver may set these to teach IOMMU code about
289          * sg limitations.
290          */
291         unsigned int max_segment_size;
292         unsigned long segment_boundary_mask;
293 };
294
295 /**
296  * struct device_connection - Device Connection Descriptor
297  * @fwnode: The device node of the connected device
298  * @endpoint: The names of the two devices connected together
299  * @id: Unique identifier for the connection
300  * @list: List head, private, for internal use only
301  *
302  * NOTE: @fwnode is not used together with @endpoint. @fwnode is used when
303  * platform firmware defines the connection. When the connection is registered
304  * with device_connection_add() @endpoint is used instead.
305  */
306 struct device_connection {
307         struct fwnode_handle    *fwnode;
308         const char              *endpoint[2];
309         const char              *id;
310         struct list_head        list;
311 };
312
313 typedef void *(*devcon_match_fn_t)(struct device_connection *con, int ep,
314                                    void *data);
315
316 void *fwnode_connection_find_match(struct fwnode_handle *fwnode,
317                                    const char *con_id, void *data,
318                                    devcon_match_fn_t match);
319 void *device_connection_find_match(struct device *dev, const char *con_id,
320                                    void *data, devcon_match_fn_t match);
321
322 struct device *device_connection_find(struct device *dev, const char *con_id);
323
324 void device_connection_add(struct device_connection *con);
325 void device_connection_remove(struct device_connection *con);
326
327 /**
328  * device_connections_add - Add multiple device connections at once
329  * @cons: Zero terminated array of device connection descriptors
330  */
331 static inline void device_connections_add(struct device_connection *cons)
332 {
333         struct device_connection *c;
334
335         for (c = cons; c->endpoint[0]; c++)
336                 device_connection_add(c);
337 }
338
339 /**
340  * device_connections_remove - Remove multiple device connections at once
341  * @cons: Zero terminated array of device connection descriptors
342  */
343 static inline void device_connections_remove(struct device_connection *cons)
344 {
345         struct device_connection *c;
346
347         for (c = cons; c->endpoint[0]; c++)
348                 device_connection_remove(c);
349 }
350
351 /**
352  * enum device_link_state - Device link states.
353  * @DL_STATE_NONE: The presence of the drivers is not being tracked.
354  * @DL_STATE_DORMANT: None of the supplier/consumer drivers is present.
355  * @DL_STATE_AVAILABLE: The supplier driver is present, but the consumer is not.
356  * @DL_STATE_CONSUMER_PROBE: The consumer is probing (supplier driver present).
357  * @DL_STATE_ACTIVE: Both the supplier and consumer drivers are present.
358  * @DL_STATE_SUPPLIER_UNBIND: The supplier driver is unbinding.
359  */
360 enum device_link_state {
361         DL_STATE_NONE = -1,
362         DL_STATE_DORMANT = 0,
363         DL_STATE_AVAILABLE,
364         DL_STATE_CONSUMER_PROBE,
365         DL_STATE_ACTIVE,
366         DL_STATE_SUPPLIER_UNBIND,
367 };
368
369 /*
370  * Device link flags.
371  *
372  * STATELESS: The core will not remove this link automatically.
373  * AUTOREMOVE_CONSUMER: Remove the link automatically on consumer driver unbind.
374  * PM_RUNTIME: If set, the runtime PM framework will use this link.
375  * RPM_ACTIVE: Run pm_runtime_get_sync() on the supplier during link creation.
376  * AUTOREMOVE_SUPPLIER: Remove the link automatically on supplier driver unbind.
377  * AUTOPROBE_CONSUMER: Probe consumer driver automatically after supplier binds.
378  * MANAGED: The core tracks presence of supplier/consumer drivers (internal).
379  * SYNC_STATE_ONLY: Link only affects sync_state() behavior.
380  */
381 #define DL_FLAG_STATELESS               BIT(0)
382 #define DL_FLAG_AUTOREMOVE_CONSUMER     BIT(1)
383 #define DL_FLAG_PM_RUNTIME              BIT(2)
384 #define DL_FLAG_RPM_ACTIVE              BIT(3)
385 #define DL_FLAG_AUTOREMOVE_SUPPLIER     BIT(4)
386 #define DL_FLAG_AUTOPROBE_CONSUMER      BIT(5)
387 #define DL_FLAG_MANAGED                 BIT(6)
388 #define DL_FLAG_SYNC_STATE_ONLY         BIT(7)
389
390 /**
391  * struct device_link - Device link representation.
392  * @supplier: The device on the supplier end of the link.
393  * @s_node: Hook to the supplier device's list of links to consumers.
394  * @consumer: The device on the consumer end of the link.
395  * @c_node: Hook to the consumer device's list of links to suppliers.
396  * @status: The state of the link (with respect to the presence of drivers).
397  * @flags: Link flags.
398  * @rpm_active: Whether or not the consumer device is runtime-PM-active.
399  * @kref: Count repeated addition of the same link.
400  * @rcu_head: An RCU head to use for deferred execution of SRCU callbacks.
401  * @supplier_preactivated: Supplier has been made active before consumer probe.
402  */
403 struct device_link {
404         struct device *supplier;
405         struct list_head s_node;
406         struct device *consumer;
407         struct list_head c_node;
408         enum device_link_state status;
409         u32 flags;
410         refcount_t rpm_active;
411         struct kref kref;
412 #ifdef CONFIG_SRCU
413         struct rcu_head rcu_head;
414 #endif
415         bool supplier_preactivated; /* Owned by consumer probe. */
416 };
417
418 /**
419  * enum dl_dev_state - Device driver presence tracking information.
420  * @DL_DEV_NO_DRIVER: There is no driver attached to the device.
421  * @DL_DEV_PROBING: A driver is probing.
422  * @DL_DEV_DRIVER_BOUND: The driver has been bound to the device.
423  * @DL_DEV_UNBINDING: The driver is unbinding from the device.
424  */
425 enum dl_dev_state {
426         DL_DEV_NO_DRIVER = 0,
427         DL_DEV_PROBING,
428         DL_DEV_DRIVER_BOUND,
429         DL_DEV_UNBINDING,
430 };
431
432 /**
433  * struct dev_links_info - Device data related to device links.
434  * @suppliers: List of links to supplier devices.
435  * @consumers: List of links to consumer devices.
436  * @needs_suppliers: Hook to global list of devices waiting for suppliers.
437  * @defer_hook: Hook to global list of devices that have deferred sync_state or
438  *              deferred fw_devlink.
439  * @need_for_probe: If needs_suppliers is on a list, this indicates if the
440  *                  suppliers are needed for probe or not.
441  * @status: Driver status information.
442  */
443 struct dev_links_info {
444         struct list_head suppliers;
445         struct list_head consumers;
446         struct list_head needs_suppliers;
447         struct list_head defer_hook;
448         bool need_for_probe;
449         enum dl_dev_state status;
450 };
451
452 /**
453  * struct device - The basic device structure
454  * @parent:     The device's "parent" device, the device to which it is attached.
455  *              In most cases, a parent device is some sort of bus or host
456  *              controller. If parent is NULL, the device, is a top-level device,
457  *              which is not usually what you want.
458  * @p:          Holds the private data of the driver core portions of the device.
459  *              See the comment of the struct device_private for detail.
460  * @kobj:       A top-level, abstract class from which other classes are derived.
461  * @init_name:  Initial name of the device.
462  * @type:       The type of device.
463  *              This identifies the device type and carries type-specific
464  *              information.
465  * @mutex:      Mutex to synchronize calls to its driver.
466  * @lockdep_mutex: An optional debug lock that a subsystem can use as a
467  *              peer lock to gain localized lockdep coverage of the device_lock.
468  * @bus:        Type of bus device is on.
469  * @driver:     Which driver has allocated this
470  * @platform_data: Platform data specific to the device.
471  *              Example: For devices on custom boards, as typical of embedded
472  *              and SOC based hardware, Linux often uses platform_data to point
473  *              to board-specific structures describing devices and how they
474  *              are wired.  That can include what ports are available, chip
475  *              variants, which GPIO pins act in what additional roles, and so
476  *              on.  This shrinks the "Board Support Packages" (BSPs) and
477  *              minimizes board-specific #ifdefs in drivers.
478  * @driver_data: Private pointer for driver specific info.
479  * @links:      Links to suppliers and consumers of this device.
480  * @power:      For device power management.
481  *              See Documentation/driver-api/pm/devices.rst for details.
482  * @pm_domain:  Provide callbacks that are executed during system suspend,
483  *              hibernation, system resume and during runtime PM transitions
484  *              along with subsystem-level and driver-level callbacks.
485  * @pins:       For device pin management.
486  *              See Documentation/driver-api/pinctl.rst for details.
487  * @msi_list:   Hosts MSI descriptors
488  * @msi_domain: The generic MSI domain this device is using.
489  * @numa_node:  NUMA node this device is close to.
490  * @dma_ops:    DMA mapping operations for this device.
491  * @dma_mask:   Dma mask (if dma'ble device).
492  * @coherent_dma_mask: Like dma_mask, but for alloc_coherent mapping as not all
493  *              hardware supports 64-bit addresses for consistent allocations
494  *              such descriptors.
495  * @bus_dma_limit: Limit of an upstream bridge or bus which imposes a smaller
496  *              DMA limit than the device itself supports.
497  * @dma_pfn_offset: offset of DMA memory range relatively of RAM
498  * @dma_parms:  A low level driver may set these to teach IOMMU code about
499  *              segment limitations.
500  * @dma_pools:  Dma pools (if dma'ble device).
501  * @dma_mem:    Internal for coherent mem override.
502  * @cma_area:   Contiguous memory area for dma allocations
503  * @archdata:   For arch-specific additions.
504  * @of_node:    Associated device tree node.
505  * @fwnode:     Associated device node supplied by platform firmware.
506  * @devt:       For creating the sysfs "dev".
507  * @id:         device instance
508  * @devres_lock: Spinlock to protect the resource of the device.
509  * @devres_head: The resources list of the device.
510  * @knode_class: The node used to add the device to the class list.
511  * @class:      The class of the device.
512  * @groups:     Optional attribute groups.
513  * @release:    Callback to free the device after all references have
514  *              gone away. This should be set by the allocator of the
515  *              device (i.e. the bus driver that discovered the device).
516  * @iommu_group: IOMMU group the device belongs to.
517  * @iommu:      Per device generic IOMMU runtime data
518  *
519  * @offline_disabled: If set, the device is permanently online.
520  * @offline:    Set after successful invocation of bus type's .offline().
521  * @of_node_reused: Set if the device-tree node is shared with an ancestor
522  *              device.
523  * @state_synced: The hardware state of this device has been synced to match
524  *                the software state of this device by calling the driver/bus
525  *                sync_state() callback.
526  * @dma_coherent: this particular device is dma coherent, even if the
527  *              architecture supports non-coherent devices.
528  * @dma_ops_bypass: If set to %true then the dma_ops are bypassed for the
529  *              streaming DMA operations (->map_* / ->unmap_* / ->sync_*),
530  *              and optionall (if the coherent mask is large enough) also
531  *              for dma allocations.  This flag is managed by the dma ops
532  *              instance from ->dma_supported.
533  *
534  * At the lowest level, every device in a Linux system is represented by an
535  * instance of struct device. The device structure contains the information
536  * that the device model core needs to model the system. Most subsystems,
537  * however, track additional information about the devices they host. As a
538  * result, it is rare for devices to be represented by bare device structures;
539  * instead, that structure, like kobject structures, is usually embedded within
540  * a higher-level representation of the device.
541  */
542 struct device {
543         struct kobject kobj;
544         struct device           *parent;
545
546         struct device_private   *p;
547
548         const char              *init_name; /* initial name of the device */
549         const struct device_type *type;
550
551         struct bus_type *bus;           /* type of bus device is on */
552         struct device_driver *driver;   /* which driver has allocated this
553                                            device */
554         void            *platform_data; /* Platform specific data, device
555                                            core doesn't touch it */
556         void            *driver_data;   /* Driver data, set and get with
557                                            dev_set_drvdata/dev_get_drvdata */
558 #ifdef CONFIG_PROVE_LOCKING
559         struct mutex            lockdep_mutex;
560 #endif
561         struct mutex            mutex;  /* mutex to synchronize calls to
562                                          * its driver.
563                                          */
564
565         struct dev_links_info   links;
566         struct dev_pm_info      power;
567         struct dev_pm_domain    *pm_domain;
568
569 #ifdef CONFIG_ENERGY_MODEL
570         struct em_perf_domain   *em_pd;
571 #endif
572
573 #ifdef CONFIG_GENERIC_MSI_IRQ_DOMAIN
574         struct irq_domain       *msi_domain;
575 #endif
576 #ifdef CONFIG_PINCTRL
577         struct dev_pin_info     *pins;
578 #endif
579 #ifdef CONFIG_GENERIC_MSI_IRQ
580         struct list_head        msi_list;
581 #endif
582 #ifdef CONFIG_DMA_OPS
583         const struct dma_map_ops *dma_ops;
584 #endif
585         u64             *dma_mask;      /* dma mask (if dma'able device) */
586         u64             coherent_dma_mask;/* Like dma_mask, but for
587                                              alloc_coherent mappings as
588                                              not all hardware supports
589                                              64 bit addresses for consistent
590                                              allocations such descriptors. */
591         u64             bus_dma_limit;  /* upstream dma constraint */
592         unsigned long   dma_pfn_offset;
593
594         struct device_dma_parameters *dma_parms;
595
596         struct list_head        dma_pools;      /* dma pools (if dma'ble) */
597
598 #ifdef CONFIG_DMA_DECLARE_COHERENT
599         struct dma_coherent_mem *dma_mem; /* internal for coherent mem
600                                              override */
601 #endif
602 #ifdef CONFIG_DMA_CMA
603         struct cma *cma_area;           /* contiguous memory area for dma
604                                            allocations */
605 #endif
606         /* arch specific additions */
607         struct dev_archdata     archdata;
608
609         struct device_node      *of_node; /* associated device tree node */
610         struct fwnode_handle    *fwnode; /* firmware device node */
611
612 #ifdef CONFIG_NUMA
613         int             numa_node;      /* NUMA node this device is close to */
614 #endif
615         dev_t                   devt;   /* dev_t, creates the sysfs "dev" */
616         u32                     id;     /* device instance */
617
618         spinlock_t              devres_lock;
619         struct list_head        devres_head;
620
621         struct class            *class;
622         const struct attribute_group **groups;  /* optional groups */
623
624         void    (*release)(struct device *dev);
625         struct iommu_group      *iommu_group;
626         struct dev_iommu        *iommu;
627
628         bool                    offline_disabled:1;
629         bool                    offline:1;
630         bool                    of_node_reused:1;
631         bool                    state_synced:1;
632 #if defined(CONFIG_ARCH_HAS_SYNC_DMA_FOR_DEVICE) || \
633     defined(CONFIG_ARCH_HAS_SYNC_DMA_FOR_CPU) || \
634     defined(CONFIG_ARCH_HAS_SYNC_DMA_FOR_CPU_ALL)
635         bool                    dma_coherent:1;
636 #endif
637 #ifdef CONFIG_DMA_OPS_BYPASS
638         bool                    dma_ops_bypass : 1;
639 #endif
640 };
641
642 static inline struct device *kobj_to_dev(struct kobject *kobj)
643 {
644         return container_of(kobj, struct device, kobj);
645 }
646
647 /**
648  * device_iommu_mapped - Returns true when the device DMA is translated
649  *                       by an IOMMU
650  * @dev: Device to perform the check on
651  */
652 static inline bool device_iommu_mapped(struct device *dev)
653 {
654         return (dev->iommu_group != NULL);
655 }
656
657 /* Get the wakeup routines, which depend on struct device */
658 #include <linux/pm_wakeup.h>
659
660 static inline const char *dev_name(const struct device *dev)
661 {
662         /* Use the init name until the kobject becomes available */
663         if (dev->init_name)
664                 return dev->init_name;
665
666         return kobject_name(&dev->kobj);
667 }
668
669 extern __printf(2, 3)
670 int dev_set_name(struct device *dev, const char *name, ...);
671
672 #ifdef CONFIG_NUMA
673 static inline int dev_to_node(struct device *dev)
674 {
675         return dev->numa_node;
676 }
677 static inline void set_dev_node(struct device *dev, int node)
678 {
679         dev->numa_node = node;
680 }
681 #else
682 static inline int dev_to_node(struct device *dev)
683 {
684         return NUMA_NO_NODE;
685 }
686 static inline void set_dev_node(struct device *dev, int node)
687 {
688 }
689 #endif
690
691 static inline struct irq_domain *dev_get_msi_domain(const struct device *dev)
692 {
693 #ifdef CONFIG_GENERIC_MSI_IRQ_DOMAIN
694         return dev->msi_domain;
695 #else
696         return NULL;
697 #endif
698 }
699
700 static inline void dev_set_msi_domain(struct device *dev, struct irq_domain *d)
701 {
702 #ifdef CONFIG_GENERIC_MSI_IRQ_DOMAIN
703         dev->msi_domain = d;
704 #endif
705 }
706
707 static inline void *dev_get_drvdata(const struct device *dev)
708 {
709         return dev->driver_data;
710 }
711
712 static inline void dev_set_drvdata(struct device *dev, void *data)
713 {
714         dev->driver_data = data;
715 }
716
717 static inline struct pm_subsys_data *dev_to_psd(struct device *dev)
718 {
719         return dev ? dev->power.subsys_data : NULL;
720 }
721
722 static inline unsigned int dev_get_uevent_suppress(const struct device *dev)
723 {
724         return dev->kobj.uevent_suppress;
725 }
726
727 static inline void dev_set_uevent_suppress(struct device *dev, int val)
728 {
729         dev->kobj.uevent_suppress = val;
730 }
731
732 static inline int device_is_registered(struct device *dev)
733 {
734         return dev->kobj.state_in_sysfs;
735 }
736
737 static inline void device_enable_async_suspend(struct device *dev)
738 {
739         if (!dev->power.is_prepared)
740                 dev->power.async_suspend = true;
741 }
742
743 static inline void device_disable_async_suspend(struct device *dev)
744 {
745         if (!dev->power.is_prepared)
746                 dev->power.async_suspend = false;
747 }
748
749 static inline bool device_async_suspend_enabled(struct device *dev)
750 {
751         return !!dev->power.async_suspend;
752 }
753
754 static inline bool device_pm_not_required(struct device *dev)
755 {
756         return dev->power.no_pm;
757 }
758
759 static inline void device_set_pm_not_required(struct device *dev)
760 {
761         dev->power.no_pm = true;
762 }
763
764 static inline void dev_pm_syscore_device(struct device *dev, bool val)
765 {
766 #ifdef CONFIG_PM_SLEEP
767         dev->power.syscore = val;
768 #endif
769 }
770
771 static inline void dev_pm_set_driver_flags(struct device *dev, u32 flags)
772 {
773         dev->power.driver_flags = flags;
774 }
775
776 static inline bool dev_pm_test_driver_flags(struct device *dev, u32 flags)
777 {
778         return !!(dev->power.driver_flags & flags);
779 }
780
781 static inline void device_lock(struct device *dev)
782 {
783         mutex_lock(&dev->mutex);
784 }
785
786 static inline int device_lock_interruptible(struct device *dev)
787 {
788         return mutex_lock_interruptible(&dev->mutex);
789 }
790
791 static inline int device_trylock(struct device *dev)
792 {
793         return mutex_trylock(&dev->mutex);
794 }
795
796 static inline void device_unlock(struct device *dev)
797 {
798         mutex_unlock(&dev->mutex);
799 }
800
801 static inline void device_lock_assert(struct device *dev)
802 {
803         lockdep_assert_held(&dev->mutex);
804 }
805
806 static inline struct device_node *dev_of_node(struct device *dev)
807 {
808         if (!IS_ENABLED(CONFIG_OF) || !dev)
809                 return NULL;
810         return dev->of_node;
811 }
812
813 static inline bool dev_has_sync_state(struct device *dev)
814 {
815         if (!dev)
816                 return false;
817         if (dev->driver && dev->driver->sync_state)
818                 return true;
819         if (dev->bus && dev->bus->sync_state)
820                 return true;
821         return false;
822 }
823
824 /*
825  * High level routines for use by the bus drivers
826  */
827 extern int __must_check device_register(struct device *dev);
828 extern void device_unregister(struct device *dev);
829 extern void device_initialize(struct device *dev);
830 extern int __must_check device_add(struct device *dev);
831 extern void device_del(struct device *dev);
832 extern int device_for_each_child(struct device *dev, void *data,
833                      int (*fn)(struct device *dev, void *data));
834 extern int device_for_each_child_reverse(struct device *dev, void *data,
835                      int (*fn)(struct device *dev, void *data));
836 extern struct device *device_find_child(struct device *dev, void *data,
837                                 int (*match)(struct device *dev, void *data));
838 extern struct device *device_find_child_by_name(struct device *parent,
839                                                 const char *name);
840 extern int device_rename(struct device *dev, const char *new_name);
841 extern int device_move(struct device *dev, struct device *new_parent,
842                        enum dpm_order dpm_order);
843 extern int device_change_owner(struct device *dev, kuid_t kuid, kgid_t kgid);
844 extern const char *device_get_devnode(struct device *dev,
845                                       umode_t *mode, kuid_t *uid, kgid_t *gid,
846                                       const char **tmp);
847
848 static inline bool device_supports_offline(struct device *dev)
849 {
850         return dev->bus && dev->bus->offline && dev->bus->online;
851 }
852
853 extern void lock_device_hotplug(void);
854 extern void unlock_device_hotplug(void);
855 extern int lock_device_hotplug_sysfs(void);
856 extern int device_offline(struct device *dev);
857 extern int device_online(struct device *dev);
858 extern void set_primary_fwnode(struct device *dev, struct fwnode_handle *fwnode);
859 extern void set_secondary_fwnode(struct device *dev, struct fwnode_handle *fwnode);
860 void device_set_of_node_from_dev(struct device *dev, const struct device *dev2);
861
862 static inline int dev_num_vf(struct device *dev)
863 {
864         if (dev->bus && dev->bus->num_vf)
865                 return dev->bus->num_vf(dev);
866         return 0;
867 }
868
869 /*
870  * Root device objects for grouping under /sys/devices
871  */
872 extern struct device *__root_device_register(const char *name,
873                                              struct module *owner);
874
875 /* This is a macro to avoid include problems with THIS_MODULE */
876 #define root_device_register(name) \
877         __root_device_register(name, THIS_MODULE)
878
879 extern void root_device_unregister(struct device *root);
880
881 static inline void *dev_get_platdata(const struct device *dev)
882 {
883         return dev->platform_data;
884 }
885
886 /*
887  * Manual binding of a device to driver. See drivers/base/bus.c
888  * for information on use.
889  */
890 extern int __must_check device_bind_driver(struct device *dev);
891 extern void device_release_driver(struct device *dev);
892 extern int  __must_check device_attach(struct device *dev);
893 extern int __must_check driver_attach(struct device_driver *drv);
894 extern void device_initial_probe(struct device *dev);
895 extern int __must_check device_reprobe(struct device *dev);
896
897 extern bool device_is_bound(struct device *dev);
898
899 /*
900  * Easy functions for dynamically creating devices on the fly
901  */
902 extern __printf(5, 6)
903 struct device *device_create(struct class *cls, struct device *parent,
904                              dev_t devt, void *drvdata,
905                              const char *fmt, ...);
906 extern __printf(6, 7)
907 struct device *device_create_with_groups(struct class *cls,
908                              struct device *parent, dev_t devt, void *drvdata,
909                              const struct attribute_group **groups,
910                              const char *fmt, ...);
911 extern void device_destroy(struct class *cls, dev_t devt);
912
913 extern int __must_check device_add_groups(struct device *dev,
914                                         const struct attribute_group **groups);
915 extern void device_remove_groups(struct device *dev,
916                                  const struct attribute_group **groups);
917
918 static inline int __must_check device_add_group(struct device *dev,
919                                         const struct attribute_group *grp)
920 {
921         const struct attribute_group *groups[] = { grp, NULL };
922
923         return device_add_groups(dev, groups);
924 }
925
926 static inline void device_remove_group(struct device *dev,
927                                        const struct attribute_group *grp)
928 {
929         const struct attribute_group *groups[] = { grp, NULL };
930
931         return device_remove_groups(dev, groups);
932 }
933
934 extern int __must_check devm_device_add_groups(struct device *dev,
935                                         const struct attribute_group **groups);
936 extern void devm_device_remove_groups(struct device *dev,
937                                       const struct attribute_group **groups);
938 extern int __must_check devm_device_add_group(struct device *dev,
939                                         const struct attribute_group *grp);
940 extern void devm_device_remove_group(struct device *dev,
941                                      const struct attribute_group *grp);
942
943 /*
944  * Platform "fixup" functions - allow the platform to have their say
945  * about devices and actions that the general device layer doesn't
946  * know about.
947  */
948 /* Notify platform of device discovery */
949 extern int (*platform_notify)(struct device *dev);
950
951 extern int (*platform_notify_remove)(struct device *dev);
952
953
954 /*
955  * get_device - atomically increment the reference count for the device.
956  *
957  */
958 extern struct device *get_device(struct device *dev);
959 extern void put_device(struct device *dev);
960 extern bool kill_device(struct device *dev);
961
962 #ifdef CONFIG_DEVTMPFS
963 extern int devtmpfs_mount(void);
964 #else
965 static inline int devtmpfs_mount(void) { return 0; }
966 #endif
967
968 /* drivers/base/power/shutdown.c */
969 extern void device_shutdown(void);
970
971 /* debugging and troubleshooting/diagnostic helpers. */
972 extern const char *dev_driver_string(const struct device *dev);
973
974 /* Device links interface. */
975 struct device_link *device_link_add(struct device *consumer,
976                                     struct device *supplier, u32 flags);
977 void device_link_del(struct device_link *link);
978 void device_link_remove(void *consumer, struct device *supplier);
979 void device_links_supplier_sync_state_pause(void);
980 void device_links_supplier_sync_state_resume(void);
981
982 /* Create alias, so I can be autoloaded. */
983 #define MODULE_ALIAS_CHARDEV(major,minor) \
984         MODULE_ALIAS("char-major-" __stringify(major) "-" __stringify(minor))
985 #define MODULE_ALIAS_CHARDEV_MAJOR(major) \
986         MODULE_ALIAS("char-major-" __stringify(major) "-*")
987
988 #ifdef CONFIG_SYSFS_DEPRECATED
989 extern long sysfs_deprecated;
990 #else
991 #define sysfs_deprecated 0
992 #endif
993
994 #endif /* _DEVICE_H_ */