block: Fix the maximum minor value is blk_alloc_ext_minor()
[linux-2.6-microblaze.git] / block / genhd.c
1 // SPDX-License-Identifier: GPL-2.0
2 /*
3  *  gendisk handling
4  *
5  * Portions Copyright (C) 2020 Christoph Hellwig
6  */
7
8 #include <linux/module.h>
9 #include <linux/ctype.h>
10 #include <linux/fs.h>
11 #include <linux/kdev_t.h>
12 #include <linux/kernel.h>
13 #include <linux/blkdev.h>
14 #include <linux/backing-dev.h>
15 #include <linux/init.h>
16 #include <linux/spinlock.h>
17 #include <linux/proc_fs.h>
18 #include <linux/seq_file.h>
19 #include <linux/slab.h>
20 #include <linux/kmod.h>
21 #include <linux/major.h>
22 #include <linux/mutex.h>
23 #include <linux/idr.h>
24 #include <linux/log2.h>
25 #include <linux/pm_runtime.h>
26 #include <linux/badblocks.h>
27 #include <linux/part_stat.h>
28 #include "blk-throttle.h"
29
30 #include "blk.h"
31 #include "blk-mq-sched.h"
32 #include "blk-rq-qos.h"
33 #include "blk-cgroup.h"
34
35 static struct kobject *block_depr;
36
37 /*
38  * Unique, monotonically increasing sequential number associated with block
39  * devices instances (i.e. incremented each time a device is attached).
40  * Associating uevents with block devices in userspace is difficult and racy:
41  * the uevent netlink socket is lossy, and on slow and overloaded systems has
42  * a very high latency.
43  * Block devices do not have exclusive owners in userspace, any process can set
44  * one up (e.g. loop devices). Moreover, device names can be reused (e.g. loop0
45  * can be reused again and again).
46  * A userspace process setting up a block device and watching for its events
47  * cannot thus reliably tell whether an event relates to the device it just set
48  * up or another earlier instance with the same name.
49  * This sequential number allows userspace processes to solve this problem, and
50  * uniquely associate an uevent to the lifetime to a device.
51  */
52 static atomic64_t diskseq;
53
54 /* for extended dynamic devt allocation, currently only one major is used */
55 #define NR_EXT_DEVT             (1 << MINORBITS)
56 static DEFINE_IDA(ext_devt_ida);
57
58 void set_capacity(struct gendisk *disk, sector_t sectors)
59 {
60         struct block_device *bdev = disk->part0;
61
62         spin_lock(&bdev->bd_size_lock);
63         i_size_write(bdev->bd_inode, (loff_t)sectors << SECTOR_SHIFT);
64         bdev->bd_nr_sectors = sectors;
65         spin_unlock(&bdev->bd_size_lock);
66 }
67 EXPORT_SYMBOL(set_capacity);
68
69 /*
70  * Set disk capacity and notify if the size is not currently zero and will not
71  * be set to zero.  Returns true if a uevent was sent, otherwise false.
72  */
73 bool set_capacity_and_notify(struct gendisk *disk, sector_t size)
74 {
75         sector_t capacity = get_capacity(disk);
76         char *envp[] = { "RESIZE=1", NULL };
77
78         set_capacity(disk, size);
79
80         /*
81          * Only print a message and send a uevent if the gendisk is user visible
82          * and alive.  This avoids spamming the log and udev when setting the
83          * initial capacity during probing.
84          */
85         if (size == capacity ||
86             !disk_live(disk) ||
87             (disk->flags & GENHD_FL_HIDDEN))
88                 return false;
89
90         pr_info("%s: detected capacity change from %lld to %lld\n",
91                 disk->disk_name, capacity, size);
92
93         /*
94          * Historically we did not send a uevent for changes to/from an empty
95          * device.
96          */
97         if (!capacity || !size)
98                 return false;
99         kobject_uevent_env(&disk_to_dev(disk)->kobj, KOBJ_CHANGE, envp);
100         return true;
101 }
102 EXPORT_SYMBOL_GPL(set_capacity_and_notify);
103
104 /*
105  * Format the device name of the indicated block device into the supplied buffer
106  * and return a pointer to that same buffer for convenience.
107  *
108  * Note: do not use this in new code, use the %pg specifier to sprintf and
109  * printk insted.
110  */
111 const char *bdevname(struct block_device *bdev, char *buf)
112 {
113         struct gendisk *hd = bdev->bd_disk;
114         int partno = bdev->bd_partno;
115
116         if (!partno)
117                 snprintf(buf, BDEVNAME_SIZE, "%s", hd->disk_name);
118         else if (isdigit(hd->disk_name[strlen(hd->disk_name)-1]))
119                 snprintf(buf, BDEVNAME_SIZE, "%sp%d", hd->disk_name, partno);
120         else
121                 snprintf(buf, BDEVNAME_SIZE, "%s%d", hd->disk_name, partno);
122
123         return buf;
124 }
125 EXPORT_SYMBOL(bdevname);
126
127 static void part_stat_read_all(struct block_device *part,
128                 struct disk_stats *stat)
129 {
130         int cpu;
131
132         memset(stat, 0, sizeof(struct disk_stats));
133         for_each_possible_cpu(cpu) {
134                 struct disk_stats *ptr = per_cpu_ptr(part->bd_stats, cpu);
135                 int group;
136
137                 for (group = 0; group < NR_STAT_GROUPS; group++) {
138                         stat->nsecs[group] += ptr->nsecs[group];
139                         stat->sectors[group] += ptr->sectors[group];
140                         stat->ios[group] += ptr->ios[group];
141                         stat->merges[group] += ptr->merges[group];
142                 }
143
144                 stat->io_ticks += ptr->io_ticks;
145         }
146 }
147
148 static unsigned int part_in_flight(struct block_device *part)
149 {
150         unsigned int inflight = 0;
151         int cpu;
152
153         for_each_possible_cpu(cpu) {
154                 inflight += part_stat_local_read_cpu(part, in_flight[0], cpu) +
155                             part_stat_local_read_cpu(part, in_flight[1], cpu);
156         }
157         if ((int)inflight < 0)
158                 inflight = 0;
159
160         return inflight;
161 }
162
163 static void part_in_flight_rw(struct block_device *part,
164                 unsigned int inflight[2])
165 {
166         int cpu;
167
168         inflight[0] = 0;
169         inflight[1] = 0;
170         for_each_possible_cpu(cpu) {
171                 inflight[0] += part_stat_local_read_cpu(part, in_flight[0], cpu);
172                 inflight[1] += part_stat_local_read_cpu(part, in_flight[1], cpu);
173         }
174         if ((int)inflight[0] < 0)
175                 inflight[0] = 0;
176         if ((int)inflight[1] < 0)
177                 inflight[1] = 0;
178 }
179
180 /*
181  * Can be deleted altogether. Later.
182  *
183  */
184 #define BLKDEV_MAJOR_HASH_SIZE 255
185 static struct blk_major_name {
186         struct blk_major_name *next;
187         int major;
188         char name[16];
189 #ifdef CONFIG_BLOCK_LEGACY_AUTOLOAD
190         void (*probe)(dev_t devt);
191 #endif
192 } *major_names[BLKDEV_MAJOR_HASH_SIZE];
193 static DEFINE_MUTEX(major_names_lock);
194 static DEFINE_SPINLOCK(major_names_spinlock);
195
196 /* index in the above - for now: assume no multimajor ranges */
197 static inline int major_to_index(unsigned major)
198 {
199         return major % BLKDEV_MAJOR_HASH_SIZE;
200 }
201
202 #ifdef CONFIG_PROC_FS
203 void blkdev_show(struct seq_file *seqf, off_t offset)
204 {
205         struct blk_major_name *dp;
206
207         spin_lock(&major_names_spinlock);
208         for (dp = major_names[major_to_index(offset)]; dp; dp = dp->next)
209                 if (dp->major == offset)
210                         seq_printf(seqf, "%3d %s\n", dp->major, dp->name);
211         spin_unlock(&major_names_spinlock);
212 }
213 #endif /* CONFIG_PROC_FS */
214
215 /**
216  * __register_blkdev - register a new block device
217  *
218  * @major: the requested major device number [1..BLKDEV_MAJOR_MAX-1]. If
219  *         @major = 0, try to allocate any unused major number.
220  * @name: the name of the new block device as a zero terminated string
221  * @probe: pre-devtmpfs / pre-udev callback used to create disks when their
222  *         pre-created device node is accessed. When a probe call uses
223  *         add_disk() and it fails the driver must cleanup resources. This
224  *         interface may soon be removed.
225  *
226  * The @name must be unique within the system.
227  *
228  * The return value depends on the @major input parameter:
229  *
230  *  - if a major device number was requested in range [1..BLKDEV_MAJOR_MAX-1]
231  *    then the function returns zero on success, or a negative error code
232  *  - if any unused major number was requested with @major = 0 parameter
233  *    then the return value is the allocated major number in range
234  *    [1..BLKDEV_MAJOR_MAX-1] or a negative error code otherwise
235  *
236  * See Documentation/admin-guide/devices.txt for the list of allocated
237  * major numbers.
238  *
239  * Use register_blkdev instead for any new code.
240  */
241 int __register_blkdev(unsigned int major, const char *name,
242                 void (*probe)(dev_t devt))
243 {
244         struct blk_major_name **n, *p;
245         int index, ret = 0;
246
247         mutex_lock(&major_names_lock);
248
249         /* temporary */
250         if (major == 0) {
251                 for (index = ARRAY_SIZE(major_names)-1; index > 0; index--) {
252                         if (major_names[index] == NULL)
253                                 break;
254                 }
255
256                 if (index == 0) {
257                         printk("%s: failed to get major for %s\n",
258                                __func__, name);
259                         ret = -EBUSY;
260                         goto out;
261                 }
262                 major = index;
263                 ret = major;
264         }
265
266         if (major >= BLKDEV_MAJOR_MAX) {
267                 pr_err("%s: major requested (%u) is greater than the maximum (%u) for %s\n",
268                        __func__, major, BLKDEV_MAJOR_MAX-1, name);
269
270                 ret = -EINVAL;
271                 goto out;
272         }
273
274         p = kmalloc(sizeof(struct blk_major_name), GFP_KERNEL);
275         if (p == NULL) {
276                 ret = -ENOMEM;
277                 goto out;
278         }
279
280         p->major = major;
281 #ifdef CONFIG_BLOCK_LEGACY_AUTOLOAD
282         p->probe = probe;
283 #endif
284         strlcpy(p->name, name, sizeof(p->name));
285         p->next = NULL;
286         index = major_to_index(major);
287
288         spin_lock(&major_names_spinlock);
289         for (n = &major_names[index]; *n; n = &(*n)->next) {
290                 if ((*n)->major == major)
291                         break;
292         }
293         if (!*n)
294                 *n = p;
295         else
296                 ret = -EBUSY;
297         spin_unlock(&major_names_spinlock);
298
299         if (ret < 0) {
300                 printk("register_blkdev: cannot get major %u for %s\n",
301                        major, name);
302                 kfree(p);
303         }
304 out:
305         mutex_unlock(&major_names_lock);
306         return ret;
307 }
308 EXPORT_SYMBOL(__register_blkdev);
309
310 void unregister_blkdev(unsigned int major, const char *name)
311 {
312         struct blk_major_name **n;
313         struct blk_major_name *p = NULL;
314         int index = major_to_index(major);
315
316         mutex_lock(&major_names_lock);
317         spin_lock(&major_names_spinlock);
318         for (n = &major_names[index]; *n; n = &(*n)->next)
319                 if ((*n)->major == major)
320                         break;
321         if (!*n || strcmp((*n)->name, name)) {
322                 WARN_ON(1);
323         } else {
324                 p = *n;
325                 *n = p->next;
326         }
327         spin_unlock(&major_names_spinlock);
328         mutex_unlock(&major_names_lock);
329         kfree(p);
330 }
331
332 EXPORT_SYMBOL(unregister_blkdev);
333
334 int blk_alloc_ext_minor(void)
335 {
336         int idx;
337
338         idx = ida_alloc_range(&ext_devt_ida, 0, NR_EXT_DEVT - 1, GFP_KERNEL);
339         if (idx == -ENOSPC)
340                 return -EBUSY;
341         return idx;
342 }
343
344 void blk_free_ext_minor(unsigned int minor)
345 {
346         ida_free(&ext_devt_ida, minor);
347 }
348
349 static char *bdevt_str(dev_t devt, char *buf)
350 {
351         if (MAJOR(devt) <= 0xff && MINOR(devt) <= 0xff) {
352                 char tbuf[BDEVT_SIZE];
353                 snprintf(tbuf, BDEVT_SIZE, "%02x%02x", MAJOR(devt), MINOR(devt));
354                 snprintf(buf, BDEVT_SIZE, "%-9s", tbuf);
355         } else
356                 snprintf(buf, BDEVT_SIZE, "%03x:%05x", MAJOR(devt), MINOR(devt));
357
358         return buf;
359 }
360
361 void disk_uevent(struct gendisk *disk, enum kobject_action action)
362 {
363         struct block_device *part;
364         unsigned long idx;
365
366         rcu_read_lock();
367         xa_for_each(&disk->part_tbl, idx, part) {
368                 if (bdev_is_partition(part) && !bdev_nr_sectors(part))
369                         continue;
370                 if (!kobject_get_unless_zero(&part->bd_device.kobj))
371                         continue;
372
373                 rcu_read_unlock();
374                 kobject_uevent(bdev_kobj(part), action);
375                 put_device(&part->bd_device);
376                 rcu_read_lock();
377         }
378         rcu_read_unlock();
379 }
380 EXPORT_SYMBOL_GPL(disk_uevent);
381
382 int disk_scan_partitions(struct gendisk *disk, fmode_t mode)
383 {
384         struct block_device *bdev;
385
386         if (disk->flags & (GENHD_FL_NO_PART | GENHD_FL_HIDDEN))
387                 return -EINVAL;
388         if (disk->open_partitions)
389                 return -EBUSY;
390
391         set_bit(GD_NEED_PART_SCAN, &disk->state);
392         bdev = blkdev_get_by_dev(disk_devt(disk), mode, NULL);
393         if (IS_ERR(bdev))
394                 return PTR_ERR(bdev);
395         blkdev_put(bdev, mode);
396         return 0;
397 }
398
399 /**
400  * device_add_disk - add disk information to kernel list
401  * @parent: parent device for the disk
402  * @disk: per-device partitioning information
403  * @groups: Additional per-device sysfs groups
404  *
405  * This function registers the partitioning information in @disk
406  * with the kernel.
407  */
408 int __must_check device_add_disk(struct device *parent, struct gendisk *disk,
409                                  const struct attribute_group **groups)
410
411 {
412         struct device *ddev = disk_to_dev(disk);
413         int ret;
414
415         /*
416          * The disk queue should now be all set with enough information about
417          * the device for the elevator code to pick an adequate default
418          * elevator if one is needed, that is, for devices requesting queue
419          * registration.
420          */
421         elevator_init_mq(disk->queue);
422
423         /*
424          * If the driver provides an explicit major number it also must provide
425          * the number of minors numbers supported, and those will be used to
426          * setup the gendisk.
427          * Otherwise just allocate the device numbers for both the whole device
428          * and all partitions from the extended dev_t space.
429          */
430         if (disk->major) {
431                 if (WARN_ON(!disk->minors))
432                         return -EINVAL;
433
434                 if (disk->minors > DISK_MAX_PARTS) {
435                         pr_err("block: can't allocate more than %d partitions\n",
436                                 DISK_MAX_PARTS);
437                         disk->minors = DISK_MAX_PARTS;
438                 }
439                 if (disk->first_minor + disk->minors > MINORMASK + 1)
440                         return -EINVAL;
441         } else {
442                 if (WARN_ON(disk->minors))
443                         return -EINVAL;
444
445                 ret = blk_alloc_ext_minor();
446                 if (ret < 0)
447                         return ret;
448                 disk->major = BLOCK_EXT_MAJOR;
449                 disk->first_minor = ret;
450         }
451
452         /* delay uevents, until we scanned partition table */
453         dev_set_uevent_suppress(ddev, 1);
454
455         ddev->parent = parent;
456         ddev->groups = groups;
457         dev_set_name(ddev, "%s", disk->disk_name);
458         if (!(disk->flags & GENHD_FL_HIDDEN))
459                 ddev->devt = MKDEV(disk->major, disk->first_minor);
460         ret = device_add(ddev);
461         if (ret)
462                 goto out_free_ext_minor;
463
464         ret = disk_alloc_events(disk);
465         if (ret)
466                 goto out_device_del;
467
468         if (!sysfs_deprecated) {
469                 ret = sysfs_create_link(block_depr, &ddev->kobj,
470                                         kobject_name(&ddev->kobj));
471                 if (ret)
472                         goto out_device_del;
473         }
474
475         /*
476          * avoid probable deadlock caused by allocating memory with
477          * GFP_KERNEL in runtime_resume callback of its all ancestor
478          * devices
479          */
480         pm_runtime_set_memalloc_noio(ddev, true);
481
482         ret = blk_integrity_add(disk);
483         if (ret)
484                 goto out_del_block_link;
485
486         disk->part0->bd_holder_dir =
487                 kobject_create_and_add("holders", &ddev->kobj);
488         if (!disk->part0->bd_holder_dir) {
489                 ret = -ENOMEM;
490                 goto out_del_integrity;
491         }
492         disk->slave_dir = kobject_create_and_add("slaves", &ddev->kobj);
493         if (!disk->slave_dir) {
494                 ret = -ENOMEM;
495                 goto out_put_holder_dir;
496         }
497
498         ret = bd_register_pending_holders(disk);
499         if (ret < 0)
500                 goto out_put_slave_dir;
501
502         ret = blk_register_queue(disk);
503         if (ret)
504                 goto out_put_slave_dir;
505
506         if (!(disk->flags & GENHD_FL_HIDDEN)) {
507                 ret = bdi_register(disk->bdi, "%u:%u",
508                                    disk->major, disk->first_minor);
509                 if (ret)
510                         goto out_unregister_queue;
511                 bdi_set_owner(disk->bdi, ddev);
512                 ret = sysfs_create_link(&ddev->kobj,
513                                         &disk->bdi->dev->kobj, "bdi");
514                 if (ret)
515                         goto out_unregister_bdi;
516
517                 bdev_add(disk->part0, ddev->devt);
518                 if (get_capacity(disk))
519                         disk_scan_partitions(disk, FMODE_READ);
520
521                 /*
522                  * Announce the disk and partitions after all partitions are
523                  * created. (for hidden disks uevents remain suppressed forever)
524                  */
525                 dev_set_uevent_suppress(ddev, 0);
526                 disk_uevent(disk, KOBJ_ADD);
527         }
528
529         disk_update_readahead(disk);
530         disk_add_events(disk);
531         set_bit(GD_ADDED, &disk->state);
532         return 0;
533
534 out_unregister_bdi:
535         if (!(disk->flags & GENHD_FL_HIDDEN))
536                 bdi_unregister(disk->bdi);
537 out_unregister_queue:
538         blk_unregister_queue(disk);
539 out_put_slave_dir:
540         kobject_put(disk->slave_dir);
541 out_put_holder_dir:
542         kobject_put(disk->part0->bd_holder_dir);
543 out_del_integrity:
544         blk_integrity_del(disk);
545 out_del_block_link:
546         if (!sysfs_deprecated)
547                 sysfs_remove_link(block_depr, dev_name(ddev));
548 out_device_del:
549         device_del(ddev);
550 out_free_ext_minor:
551         if (disk->major == BLOCK_EXT_MAJOR)
552                 blk_free_ext_minor(disk->first_minor);
553         return ret;
554 }
555 EXPORT_SYMBOL(device_add_disk);
556
557 /**
558  * del_gendisk - remove the gendisk
559  * @disk: the struct gendisk to remove
560  *
561  * Removes the gendisk and all its associated resources. This deletes the
562  * partitions associated with the gendisk, and unregisters the associated
563  * request_queue.
564  *
565  * This is the counter to the respective __device_add_disk() call.
566  *
567  * The final removal of the struct gendisk happens when its refcount reaches 0
568  * with put_disk(), which should be called after del_gendisk(), if
569  * __device_add_disk() was used.
570  *
571  * Drivers exist which depend on the release of the gendisk to be synchronous,
572  * it should not be deferred.
573  *
574  * Context: can sleep
575  */
576 void del_gendisk(struct gendisk *disk)
577 {
578         struct request_queue *q = disk->queue;
579
580         might_sleep();
581
582         if (WARN_ON_ONCE(!disk_live(disk) && !(disk->flags & GENHD_FL_HIDDEN)))
583                 return;
584
585         blk_integrity_del(disk);
586         disk_del_events(disk);
587
588         mutex_lock(&disk->open_mutex);
589         remove_inode_hash(disk->part0->bd_inode);
590         blk_drop_partitions(disk);
591         mutex_unlock(&disk->open_mutex);
592
593         fsync_bdev(disk->part0);
594         __invalidate_device(disk->part0, true);
595
596         /*
597          * Fail any new I/O.
598          */
599         set_bit(GD_DEAD, &disk->state);
600         set_capacity(disk, 0);
601
602         /*
603          * Prevent new I/O from crossing bio_queue_enter().
604          */
605         blk_queue_start_drain(q);
606
607         if (!(disk->flags & GENHD_FL_HIDDEN)) {
608                 sysfs_remove_link(&disk_to_dev(disk)->kobj, "bdi");
609
610                 /*
611                  * Unregister bdi before releasing device numbers (as they can
612                  * get reused and we'd get clashes in sysfs).
613                  */
614                 bdi_unregister(disk->bdi);
615         }
616
617         blk_unregister_queue(disk);
618
619         kobject_put(disk->part0->bd_holder_dir);
620         kobject_put(disk->slave_dir);
621
622         part_stat_set_all(disk->part0, 0);
623         disk->part0->bd_stamp = 0;
624         if (!sysfs_deprecated)
625                 sysfs_remove_link(block_depr, dev_name(disk_to_dev(disk)));
626         pm_runtime_set_memalloc_noio(disk_to_dev(disk), false);
627         device_del(disk_to_dev(disk));
628
629         blk_mq_freeze_queue_wait(q);
630
631         blk_throtl_cancel_bios(disk->queue);
632
633         blk_sync_queue(q);
634         blk_flush_integrity();
635         /*
636          * Allow using passthrough request again after the queue is torn down.
637          */
638         blk_queue_flag_clear(QUEUE_FLAG_INIT_DONE, q);
639         __blk_mq_unfreeze_queue(q, true);
640
641 }
642 EXPORT_SYMBOL(del_gendisk);
643
644 /**
645  * invalidate_disk - invalidate the disk
646  * @disk: the struct gendisk to invalidate
647  *
648  * A helper to invalidates the disk. It will clean the disk's associated
649  * buffer/page caches and reset its internal states so that the disk
650  * can be reused by the drivers.
651  *
652  * Context: can sleep
653  */
654 void invalidate_disk(struct gendisk *disk)
655 {
656         struct block_device *bdev = disk->part0;
657
658         invalidate_bdev(bdev);
659         bdev->bd_inode->i_mapping->wb_err = 0;
660         set_capacity(disk, 0);
661 }
662 EXPORT_SYMBOL(invalidate_disk);
663
664 /* sysfs access to bad-blocks list. */
665 static ssize_t disk_badblocks_show(struct device *dev,
666                                         struct device_attribute *attr,
667                                         char *page)
668 {
669         struct gendisk *disk = dev_to_disk(dev);
670
671         if (!disk->bb)
672                 return sprintf(page, "\n");
673
674         return badblocks_show(disk->bb, page, 0);
675 }
676
677 static ssize_t disk_badblocks_store(struct device *dev,
678                                         struct device_attribute *attr,
679                                         const char *page, size_t len)
680 {
681         struct gendisk *disk = dev_to_disk(dev);
682
683         if (!disk->bb)
684                 return -ENXIO;
685
686         return badblocks_store(disk->bb, page, len, 0);
687 }
688
689 #ifdef CONFIG_BLOCK_LEGACY_AUTOLOAD
690 void blk_request_module(dev_t devt)
691 {
692         unsigned int major = MAJOR(devt);
693         struct blk_major_name **n;
694
695         mutex_lock(&major_names_lock);
696         for (n = &major_names[major_to_index(major)]; *n; n = &(*n)->next) {
697                 if ((*n)->major == major && (*n)->probe) {
698                         (*n)->probe(devt);
699                         mutex_unlock(&major_names_lock);
700                         return;
701                 }
702         }
703         mutex_unlock(&major_names_lock);
704
705         if (request_module("block-major-%d-%d", MAJOR(devt), MINOR(devt)) > 0)
706                 /* Make old-style 2.4 aliases work */
707                 request_module("block-major-%d", MAJOR(devt));
708 }
709 #endif /* CONFIG_BLOCK_LEGACY_AUTOLOAD */
710
711 /*
712  * print a full list of all partitions - intended for places where the root
713  * filesystem can't be mounted and thus to give the victim some idea of what
714  * went wrong
715  */
716 void __init printk_all_partitions(void)
717 {
718         struct class_dev_iter iter;
719         struct device *dev;
720
721         class_dev_iter_init(&iter, &block_class, NULL, &disk_type);
722         while ((dev = class_dev_iter_next(&iter))) {
723                 struct gendisk *disk = dev_to_disk(dev);
724                 struct block_device *part;
725                 char devt_buf[BDEVT_SIZE];
726                 unsigned long idx;
727
728                 /*
729                  * Don't show empty devices or things that have been
730                  * suppressed
731                  */
732                 if (get_capacity(disk) == 0 || (disk->flags & GENHD_FL_HIDDEN))
733                         continue;
734
735                 /*
736                  * Note, unlike /proc/partitions, I am showing the numbers in
737                  * hex - the same format as the root= option takes.
738                  */
739                 rcu_read_lock();
740                 xa_for_each(&disk->part_tbl, idx, part) {
741                         if (!bdev_nr_sectors(part))
742                                 continue;
743                         printk("%s%s %10llu %pg %s",
744                                bdev_is_partition(part) ? "  " : "",
745                                bdevt_str(part->bd_dev, devt_buf),
746                                bdev_nr_sectors(part) >> 1, part,
747                                part->bd_meta_info ?
748                                         part->bd_meta_info->uuid : "");
749                         if (bdev_is_partition(part))
750                                 printk("\n");
751                         else if (dev->parent && dev->parent->driver)
752                                 printk(" driver: %s\n",
753                                         dev->parent->driver->name);
754                         else
755                                 printk(" (driver?)\n");
756                 }
757                 rcu_read_unlock();
758         }
759         class_dev_iter_exit(&iter);
760 }
761
762 #ifdef CONFIG_PROC_FS
763 /* iterator */
764 static void *disk_seqf_start(struct seq_file *seqf, loff_t *pos)
765 {
766         loff_t skip = *pos;
767         struct class_dev_iter *iter;
768         struct device *dev;
769
770         iter = kmalloc(sizeof(*iter), GFP_KERNEL);
771         if (!iter)
772                 return ERR_PTR(-ENOMEM);
773
774         seqf->private = iter;
775         class_dev_iter_init(iter, &block_class, NULL, &disk_type);
776         do {
777                 dev = class_dev_iter_next(iter);
778                 if (!dev)
779                         return NULL;
780         } while (skip--);
781
782         return dev_to_disk(dev);
783 }
784
785 static void *disk_seqf_next(struct seq_file *seqf, void *v, loff_t *pos)
786 {
787         struct device *dev;
788
789         (*pos)++;
790         dev = class_dev_iter_next(seqf->private);
791         if (dev)
792                 return dev_to_disk(dev);
793
794         return NULL;
795 }
796
797 static void disk_seqf_stop(struct seq_file *seqf, void *v)
798 {
799         struct class_dev_iter *iter = seqf->private;
800
801         /* stop is called even after start failed :-( */
802         if (iter) {
803                 class_dev_iter_exit(iter);
804                 kfree(iter);
805                 seqf->private = NULL;
806         }
807 }
808
809 static void *show_partition_start(struct seq_file *seqf, loff_t *pos)
810 {
811         void *p;
812
813         p = disk_seqf_start(seqf, pos);
814         if (!IS_ERR_OR_NULL(p) && !*pos)
815                 seq_puts(seqf, "major minor  #blocks  name\n\n");
816         return p;
817 }
818
819 static int show_partition(struct seq_file *seqf, void *v)
820 {
821         struct gendisk *sgp = v;
822         struct block_device *part;
823         unsigned long idx;
824
825         if (!get_capacity(sgp) || (sgp->flags & GENHD_FL_HIDDEN))
826                 return 0;
827
828         rcu_read_lock();
829         xa_for_each(&sgp->part_tbl, idx, part) {
830                 if (!bdev_nr_sectors(part))
831                         continue;
832                 seq_printf(seqf, "%4d  %7d %10llu %pg\n",
833                            MAJOR(part->bd_dev), MINOR(part->bd_dev),
834                            bdev_nr_sectors(part) >> 1, part);
835         }
836         rcu_read_unlock();
837         return 0;
838 }
839
840 static const struct seq_operations partitions_op = {
841         .start  = show_partition_start,
842         .next   = disk_seqf_next,
843         .stop   = disk_seqf_stop,
844         .show   = show_partition
845 };
846 #endif
847
848 static int __init genhd_device_init(void)
849 {
850         int error;
851
852         block_class.dev_kobj = sysfs_dev_block_kobj;
853         error = class_register(&block_class);
854         if (unlikely(error))
855                 return error;
856         blk_dev_init();
857
858         register_blkdev(BLOCK_EXT_MAJOR, "blkext");
859
860         /* create top-level block dir */
861         if (!sysfs_deprecated)
862                 block_depr = kobject_create_and_add("block", NULL);
863         return 0;
864 }
865
866 subsys_initcall(genhd_device_init);
867
868 static ssize_t disk_range_show(struct device *dev,
869                                struct device_attribute *attr, char *buf)
870 {
871         struct gendisk *disk = dev_to_disk(dev);
872
873         return sprintf(buf, "%d\n", disk->minors);
874 }
875
876 static ssize_t disk_ext_range_show(struct device *dev,
877                                    struct device_attribute *attr, char *buf)
878 {
879         struct gendisk *disk = dev_to_disk(dev);
880
881         return sprintf(buf, "%d\n",
882                 (disk->flags & GENHD_FL_NO_PART) ? 1 : DISK_MAX_PARTS);
883 }
884
885 static ssize_t disk_removable_show(struct device *dev,
886                                    struct device_attribute *attr, char *buf)
887 {
888         struct gendisk *disk = dev_to_disk(dev);
889
890         return sprintf(buf, "%d\n",
891                        (disk->flags & GENHD_FL_REMOVABLE ? 1 : 0));
892 }
893
894 static ssize_t disk_hidden_show(struct device *dev,
895                                    struct device_attribute *attr, char *buf)
896 {
897         struct gendisk *disk = dev_to_disk(dev);
898
899         return sprintf(buf, "%d\n",
900                        (disk->flags & GENHD_FL_HIDDEN ? 1 : 0));
901 }
902
903 static ssize_t disk_ro_show(struct device *dev,
904                                    struct device_attribute *attr, char *buf)
905 {
906         struct gendisk *disk = dev_to_disk(dev);
907
908         return sprintf(buf, "%d\n", get_disk_ro(disk) ? 1 : 0);
909 }
910
911 ssize_t part_size_show(struct device *dev,
912                        struct device_attribute *attr, char *buf)
913 {
914         return sprintf(buf, "%llu\n", bdev_nr_sectors(dev_to_bdev(dev)));
915 }
916
917 ssize_t part_stat_show(struct device *dev,
918                        struct device_attribute *attr, char *buf)
919 {
920         struct block_device *bdev = dev_to_bdev(dev);
921         struct request_queue *q = bdev_get_queue(bdev);
922         struct disk_stats stat;
923         unsigned int inflight;
924
925         if (queue_is_mq(q))
926                 inflight = blk_mq_in_flight(q, bdev);
927         else
928                 inflight = part_in_flight(bdev);
929
930         if (inflight) {
931                 part_stat_lock();
932                 update_io_ticks(bdev, jiffies, true);
933                 part_stat_unlock();
934         }
935         part_stat_read_all(bdev, &stat);
936         return sprintf(buf,
937                 "%8lu %8lu %8llu %8u "
938                 "%8lu %8lu %8llu %8u "
939                 "%8u %8u %8u "
940                 "%8lu %8lu %8llu %8u "
941                 "%8lu %8u"
942                 "\n",
943                 stat.ios[STAT_READ],
944                 stat.merges[STAT_READ],
945                 (unsigned long long)stat.sectors[STAT_READ],
946                 (unsigned int)div_u64(stat.nsecs[STAT_READ], NSEC_PER_MSEC),
947                 stat.ios[STAT_WRITE],
948                 stat.merges[STAT_WRITE],
949                 (unsigned long long)stat.sectors[STAT_WRITE],
950                 (unsigned int)div_u64(stat.nsecs[STAT_WRITE], NSEC_PER_MSEC),
951                 inflight,
952                 jiffies_to_msecs(stat.io_ticks),
953                 (unsigned int)div_u64(stat.nsecs[STAT_READ] +
954                                       stat.nsecs[STAT_WRITE] +
955                                       stat.nsecs[STAT_DISCARD] +
956                                       stat.nsecs[STAT_FLUSH],
957                                                 NSEC_PER_MSEC),
958                 stat.ios[STAT_DISCARD],
959                 stat.merges[STAT_DISCARD],
960                 (unsigned long long)stat.sectors[STAT_DISCARD],
961                 (unsigned int)div_u64(stat.nsecs[STAT_DISCARD], NSEC_PER_MSEC),
962                 stat.ios[STAT_FLUSH],
963                 (unsigned int)div_u64(stat.nsecs[STAT_FLUSH], NSEC_PER_MSEC));
964 }
965
966 ssize_t part_inflight_show(struct device *dev, struct device_attribute *attr,
967                            char *buf)
968 {
969         struct block_device *bdev = dev_to_bdev(dev);
970         struct request_queue *q = bdev_get_queue(bdev);
971         unsigned int inflight[2];
972
973         if (queue_is_mq(q))
974                 blk_mq_in_flight_rw(q, bdev, inflight);
975         else
976                 part_in_flight_rw(bdev, inflight);
977
978         return sprintf(buf, "%8u %8u\n", inflight[0], inflight[1]);
979 }
980
981 static ssize_t disk_capability_show(struct device *dev,
982                                     struct device_attribute *attr, char *buf)
983 {
984         struct gendisk *disk = dev_to_disk(dev);
985
986         return sprintf(buf, "%x\n", disk->flags);
987 }
988
989 static ssize_t disk_alignment_offset_show(struct device *dev,
990                                           struct device_attribute *attr,
991                                           char *buf)
992 {
993         struct gendisk *disk = dev_to_disk(dev);
994
995         return sprintf(buf, "%d\n", queue_alignment_offset(disk->queue));
996 }
997
998 static ssize_t disk_discard_alignment_show(struct device *dev,
999                                            struct device_attribute *attr,
1000                                            char *buf)
1001 {
1002         struct gendisk *disk = dev_to_disk(dev);
1003
1004         return sprintf(buf, "%d\n", queue_discard_alignment(disk->queue));
1005 }
1006
1007 static ssize_t diskseq_show(struct device *dev,
1008                             struct device_attribute *attr, char *buf)
1009 {
1010         struct gendisk *disk = dev_to_disk(dev);
1011
1012         return sprintf(buf, "%llu\n", disk->diskseq);
1013 }
1014
1015 static DEVICE_ATTR(range, 0444, disk_range_show, NULL);
1016 static DEVICE_ATTR(ext_range, 0444, disk_ext_range_show, NULL);
1017 static DEVICE_ATTR(removable, 0444, disk_removable_show, NULL);
1018 static DEVICE_ATTR(hidden, 0444, disk_hidden_show, NULL);
1019 static DEVICE_ATTR(ro, 0444, disk_ro_show, NULL);
1020 static DEVICE_ATTR(size, 0444, part_size_show, NULL);
1021 static DEVICE_ATTR(alignment_offset, 0444, disk_alignment_offset_show, NULL);
1022 static DEVICE_ATTR(discard_alignment, 0444, disk_discard_alignment_show, NULL);
1023 static DEVICE_ATTR(capability, 0444, disk_capability_show, NULL);
1024 static DEVICE_ATTR(stat, 0444, part_stat_show, NULL);
1025 static DEVICE_ATTR(inflight, 0444, part_inflight_show, NULL);
1026 static DEVICE_ATTR(badblocks, 0644, disk_badblocks_show, disk_badblocks_store);
1027 static DEVICE_ATTR(diskseq, 0444, diskseq_show, NULL);
1028
1029 #ifdef CONFIG_FAIL_MAKE_REQUEST
1030 ssize_t part_fail_show(struct device *dev,
1031                        struct device_attribute *attr, char *buf)
1032 {
1033         return sprintf(buf, "%d\n", dev_to_bdev(dev)->bd_make_it_fail);
1034 }
1035
1036 ssize_t part_fail_store(struct device *dev,
1037                         struct device_attribute *attr,
1038                         const char *buf, size_t count)
1039 {
1040         int i;
1041
1042         if (count > 0 && sscanf(buf, "%d", &i) > 0)
1043                 dev_to_bdev(dev)->bd_make_it_fail = i;
1044
1045         return count;
1046 }
1047
1048 static struct device_attribute dev_attr_fail =
1049         __ATTR(make-it-fail, 0644, part_fail_show, part_fail_store);
1050 #endif /* CONFIG_FAIL_MAKE_REQUEST */
1051
1052 #ifdef CONFIG_FAIL_IO_TIMEOUT
1053 static struct device_attribute dev_attr_fail_timeout =
1054         __ATTR(io-timeout-fail, 0644, part_timeout_show, part_timeout_store);
1055 #endif
1056
1057 static struct attribute *disk_attrs[] = {
1058         &dev_attr_range.attr,
1059         &dev_attr_ext_range.attr,
1060         &dev_attr_removable.attr,
1061         &dev_attr_hidden.attr,
1062         &dev_attr_ro.attr,
1063         &dev_attr_size.attr,
1064         &dev_attr_alignment_offset.attr,
1065         &dev_attr_discard_alignment.attr,
1066         &dev_attr_capability.attr,
1067         &dev_attr_stat.attr,
1068         &dev_attr_inflight.attr,
1069         &dev_attr_badblocks.attr,
1070         &dev_attr_events.attr,
1071         &dev_attr_events_async.attr,
1072         &dev_attr_events_poll_msecs.attr,
1073         &dev_attr_diskseq.attr,
1074 #ifdef CONFIG_FAIL_MAKE_REQUEST
1075         &dev_attr_fail.attr,
1076 #endif
1077 #ifdef CONFIG_FAIL_IO_TIMEOUT
1078         &dev_attr_fail_timeout.attr,
1079 #endif
1080         NULL
1081 };
1082
1083 static umode_t disk_visible(struct kobject *kobj, struct attribute *a, int n)
1084 {
1085         struct device *dev = container_of(kobj, typeof(*dev), kobj);
1086         struct gendisk *disk = dev_to_disk(dev);
1087
1088         if (a == &dev_attr_badblocks.attr && !disk->bb)
1089                 return 0;
1090         return a->mode;
1091 }
1092
1093 static struct attribute_group disk_attr_group = {
1094         .attrs = disk_attrs,
1095         .is_visible = disk_visible,
1096 };
1097
1098 static const struct attribute_group *disk_attr_groups[] = {
1099         &disk_attr_group,
1100         NULL
1101 };
1102
1103 static void disk_release_mq(struct request_queue *q)
1104 {
1105         blk_mq_cancel_work_sync(q);
1106
1107         /*
1108          * There can't be any non non-passthrough bios in flight here, but
1109          * requests stay around longer, including passthrough ones so we
1110          * still need to freeze the queue here.
1111          */
1112         blk_mq_freeze_queue(q);
1113
1114         /*
1115          * Since the I/O scheduler exit code may access cgroup information,
1116          * perform I/O scheduler exit before disassociating from the block
1117          * cgroup controller.
1118          */
1119         if (q->elevator) {
1120                 mutex_lock(&q->sysfs_lock);
1121                 elevator_exit(q);
1122                 mutex_unlock(&q->sysfs_lock);
1123         }
1124         rq_qos_exit(q);
1125         __blk_mq_unfreeze_queue(q, true);
1126 }
1127
1128 /**
1129  * disk_release - releases all allocated resources of the gendisk
1130  * @dev: the device representing this disk
1131  *
1132  * This function releases all allocated resources of the gendisk.
1133  *
1134  * Drivers which used __device_add_disk() have a gendisk with a request_queue
1135  * assigned. Since the request_queue sits on top of the gendisk for these
1136  * drivers we also call blk_put_queue() for them, and we expect the
1137  * request_queue refcount to reach 0 at this point, and so the request_queue
1138  * will also be freed prior to the disk.
1139  *
1140  * Context: can sleep
1141  */
1142 static void disk_release(struct device *dev)
1143 {
1144         struct gendisk *disk = dev_to_disk(dev);
1145
1146         might_sleep();
1147         WARN_ON_ONCE(disk_live(disk));
1148
1149         if (queue_is_mq(disk->queue))
1150                 disk_release_mq(disk->queue);
1151
1152         blkcg_exit_queue(disk->queue);
1153
1154         disk_release_events(disk);
1155         kfree(disk->random);
1156         xa_destroy(&disk->part_tbl);
1157
1158         disk->queue->disk = NULL;
1159         blk_put_queue(disk->queue);
1160
1161         if (test_bit(GD_ADDED, &disk->state) && disk->fops->free_disk)
1162                 disk->fops->free_disk(disk);
1163
1164         iput(disk->part0->bd_inode);    /* frees the disk */
1165 }
1166
1167 static int block_uevent(struct device *dev, struct kobj_uevent_env *env)
1168 {
1169         struct gendisk *disk = dev_to_disk(dev);
1170
1171         return add_uevent_var(env, "DISKSEQ=%llu", disk->diskseq);
1172 }
1173
1174 struct class block_class = {
1175         .name           = "block",
1176         .dev_uevent     = block_uevent,
1177 };
1178
1179 static char *block_devnode(struct device *dev, umode_t *mode,
1180                            kuid_t *uid, kgid_t *gid)
1181 {
1182         struct gendisk *disk = dev_to_disk(dev);
1183
1184         if (disk->fops->devnode)
1185                 return disk->fops->devnode(disk, mode);
1186         return NULL;
1187 }
1188
1189 const struct device_type disk_type = {
1190         .name           = "disk",
1191         .groups         = disk_attr_groups,
1192         .release        = disk_release,
1193         .devnode        = block_devnode,
1194 };
1195
1196 #ifdef CONFIG_PROC_FS
1197 /*
1198  * aggregate disk stat collector.  Uses the same stats that the sysfs
1199  * entries do, above, but makes them available through one seq_file.
1200  *
1201  * The output looks suspiciously like /proc/partitions with a bunch of
1202  * extra fields.
1203  */
1204 static int diskstats_show(struct seq_file *seqf, void *v)
1205 {
1206         struct gendisk *gp = v;
1207         struct block_device *hd;
1208         unsigned int inflight;
1209         struct disk_stats stat;
1210         unsigned long idx;
1211
1212         /*
1213         if (&disk_to_dev(gp)->kobj.entry == block_class.devices.next)
1214                 seq_puts(seqf,  "major minor name"
1215                                 "     rio rmerge rsect ruse wio wmerge "
1216                                 "wsect wuse running use aveq"
1217                                 "\n\n");
1218         */
1219
1220         rcu_read_lock();
1221         xa_for_each(&gp->part_tbl, idx, hd) {
1222                 if (bdev_is_partition(hd) && !bdev_nr_sectors(hd))
1223                         continue;
1224                 if (queue_is_mq(gp->queue))
1225                         inflight = blk_mq_in_flight(gp->queue, hd);
1226                 else
1227                         inflight = part_in_flight(hd);
1228
1229                 if (inflight) {
1230                         part_stat_lock();
1231                         update_io_ticks(hd, jiffies, true);
1232                         part_stat_unlock();
1233                 }
1234                 part_stat_read_all(hd, &stat);
1235                 seq_printf(seqf, "%4d %7d %pg "
1236                            "%lu %lu %lu %u "
1237                            "%lu %lu %lu %u "
1238                            "%u %u %u "
1239                            "%lu %lu %lu %u "
1240                            "%lu %u"
1241                            "\n",
1242                            MAJOR(hd->bd_dev), MINOR(hd->bd_dev), hd,
1243                            stat.ios[STAT_READ],
1244                            stat.merges[STAT_READ],
1245                            stat.sectors[STAT_READ],
1246                            (unsigned int)div_u64(stat.nsecs[STAT_READ],
1247                                                         NSEC_PER_MSEC),
1248                            stat.ios[STAT_WRITE],
1249                            stat.merges[STAT_WRITE],
1250                            stat.sectors[STAT_WRITE],
1251                            (unsigned int)div_u64(stat.nsecs[STAT_WRITE],
1252                                                         NSEC_PER_MSEC),
1253                            inflight,
1254                            jiffies_to_msecs(stat.io_ticks),
1255                            (unsigned int)div_u64(stat.nsecs[STAT_READ] +
1256                                                  stat.nsecs[STAT_WRITE] +
1257                                                  stat.nsecs[STAT_DISCARD] +
1258                                                  stat.nsecs[STAT_FLUSH],
1259                                                         NSEC_PER_MSEC),
1260                            stat.ios[STAT_DISCARD],
1261                            stat.merges[STAT_DISCARD],
1262                            stat.sectors[STAT_DISCARD],
1263                            (unsigned int)div_u64(stat.nsecs[STAT_DISCARD],
1264                                                  NSEC_PER_MSEC),
1265                            stat.ios[STAT_FLUSH],
1266                            (unsigned int)div_u64(stat.nsecs[STAT_FLUSH],
1267                                                  NSEC_PER_MSEC)
1268                         );
1269         }
1270         rcu_read_unlock();
1271
1272         return 0;
1273 }
1274
1275 static const struct seq_operations diskstats_op = {
1276         .start  = disk_seqf_start,
1277         .next   = disk_seqf_next,
1278         .stop   = disk_seqf_stop,
1279         .show   = diskstats_show
1280 };
1281
1282 static int __init proc_genhd_init(void)
1283 {
1284         proc_create_seq("diskstats", 0, NULL, &diskstats_op);
1285         proc_create_seq("partitions", 0, NULL, &partitions_op);
1286         return 0;
1287 }
1288 module_init(proc_genhd_init);
1289 #endif /* CONFIG_PROC_FS */
1290
1291 dev_t part_devt(struct gendisk *disk, u8 partno)
1292 {
1293         struct block_device *part;
1294         dev_t devt = 0;
1295
1296         rcu_read_lock();
1297         part = xa_load(&disk->part_tbl, partno);
1298         if (part)
1299                 devt = part->bd_dev;
1300         rcu_read_unlock();
1301
1302         return devt;
1303 }
1304
1305 dev_t blk_lookup_devt(const char *name, int partno)
1306 {
1307         dev_t devt = MKDEV(0, 0);
1308         struct class_dev_iter iter;
1309         struct device *dev;
1310
1311         class_dev_iter_init(&iter, &block_class, NULL, &disk_type);
1312         while ((dev = class_dev_iter_next(&iter))) {
1313                 struct gendisk *disk = dev_to_disk(dev);
1314
1315                 if (strcmp(dev_name(dev), name))
1316                         continue;
1317
1318                 if (partno < disk->minors) {
1319                         /* We need to return the right devno, even
1320                          * if the partition doesn't exist yet.
1321                          */
1322                         devt = MKDEV(MAJOR(dev->devt),
1323                                      MINOR(dev->devt) + partno);
1324                 } else {
1325                         devt = part_devt(disk, partno);
1326                         if (devt)
1327                                 break;
1328                 }
1329         }
1330         class_dev_iter_exit(&iter);
1331         return devt;
1332 }
1333
1334 struct gendisk *__alloc_disk_node(struct request_queue *q, int node_id,
1335                 struct lock_class_key *lkclass)
1336 {
1337         struct gendisk *disk;
1338
1339         if (!blk_get_queue(q))
1340                 return NULL;
1341
1342         disk = kzalloc_node(sizeof(struct gendisk), GFP_KERNEL, node_id);
1343         if (!disk)
1344                 goto out_put_queue;
1345
1346         disk->bdi = bdi_alloc(node_id);
1347         if (!disk->bdi)
1348                 goto out_free_disk;
1349
1350         /* bdev_alloc() might need the queue, set before the first call */
1351         disk->queue = q;
1352
1353         disk->part0 = bdev_alloc(disk, 0);
1354         if (!disk->part0)
1355                 goto out_free_bdi;
1356
1357         disk->node_id = node_id;
1358         mutex_init(&disk->open_mutex);
1359         xa_init(&disk->part_tbl);
1360         if (xa_insert(&disk->part_tbl, 0, disk->part0, GFP_KERNEL))
1361                 goto out_destroy_part_tbl;
1362
1363         if (blkcg_init_queue(q))
1364                 goto out_erase_part0;
1365
1366         rand_initialize_disk(disk);
1367         disk_to_dev(disk)->class = &block_class;
1368         disk_to_dev(disk)->type = &disk_type;
1369         device_initialize(disk_to_dev(disk));
1370         inc_diskseq(disk);
1371         q->disk = disk;
1372         lockdep_init_map(&disk->lockdep_map, "(bio completion)", lkclass, 0);
1373 #ifdef CONFIG_BLOCK_HOLDER_DEPRECATED
1374         INIT_LIST_HEAD(&disk->slave_bdevs);
1375 #endif
1376         return disk;
1377
1378 out_erase_part0:
1379         xa_erase(&disk->part_tbl, 0);
1380 out_destroy_part_tbl:
1381         xa_destroy(&disk->part_tbl);
1382         disk->part0->bd_disk = NULL;
1383         iput(disk->part0->bd_inode);
1384 out_free_bdi:
1385         bdi_put(disk->bdi);
1386 out_free_disk:
1387         kfree(disk);
1388 out_put_queue:
1389         blk_put_queue(q);
1390         return NULL;
1391 }
1392 EXPORT_SYMBOL(__alloc_disk_node);
1393
1394 struct gendisk *__blk_alloc_disk(int node, struct lock_class_key *lkclass)
1395 {
1396         struct request_queue *q;
1397         struct gendisk *disk;
1398
1399         q = blk_alloc_queue(node, false);
1400         if (!q)
1401                 return NULL;
1402
1403         disk = __alloc_disk_node(q, node, lkclass);
1404         if (!disk) {
1405                 blk_cleanup_queue(q);
1406                 return NULL;
1407         }
1408         return disk;
1409 }
1410 EXPORT_SYMBOL(__blk_alloc_disk);
1411
1412 /**
1413  * put_disk - decrements the gendisk refcount
1414  * @disk: the struct gendisk to decrement the refcount for
1415  *
1416  * This decrements the refcount for the struct gendisk. When this reaches 0
1417  * we'll have disk_release() called.
1418  *
1419  * Context: Any context, but the last reference must not be dropped from
1420  *          atomic context.
1421  */
1422 void put_disk(struct gendisk *disk)
1423 {
1424         if (disk)
1425                 put_device(disk_to_dev(disk));
1426 }
1427 EXPORT_SYMBOL(put_disk);
1428
1429 /**
1430  * blk_cleanup_disk - shutdown a gendisk allocated by blk_alloc_disk
1431  * @disk: gendisk to shutdown
1432  *
1433  * Mark the queue hanging off @disk DYING, drain all pending requests, then mark
1434  * the queue DEAD, destroy and put it and the gendisk structure.
1435  *
1436  * Context: can sleep
1437  */
1438 void blk_cleanup_disk(struct gendisk *disk)
1439 {
1440         blk_cleanup_queue(disk->queue);
1441         put_disk(disk);
1442 }
1443 EXPORT_SYMBOL(blk_cleanup_disk);
1444
1445 static void set_disk_ro_uevent(struct gendisk *gd, int ro)
1446 {
1447         char event[] = "DISK_RO=1";
1448         char *envp[] = { event, NULL };
1449
1450         if (!ro)
1451                 event[8] = '0';
1452         kobject_uevent_env(&disk_to_dev(gd)->kobj, KOBJ_CHANGE, envp);
1453 }
1454
1455 /**
1456  * set_disk_ro - set a gendisk read-only
1457  * @disk:       gendisk to operate on
1458  * @read_only:  %true to set the disk read-only, %false set the disk read/write
1459  *
1460  * This function is used to indicate whether a given disk device should have its
1461  * read-only flag set. set_disk_ro() is typically used by device drivers to
1462  * indicate whether the underlying physical device is write-protected.
1463  */
1464 void set_disk_ro(struct gendisk *disk, bool read_only)
1465 {
1466         if (read_only) {
1467                 if (test_and_set_bit(GD_READ_ONLY, &disk->state))
1468                         return;
1469         } else {
1470                 if (!test_and_clear_bit(GD_READ_ONLY, &disk->state))
1471                         return;
1472         }
1473         set_disk_ro_uevent(disk, read_only);
1474 }
1475 EXPORT_SYMBOL(set_disk_ro);
1476
1477 void inc_diskseq(struct gendisk *disk)
1478 {
1479         disk->diskseq = atomic64_inc_return(&diskseq);
1480 }