scsi: core: Make sure sdev->queue_depth is <= max(shost->can_queue, 1024)
[linux-2.6-microblaze.git] / drivers / scsi / scsi.c
1 // SPDX-License-Identifier: GPL-2.0-only
2 /*
3  *  scsi.c Copyright (C) 1992 Drew Eckhardt
4  *         Copyright (C) 1993, 1994, 1995, 1999 Eric Youngdale
5  *         Copyright (C) 2002, 2003 Christoph Hellwig
6  *
7  *  generic mid-level SCSI driver
8  *      Initial versions: Drew Eckhardt
9  *      Subsequent revisions: Eric Youngdale
10  *
11  *  <drew@colorado.edu>
12  *
13  *  Bug correction thanks go to :
14  *      Rik Faith <faith@cs.unc.edu>
15  *      Tommy Thorn <tthorn>
16  *      Thomas Wuensche <tw@fgb1.fgb.mw.tu-muenchen.de>
17  *
18  *  Modified by Eric Youngdale eric@andante.org or ericy@gnu.ai.mit.edu to
19  *  add scatter-gather, multiple outstanding request, and other
20  *  enhancements.
21  *
22  *  Native multichannel, wide scsi, /proc/scsi and hot plugging
23  *  support added by Michael Neuffer <mike@i-connect.net>
24  *
25  *  Added request_module("scsi_hostadapter") for kerneld:
26  *  (Put an "alias scsi_hostadapter your_hostadapter" in /etc/modprobe.conf)
27  *  Bjorn Ekwall  <bj0rn@blox.se>
28  *  (changed to kmod)
29  *
30  *  Major improvements to the timeout, abort, and reset processing,
31  *  as well as performance modifications for large queue depths by
32  *  Leonard N. Zubkoff <lnz@dandelion.com>
33  *
34  *  Converted cli() code to spinlocks, Ingo Molnar
35  *
36  *  Jiffies wrap fixes (host->resetting), 3 Dec 1998 Andrea Arcangeli
37  *
38  *  out_of_space hacks, D. Gilbert (dpg) 990608
39  */
40
41 #include <linux/module.h>
42 #include <linux/moduleparam.h>
43 #include <linux/kernel.h>
44 #include <linux/timer.h>
45 #include <linux/string.h>
46 #include <linux/slab.h>
47 #include <linux/blkdev.h>
48 #include <linux/delay.h>
49 #include <linux/init.h>
50 #include <linux/completion.h>
51 #include <linux/unistd.h>
52 #include <linux/spinlock.h>
53 #include <linux/kmod.h>
54 #include <linux/interrupt.h>
55 #include <linux/notifier.h>
56 #include <linux/cpu.h>
57 #include <linux/mutex.h>
58 #include <linux/async.h>
59 #include <asm/unaligned.h>
60
61 #include <scsi/scsi.h>
62 #include <scsi/scsi_cmnd.h>
63 #include <scsi/scsi_dbg.h>
64 #include <scsi/scsi_device.h>
65 #include <scsi/scsi_driver.h>
66 #include <scsi/scsi_eh.h>
67 #include <scsi/scsi_host.h>
68 #include <scsi/scsi_tcq.h>
69
70 #include "scsi_priv.h"
71 #include "scsi_logging.h"
72
73 #define CREATE_TRACE_POINTS
74 #include <trace/events/scsi.h>
75
76 /*
77  * Definitions and constants.
78  */
79
80 /*
81  * Note - the initial logging level can be set here to log events at boot time.
82  * After the system is up, you may enable logging via the /proc interface.
83  */
84 unsigned int scsi_logging_level;
85 #if defined(CONFIG_SCSI_LOGGING)
86 EXPORT_SYMBOL(scsi_logging_level);
87 #endif
88
89 /*
90  * Domain for asynchronous system resume operations.  It is marked 'exclusive'
91  * to avoid being included in the async_synchronize_full() that is invoked by
92  * dpm_resume().
93  */
94 ASYNC_DOMAIN_EXCLUSIVE(scsi_sd_pm_domain);
95 EXPORT_SYMBOL(scsi_sd_pm_domain);
96
97 #ifdef CONFIG_SCSI_LOGGING
98 void scsi_log_send(struct scsi_cmnd *cmd)
99 {
100         unsigned int level;
101
102         /*
103          * If ML QUEUE log level is greater than or equal to:
104          *
105          * 1: nothing (match completion)
106          *
107          * 2: log opcode + command of all commands + cmd address
108          *
109          * 3: same as 2
110          *
111          * 4: same as 3
112          */
113         if (unlikely(scsi_logging_level)) {
114                 level = SCSI_LOG_LEVEL(SCSI_LOG_MLQUEUE_SHIFT,
115                                        SCSI_LOG_MLQUEUE_BITS);
116                 if (level > 1) {
117                         scmd_printk(KERN_INFO, cmd,
118                                     "Send: scmd 0x%p\n", cmd);
119                         scsi_print_command(cmd);
120                 }
121         }
122 }
123
124 void scsi_log_completion(struct scsi_cmnd *cmd, int disposition)
125 {
126         unsigned int level;
127
128         /*
129          * If ML COMPLETE log level is greater than or equal to:
130          *
131          * 1: log disposition, result, opcode + command, and conditionally
132          * sense data for failures or non SUCCESS dispositions.
133          *
134          * 2: same as 1 but for all command completions.
135          *
136          * 3: same as 2
137          *
138          * 4: same as 3 plus dump extra junk
139          */
140         if (unlikely(scsi_logging_level)) {
141                 level = SCSI_LOG_LEVEL(SCSI_LOG_MLCOMPLETE_SHIFT,
142                                        SCSI_LOG_MLCOMPLETE_BITS);
143                 if (((level > 0) && (cmd->result || disposition != SUCCESS)) ||
144                     (level > 1)) {
145                         scsi_print_result(cmd, "Done", disposition);
146                         scsi_print_command(cmd);
147                         if (status_byte(cmd->result) == CHECK_CONDITION)
148                                 scsi_print_sense(cmd);
149                         if (level > 3)
150                                 scmd_printk(KERN_INFO, cmd,
151                                             "scsi host busy %d failed %d\n",
152                                             scsi_host_busy(cmd->device->host),
153                                             cmd->device->host->host_failed);
154                 }
155         }
156 }
157 #endif
158
159 /**
160  * scsi_finish_command - cleanup and pass command back to upper layer
161  * @cmd: the command
162  *
163  * Description: Pass command off to upper layer for finishing of I/O
164  *              request, waking processes that are waiting on results,
165  *              etc.
166  */
167 void scsi_finish_command(struct scsi_cmnd *cmd)
168 {
169         struct scsi_device *sdev = cmd->device;
170         struct scsi_target *starget = scsi_target(sdev);
171         struct Scsi_Host *shost = sdev->host;
172         struct scsi_driver *drv;
173         unsigned int good_bytes;
174
175         scsi_device_unbusy(sdev, cmd);
176
177         /*
178          * Clear the flags that say that the device/target/host is no longer
179          * capable of accepting new commands.
180          */
181         if (atomic_read(&shost->host_blocked))
182                 atomic_set(&shost->host_blocked, 0);
183         if (atomic_read(&starget->target_blocked))
184                 atomic_set(&starget->target_blocked, 0);
185         if (atomic_read(&sdev->device_blocked))
186                 atomic_set(&sdev->device_blocked, 0);
187
188         /*
189          * If we have valid sense information, then some kind of recovery
190          * must have taken place.  Make a note of this.
191          */
192         if (SCSI_SENSE_VALID(cmd))
193                 cmd->result |= (DRIVER_SENSE << 24);
194
195         SCSI_LOG_MLCOMPLETE(4, sdev_printk(KERN_INFO, sdev,
196                                 "Notifying upper driver of completion "
197                                 "(result %x)\n", cmd->result));
198
199         good_bytes = scsi_bufflen(cmd);
200         if (!blk_rq_is_passthrough(cmd->request)) {
201                 int old_good_bytes = good_bytes;
202                 drv = scsi_cmd_to_driver(cmd);
203                 if (drv->done)
204                         good_bytes = drv->done(cmd);
205                 /*
206                  * USB may not give sense identifying bad sector and
207                  * simply return a residue instead, so subtract off the
208                  * residue if drv->done() error processing indicates no
209                  * change to the completion length.
210                  */
211                 if (good_bytes == old_good_bytes)
212                         good_bytes -= scsi_get_resid(cmd);
213         }
214         scsi_io_completion(cmd, good_bytes);
215 }
216
217
218 /*
219  * 1024 is big enough for saturating the fast scsi LUN now
220  */
221 static int scsi_device_max_queue_depth(struct scsi_device *sdev)
222 {
223         return max_t(int, sdev->host->can_queue, 1024);
224 }
225
226 /**
227  * scsi_change_queue_depth - change a device's queue depth
228  * @sdev: SCSI Device in question
229  * @depth: number of commands allowed to be queued to the driver
230  *
231  * Sets the device queue depth and returns the new value.
232  */
233 int scsi_change_queue_depth(struct scsi_device *sdev, int depth)
234 {
235         depth = min_t(int, depth, scsi_device_max_queue_depth(sdev));
236
237         if (depth > 0) {
238                 sdev->queue_depth = depth;
239                 wmb();
240         }
241
242         if (sdev->request_queue)
243                 blk_set_queue_depth(sdev->request_queue, depth);
244
245         return sdev->queue_depth;
246 }
247 EXPORT_SYMBOL(scsi_change_queue_depth);
248
249 /**
250  * scsi_track_queue_full - track QUEUE_FULL events to adjust queue depth
251  * @sdev: SCSI Device in question
252  * @depth: Current number of outstanding SCSI commands on this device,
253  *         not counting the one returned as QUEUE_FULL.
254  *
255  * Description: This function will track successive QUEUE_FULL events on a
256  *              specific SCSI device to determine if and when there is a
257  *              need to adjust the queue depth on the device.
258  *
259  * Returns:     0 - No change needed, >0 - Adjust queue depth to this new depth,
260  *              -1 - Drop back to untagged operation using host->cmd_per_lun
261  *                      as the untagged command depth
262  *
263  * Lock Status: None held on entry
264  *
265  * Notes:       Low level drivers may call this at any time and we will do
266  *              "The Right Thing."  We are interrupt context safe.
267  */
268 int scsi_track_queue_full(struct scsi_device *sdev, int depth)
269 {
270
271         /*
272          * Don't let QUEUE_FULLs on the same
273          * jiffies count, they could all be from
274          * same event.
275          */
276         if ((jiffies >> 4) == (sdev->last_queue_full_time >> 4))
277                 return 0;
278
279         sdev->last_queue_full_time = jiffies;
280         if (sdev->last_queue_full_depth != depth) {
281                 sdev->last_queue_full_count = 1;
282                 sdev->last_queue_full_depth = depth;
283         } else {
284                 sdev->last_queue_full_count++;
285         }
286
287         if (sdev->last_queue_full_count <= 10)
288                 return 0;
289
290         return scsi_change_queue_depth(sdev, depth);
291 }
292 EXPORT_SYMBOL(scsi_track_queue_full);
293
294 /**
295  * scsi_vpd_inquiry - Request a device provide us with a VPD page
296  * @sdev: The device to ask
297  * @buffer: Where to put the result
298  * @page: Which Vital Product Data to return
299  * @len: The length of the buffer
300  *
301  * This is an internal helper function.  You probably want to use
302  * scsi_get_vpd_page instead.
303  *
304  * Returns size of the vpd page on success or a negative error number.
305  */
306 static int scsi_vpd_inquiry(struct scsi_device *sdev, unsigned char *buffer,
307                                                         u8 page, unsigned len)
308 {
309         int result;
310         unsigned char cmd[16];
311
312         if (len < 4)
313                 return -EINVAL;
314
315         cmd[0] = INQUIRY;
316         cmd[1] = 1;             /* EVPD */
317         cmd[2] = page;
318         cmd[3] = len >> 8;
319         cmd[4] = len & 0xff;
320         cmd[5] = 0;             /* Control byte */
321
322         /*
323          * I'm not convinced we need to try quite this hard to get VPD, but
324          * all the existing users tried this hard.
325          */
326         result = scsi_execute_req(sdev, cmd, DMA_FROM_DEVICE, buffer,
327                                   len, NULL, 30 * HZ, 3, NULL);
328         if (result)
329                 return -EIO;
330
331         /* Sanity check that we got the page back that we asked for */
332         if (buffer[1] != page)
333                 return -EIO;
334
335         return get_unaligned_be16(&buffer[2]) + 4;
336 }
337
338 /**
339  * scsi_get_vpd_page - Get Vital Product Data from a SCSI device
340  * @sdev: The device to ask
341  * @page: Which Vital Product Data to return
342  * @buf: where to store the VPD
343  * @buf_len: number of bytes in the VPD buffer area
344  *
345  * SCSI devices may optionally supply Vital Product Data.  Each 'page'
346  * of VPD is defined in the appropriate SCSI document (eg SPC, SBC).
347  * If the device supports this VPD page, this routine returns a pointer
348  * to a buffer containing the data from that page.  The caller is
349  * responsible for calling kfree() on this pointer when it is no longer
350  * needed.  If we cannot retrieve the VPD page this routine returns %NULL.
351  */
352 int scsi_get_vpd_page(struct scsi_device *sdev, u8 page, unsigned char *buf,
353                       int buf_len)
354 {
355         int i, result;
356
357         if (sdev->skip_vpd_pages)
358                 goto fail;
359
360         /* Ask for all the pages supported by this device */
361         result = scsi_vpd_inquiry(sdev, buf, 0, buf_len);
362         if (result < 4)
363                 goto fail;
364
365         /* If the user actually wanted this page, we can skip the rest */
366         if (page == 0)
367                 return 0;
368
369         for (i = 4; i < min(result, buf_len); i++)
370                 if (buf[i] == page)
371                         goto found;
372
373         if (i < result && i >= buf_len)
374                 /* ran off the end of the buffer, give us benefit of doubt */
375                 goto found;
376         /* The device claims it doesn't support the requested page */
377         goto fail;
378
379  found:
380         result = scsi_vpd_inquiry(sdev, buf, page, buf_len);
381         if (result < 0)
382                 goto fail;
383
384         return 0;
385
386  fail:
387         return -EINVAL;
388 }
389 EXPORT_SYMBOL_GPL(scsi_get_vpd_page);
390
391 /**
392  * scsi_get_vpd_buf - Get Vital Product Data from a SCSI device
393  * @sdev: The device to ask
394  * @page: Which Vital Product Data to return
395  *
396  * Returns %NULL upon failure.
397  */
398 static struct scsi_vpd *scsi_get_vpd_buf(struct scsi_device *sdev, u8 page)
399 {
400         struct scsi_vpd *vpd_buf;
401         int vpd_len = SCSI_VPD_PG_LEN, result;
402
403 retry_pg:
404         vpd_buf = kmalloc(sizeof(*vpd_buf) + vpd_len, GFP_KERNEL);
405         if (!vpd_buf)
406                 return NULL;
407
408         result = scsi_vpd_inquiry(sdev, vpd_buf->data, page, vpd_len);
409         if (result < 0) {
410                 kfree(vpd_buf);
411                 return NULL;
412         }
413         if (result > vpd_len) {
414                 vpd_len = result;
415                 kfree(vpd_buf);
416                 goto retry_pg;
417         }
418
419         vpd_buf->len = result;
420
421         return vpd_buf;
422 }
423
424 static void scsi_update_vpd_page(struct scsi_device *sdev, u8 page,
425                                  struct scsi_vpd __rcu **sdev_vpd_buf)
426 {
427         struct scsi_vpd *vpd_buf;
428
429         vpd_buf = scsi_get_vpd_buf(sdev, page);
430         if (!vpd_buf)
431                 return;
432
433         mutex_lock(&sdev->inquiry_mutex);
434         vpd_buf = rcu_replace_pointer(*sdev_vpd_buf, vpd_buf,
435                                       lockdep_is_held(&sdev->inquiry_mutex));
436         mutex_unlock(&sdev->inquiry_mutex);
437
438         if (vpd_buf)
439                 kfree_rcu(vpd_buf, rcu);
440 }
441
442 /**
443  * scsi_attach_vpd - Attach Vital Product Data to a SCSI device structure
444  * @sdev: The device to ask
445  *
446  * Attach the 'Device Identification' VPD page (0x83) and the
447  * 'Unit Serial Number' VPD page (0x80) to a SCSI device
448  * structure. This information can be used to identify the device
449  * uniquely.
450  */
451 void scsi_attach_vpd(struct scsi_device *sdev)
452 {
453         int i;
454         struct scsi_vpd *vpd_buf;
455
456         if (!scsi_device_supports_vpd(sdev))
457                 return;
458
459         /* Ask for all the pages supported by this device */
460         vpd_buf = scsi_get_vpd_buf(sdev, 0);
461         if (!vpd_buf)
462                 return;
463
464         for (i = 4; i < vpd_buf->len; i++) {
465                 if (vpd_buf->data[i] == 0x0)
466                         scsi_update_vpd_page(sdev, 0x0, &sdev->vpd_pg0);
467                 if (vpd_buf->data[i] == 0x80)
468                         scsi_update_vpd_page(sdev, 0x80, &sdev->vpd_pg80);
469                 if (vpd_buf->data[i] == 0x83)
470                         scsi_update_vpd_page(sdev, 0x83, &sdev->vpd_pg83);
471                 if (vpd_buf->data[i] == 0x89)
472                         scsi_update_vpd_page(sdev, 0x89, &sdev->vpd_pg89);
473         }
474         kfree(vpd_buf);
475 }
476
477 /**
478  * scsi_report_opcode - Find out if a given command opcode is supported
479  * @sdev:       scsi device to query
480  * @buffer:     scratch buffer (must be at least 20 bytes long)
481  * @len:        length of buffer
482  * @opcode:     opcode for command to look up
483  *
484  * Uses the REPORT SUPPORTED OPERATION CODES to look up the given
485  * opcode. Returns -EINVAL if RSOC fails, 0 if the command opcode is
486  * unsupported and 1 if the device claims to support the command.
487  */
488 int scsi_report_opcode(struct scsi_device *sdev, unsigned char *buffer,
489                        unsigned int len, unsigned char opcode)
490 {
491         unsigned char cmd[16];
492         struct scsi_sense_hdr sshdr;
493         int result;
494
495         if (sdev->no_report_opcodes || sdev->scsi_level < SCSI_SPC_3)
496                 return -EINVAL;
497
498         memset(cmd, 0, 16);
499         cmd[0] = MAINTENANCE_IN;
500         cmd[1] = MI_REPORT_SUPPORTED_OPERATION_CODES;
501         cmd[2] = 1;             /* One command format */
502         cmd[3] = opcode;
503         put_unaligned_be32(len, &cmd[6]);
504         memset(buffer, 0, len);
505
506         result = scsi_execute_req(sdev, cmd, DMA_FROM_DEVICE, buffer, len,
507                                   &sshdr, 30 * HZ, 3, NULL);
508
509         if (result && scsi_sense_valid(&sshdr) &&
510             sshdr.sense_key == ILLEGAL_REQUEST &&
511             (sshdr.asc == 0x20 || sshdr.asc == 0x24) && sshdr.ascq == 0x00)
512                 return -EINVAL;
513
514         if ((buffer[1] & 3) == 3) /* Command supported */
515                 return 1;
516
517         return 0;
518 }
519 EXPORT_SYMBOL(scsi_report_opcode);
520
521 /**
522  * scsi_device_get  -  get an additional reference to a scsi_device
523  * @sdev:       device to get a reference to
524  *
525  * Description: Gets a reference to the scsi_device and increments the use count
526  * of the underlying LLDD module.  You must hold host_lock of the
527  * parent Scsi_Host or already have a reference when calling this.
528  *
529  * This will fail if a device is deleted or cancelled, or when the LLD module
530  * is in the process of being unloaded.
531  */
532 int scsi_device_get(struct scsi_device *sdev)
533 {
534         if (sdev->sdev_state == SDEV_DEL || sdev->sdev_state == SDEV_CANCEL)
535                 goto fail;
536         if (!get_device(&sdev->sdev_gendev))
537                 goto fail;
538         if (!try_module_get(sdev->host->hostt->module))
539                 goto fail_put_device;
540         return 0;
541
542 fail_put_device:
543         put_device(&sdev->sdev_gendev);
544 fail:
545         return -ENXIO;
546 }
547 EXPORT_SYMBOL(scsi_device_get);
548
549 /**
550  * scsi_device_put  -  release a reference to a scsi_device
551  * @sdev:       device to release a reference on.
552  *
553  * Description: Release a reference to the scsi_device and decrements the use
554  * count of the underlying LLDD module.  The device is freed once the last
555  * user vanishes.
556  */
557 void scsi_device_put(struct scsi_device *sdev)
558 {
559         module_put(sdev->host->hostt->module);
560         put_device(&sdev->sdev_gendev);
561 }
562 EXPORT_SYMBOL(scsi_device_put);
563
564 /* helper for shost_for_each_device, see that for documentation */
565 struct scsi_device *__scsi_iterate_devices(struct Scsi_Host *shost,
566                                            struct scsi_device *prev)
567 {
568         struct list_head *list = (prev ? &prev->siblings : &shost->__devices);
569         struct scsi_device *next = NULL;
570         unsigned long flags;
571
572         spin_lock_irqsave(shost->host_lock, flags);
573         while (list->next != &shost->__devices) {
574                 next = list_entry(list->next, struct scsi_device, siblings);
575                 /* skip devices that we can't get a reference to */
576                 if (!scsi_device_get(next))
577                         break;
578                 next = NULL;
579                 list = list->next;
580         }
581         spin_unlock_irqrestore(shost->host_lock, flags);
582
583         if (prev)
584                 scsi_device_put(prev);
585         return next;
586 }
587 EXPORT_SYMBOL(__scsi_iterate_devices);
588
589 /**
590  * starget_for_each_device  -  helper to walk all devices of a target
591  * @starget:    target whose devices we want to iterate over.
592  * @data:       Opaque passed to each function call.
593  * @fn:         Function to call on each device
594  *
595  * This traverses over each device of @starget.  The devices have
596  * a reference that must be released by scsi_host_put when breaking
597  * out of the loop.
598  */
599 void starget_for_each_device(struct scsi_target *starget, void *data,
600                      void (*fn)(struct scsi_device *, void *))
601 {
602         struct Scsi_Host *shost = dev_to_shost(starget->dev.parent);
603         struct scsi_device *sdev;
604
605         shost_for_each_device(sdev, shost) {
606                 if ((sdev->channel == starget->channel) &&
607                     (sdev->id == starget->id))
608                         fn(sdev, data);
609         }
610 }
611 EXPORT_SYMBOL(starget_for_each_device);
612
613 /**
614  * __starget_for_each_device - helper to walk all devices of a target (UNLOCKED)
615  * @starget:    target whose devices we want to iterate over.
616  * @data:       parameter for callback @fn()
617  * @fn:         callback function that is invoked for each device
618  *
619  * This traverses over each device of @starget.  It does _not_
620  * take a reference on the scsi_device, so the whole loop must be
621  * protected by shost->host_lock.
622  *
623  * Note:  The only reason why drivers would want to use this is because
624  * they need to access the device list in irq context.  Otherwise you
625  * really want to use starget_for_each_device instead.
626  **/
627 void __starget_for_each_device(struct scsi_target *starget, void *data,
628                                void (*fn)(struct scsi_device *, void *))
629 {
630         struct Scsi_Host *shost = dev_to_shost(starget->dev.parent);
631         struct scsi_device *sdev;
632
633         __shost_for_each_device(sdev, shost) {
634                 if ((sdev->channel == starget->channel) &&
635                     (sdev->id == starget->id))
636                         fn(sdev, data);
637         }
638 }
639 EXPORT_SYMBOL(__starget_for_each_device);
640
641 /**
642  * __scsi_device_lookup_by_target - find a device given the target (UNLOCKED)
643  * @starget:    SCSI target pointer
644  * @lun:        SCSI Logical Unit Number
645  *
646  * Description: Looks up the scsi_device with the specified @lun for a given
647  * @starget.  The returned scsi_device does not have an additional
648  * reference.  You must hold the host's host_lock over this call and
649  * any access to the returned scsi_device. A scsi_device in state
650  * SDEV_DEL is skipped.
651  *
652  * Note:  The only reason why drivers should use this is because
653  * they need to access the device list in irq context.  Otherwise you
654  * really want to use scsi_device_lookup_by_target instead.
655  **/
656 struct scsi_device *__scsi_device_lookup_by_target(struct scsi_target *starget,
657                                                    u64 lun)
658 {
659         struct scsi_device *sdev;
660
661         list_for_each_entry(sdev, &starget->devices, same_target_siblings) {
662                 if (sdev->sdev_state == SDEV_DEL)
663                         continue;
664                 if (sdev->lun ==lun)
665                         return sdev;
666         }
667
668         return NULL;
669 }
670 EXPORT_SYMBOL(__scsi_device_lookup_by_target);
671
672 /**
673  * scsi_device_lookup_by_target - find a device given the target
674  * @starget:    SCSI target pointer
675  * @lun:        SCSI Logical Unit Number
676  *
677  * Description: Looks up the scsi_device with the specified @lun for a given
678  * @starget.  The returned scsi_device has an additional reference that
679  * needs to be released with scsi_device_put once you're done with it.
680  **/
681 struct scsi_device *scsi_device_lookup_by_target(struct scsi_target *starget,
682                                                  u64 lun)
683 {
684         struct scsi_device *sdev;
685         struct Scsi_Host *shost = dev_to_shost(starget->dev.parent);
686         unsigned long flags;
687
688         spin_lock_irqsave(shost->host_lock, flags);
689         sdev = __scsi_device_lookup_by_target(starget, lun);
690         if (sdev && scsi_device_get(sdev))
691                 sdev = NULL;
692         spin_unlock_irqrestore(shost->host_lock, flags);
693
694         return sdev;
695 }
696 EXPORT_SYMBOL(scsi_device_lookup_by_target);
697
698 /**
699  * __scsi_device_lookup - find a device given the host (UNLOCKED)
700  * @shost:      SCSI host pointer
701  * @channel:    SCSI channel (zero if only one channel)
702  * @id:         SCSI target number (physical unit number)
703  * @lun:        SCSI Logical Unit Number
704  *
705  * Description: Looks up the scsi_device with the specified @channel, @id, @lun
706  * for a given host. The returned scsi_device does not have an additional
707  * reference.  You must hold the host's host_lock over this call and any access
708  * to the returned scsi_device.
709  *
710  * Note:  The only reason why drivers would want to use this is because
711  * they need to access the device list in irq context.  Otherwise you
712  * really want to use scsi_device_lookup instead.
713  **/
714 struct scsi_device *__scsi_device_lookup(struct Scsi_Host *shost,
715                 uint channel, uint id, u64 lun)
716 {
717         struct scsi_device *sdev;
718
719         list_for_each_entry(sdev, &shost->__devices, siblings) {
720                 if (sdev->sdev_state == SDEV_DEL)
721                         continue;
722                 if (sdev->channel == channel && sdev->id == id &&
723                                 sdev->lun ==lun)
724                         return sdev;
725         }
726
727         return NULL;
728 }
729 EXPORT_SYMBOL(__scsi_device_lookup);
730
731 /**
732  * scsi_device_lookup - find a device given the host
733  * @shost:      SCSI host pointer
734  * @channel:    SCSI channel (zero if only one channel)
735  * @id:         SCSI target number (physical unit number)
736  * @lun:        SCSI Logical Unit Number
737  *
738  * Description: Looks up the scsi_device with the specified @channel, @id, @lun
739  * for a given host.  The returned scsi_device has an additional reference that
740  * needs to be released with scsi_device_put once you're done with it.
741  **/
742 struct scsi_device *scsi_device_lookup(struct Scsi_Host *shost,
743                 uint channel, uint id, u64 lun)
744 {
745         struct scsi_device *sdev;
746         unsigned long flags;
747
748         spin_lock_irqsave(shost->host_lock, flags);
749         sdev = __scsi_device_lookup(shost, channel, id, lun);
750         if (sdev && scsi_device_get(sdev))
751                 sdev = NULL;
752         spin_unlock_irqrestore(shost->host_lock, flags);
753
754         return sdev;
755 }
756 EXPORT_SYMBOL(scsi_device_lookup);
757
758 MODULE_DESCRIPTION("SCSI core");
759 MODULE_LICENSE("GPL");
760
761 module_param(scsi_logging_level, int, S_IRUGO|S_IWUSR);
762 MODULE_PARM_DESC(scsi_logging_level, "a bit mask of logging levels");
763
764 static int __init init_scsi(void)
765 {
766         int error;
767
768         error = scsi_init_procfs();
769         if (error)
770                 goto cleanup_queue;
771         error = scsi_init_devinfo();
772         if (error)
773                 goto cleanup_procfs;
774         error = scsi_init_hosts();
775         if (error)
776                 goto cleanup_devlist;
777         error = scsi_init_sysctl();
778         if (error)
779                 goto cleanup_hosts;
780         error = scsi_sysfs_register();
781         if (error)
782                 goto cleanup_sysctl;
783
784         scsi_netlink_init();
785
786         printk(KERN_NOTICE "SCSI subsystem initialized\n");
787         return 0;
788
789 cleanup_sysctl:
790         scsi_exit_sysctl();
791 cleanup_hosts:
792         scsi_exit_hosts();
793 cleanup_devlist:
794         scsi_exit_devinfo();
795 cleanup_procfs:
796         scsi_exit_procfs();
797 cleanup_queue:
798         scsi_exit_queue();
799         printk(KERN_ERR "SCSI subsystem failed to initialize, error = %d\n",
800                -error);
801         return error;
802 }
803
804 static void __exit exit_scsi(void)
805 {
806         scsi_netlink_exit();
807         scsi_sysfs_unregister();
808         scsi_exit_sysctl();
809         scsi_exit_hosts();
810         scsi_exit_devinfo();
811         scsi_exit_procfs();
812         scsi_exit_queue();
813 }
814
815 subsys_initcall(init_scsi);
816 module_exit(exit_scsi);