clocksource: Limit number of CPUs checked for clock synchronization
[linux-2.6-microblaze.git] / kernel / time / clocksource.c
index cb12225..e4beab2 100644 (file)
@@ -14,6 +14,8 @@
 #include <linux/sched.h> /* for spin_unlock_irq() using preempt_count() m68k */
 #include <linux/tick.h>
 #include <linux/kthread.h>
+#include <linux/prandom.h>
+#include <linux/cpu.h>
 
 #include "tick-internal.h"
 #include "timekeeping_internal.h"
@@ -193,6 +195,8 @@ void clocksource_mark_unstable(struct clocksource *cs)
 
 static ulong max_cswd_read_retries = 3;
 module_param(max_cswd_read_retries, ulong, 0644);
+static int verify_n_cpus = 8;
+module_param(verify_n_cpus, int, 0644);
 
 static bool cs_watchdog_read(struct clocksource *cs, u64 *csnow, u64 *wdnow)
 {
@@ -227,6 +231,55 @@ static bool cs_watchdog_read(struct clocksource *cs, u64 *csnow, u64 *wdnow)
 static u64 csnow_mid;
 static cpumask_t cpus_ahead;
 static cpumask_t cpus_behind;
+static cpumask_t cpus_chosen;
+
+static void clocksource_verify_choose_cpus(void)
+{
+       int cpu, i, n = verify_n_cpus;
+
+       if (n < 0) {
+               /* Check all of the CPUs. */
+               cpumask_copy(&cpus_chosen, cpu_online_mask);
+               cpumask_clear_cpu(smp_processor_id(), &cpus_chosen);
+               return;
+       }
+
+       /* If no checking desired, or no other CPU to check, leave. */
+       cpumask_clear(&cpus_chosen);
+       if (n == 0 || num_online_cpus() <= 1)
+               return;
+
+       /* Make sure to select at least one CPU other than the current CPU. */
+       cpu = cpumask_next(-1, cpu_online_mask);
+       if (cpu == smp_processor_id())
+               cpu = cpumask_next(cpu, cpu_online_mask);
+       if (WARN_ON_ONCE(cpu >= nr_cpu_ids))
+               return;
+       cpumask_set_cpu(cpu, &cpus_chosen);
+
+       /* Force a sane value for the boot parameter. */
+       if (n > nr_cpu_ids)
+               n = nr_cpu_ids;
+
+       /*
+        * Randomly select the specified number of CPUs.  If the same
+        * CPU is selected multiple times, that CPU is checked only once,
+        * and no replacement CPU is selected.  This gracefully handles
+        * situations where verify_n_cpus is greater than the number of
+        * CPUs that are currently online.
+        */
+       for (i = 1; i < n; i++) {
+               cpu = prandom_u32() % nr_cpu_ids;
+               cpu = cpumask_next(cpu - 1, cpu_online_mask);
+               if (cpu >= nr_cpu_ids)
+                       cpu = cpumask_next(-1, cpu_online_mask);
+               if (!WARN_ON_ONCE(cpu >= nr_cpu_ids))
+                       cpumask_set_cpu(cpu, &cpus_chosen);
+       }
+
+       /* Don't verify ourselves. */
+       cpumask_clear_cpu(smp_processor_id(), &cpus_chosen);
+}
 
 static void clocksource_verify_one_cpu(void *csin)
 {
@@ -242,12 +295,22 @@ static void clocksource_verify_percpu(struct clocksource *cs)
        int cpu, testcpu;
        s64 delta;
 
+       if (verify_n_cpus == 0)
+               return;
        cpumask_clear(&cpus_ahead);
        cpumask_clear(&cpus_behind);
+       get_online_cpus();
        preempt_disable();
+       clocksource_verify_choose_cpus();
+       if (cpumask_weight(&cpus_chosen) == 0) {
+               preempt_enable();
+               put_online_cpus();
+               pr_warn("Not enough CPUs to check clocksource '%s'.\n", cs->name);
+               return;
+       }
        testcpu = smp_processor_id();
-       pr_warn("Checking clocksource %s synchronization from CPU %d.\n", cs->name, testcpu);
-       for_each_online_cpu(cpu) {
+       pr_warn("Checking clocksource %s synchronization from CPU %d to CPUs %*pbl.\n", cs->name, testcpu, cpumask_pr_args(&cpus_chosen));
+       for_each_cpu(cpu, &cpus_chosen) {
                if (cpu == testcpu)
                        continue;
                csnow_begin = cs->read(cs);
@@ -267,6 +330,7 @@ static void clocksource_verify_percpu(struct clocksource *cs)
                        cs_nsec_min = cs_nsec;
        }
        preempt_enable();
+       put_online_cpus();
        if (!cpumask_empty(&cpus_ahead))
                pr_warn("        CPUs %*pbl ahead of CPU %d for clocksource %s.\n",
                        cpumask_pr_args(&cpus_ahead), testcpu, cs->name);
@@ -337,6 +401,12 @@ static void clocksource_watchdog(struct timer_list *unused)
                                watchdog->name, wdnow, wdlast, watchdog->mask);
                        pr_warn("                      '%s' cs_now: %llx cs_last: %llx mask: %llx\n",
                                cs->name, csnow, cslast, cs->mask);
+                       if (curr_clocksource == cs)
+                               pr_warn("                      '%s' is current clocksource.\n", cs->name);
+                       else if (curr_clocksource)
+                               pr_warn("                      '%s' (not '%s') is current clocksource.\n", curr_clocksource->name, cs->name);
+                       else
+                               pr_warn("                      No current clocksource.\n");
                        __clocksource_unstable(cs);
                        continue;
                }