Linux 6.9-rc1
[linux-2.6-microblaze.git] / kernel / irq_work.c
index 7afa40f..2f4fb33 100644 (file)
@@ -22,6 +22,8 @@
 #include <asm/processor.h>
 #include <linux/kasan.h>
 
+#include <trace/events/ipi.h>
+
 static DEFINE_PER_CPU(struct llist_head, raised_list);
 static DEFINE_PER_CPU(struct llist_head, lazy_list);
 static DEFINE_PER_CPU(struct task_struct *, irq_workd);
@@ -74,6 +76,14 @@ void __weak arch_irq_work_raise(void)
         */
 }
 
+static __always_inline void irq_work_raise(struct irq_work *work)
+{
+       if (trace_ipi_send_cpu_enabled() && arch_irq_work_has_interrupt())
+               trace_ipi_send_cpu(smp_processor_id(), _RET_IP_, work->func);
+
+       arch_irq_work_raise();
+}
+
 /* Enqueue on current CPU, work must already be claimed and preempt disabled */
 static void __irq_work_queue_local(struct irq_work *work)
 {
@@ -99,7 +109,7 @@ static void __irq_work_queue_local(struct irq_work *work)
 
        /* If the work is "lazy", handle it from next tick if any */
        if (!lazy_work || tick_nohz_tick_stopped())
-               arch_irq_work_raise();
+               irq_work_raise(work);
 }
 
 /* Enqueue the irq work @work on the current CPU */