arm: use asm-generic/mmu_context.h for no-op implementations
authorNicholas Piggin <npiggin@gmail.com>
Tue, 1 Sep 2020 14:15:20 +0000 (00:15 +1000)
committerArnd Bergmann <arnd@arndb.de>
Mon, 26 Oct 2020 15:45:06 +0000 (16:45 +0100)
Signed-off-by: Nicholas Piggin <npiggin@gmail.com>
Cc: Russell King <linux@armlinux.org.uk>
Cc: linux-arm-kernel@lists.infradead.org
Signed-off-by: Arnd Bergmann <arnd@arndb.de>
arch/arm/include/asm/mmu_context.h

index f99ed52..84e5895 100644 (file)
@@ -26,6 +26,8 @@ void __check_vmalloc_seq(struct mm_struct *mm);
 #ifdef CONFIG_CPU_HAS_ASID
 
 void check_and_switch_context(struct mm_struct *mm, struct task_struct *tsk);
+
+#define init_new_context init_new_context
 static inline int
 init_new_context(struct task_struct *tsk, struct mm_struct *mm)
 {
@@ -92,32 +94,10 @@ static inline void finish_arch_post_lock_switch(void)
 
 #endif /* CONFIG_MMU */
 
-static inline int
-init_new_context(struct task_struct *tsk, struct mm_struct *mm)
-{
-       return 0;
-}
-
-
 #endif /* CONFIG_CPU_HAS_ASID */
 
-#define destroy_context(mm)            do { } while(0)
 #define activate_mm(prev,next)         switch_mm(prev, next, NULL)
 
-/*
- * This is called when "tsk" is about to enter lazy TLB mode.
- *
- * mm:  describes the currently active mm context
- * tsk: task which is entering lazy tlb
- * cpu: cpu number which is entering lazy tlb
- *
- * tsk->mm will be NULL
- */
-static inline void
-enter_lazy_tlb(struct mm_struct *mm, struct task_struct *tsk)
-{
-}
-
 /*
  * This is the actual mm switch as far as the scheduler
  * is concerned.  No registers are touched.  We avoid
@@ -149,6 +129,6 @@ switch_mm(struct mm_struct *prev, struct mm_struct *next,
 #endif
 }
 
-#define deactivate_mm(tsk,mm)  do { } while (0)
+#include <asm-generic/mmu_context.h>
 
 #endif