ARC: mm: tlb flush optim: elide redundant uTLB invalidates for MMUv3
authorVineet Gupta <vgupta@synopsys.com>
Tue, 10 Sep 2019 22:38:10 +0000 (15:38 -0700)
committerVineet Gupta <vgupta@synopsys.com>
Mon, 28 Oct 2019 19:12:32 +0000 (12:12 -0700)
For MMUv3 (and prior) the flush_tlb_{range,mm,page} API use the MMU
TLBWrite cmd which already nukes the entire uTLB, so NO need for
additional IVUTLB cmd from utlb_invalidate() - hence this patch

local_flush_tlb_all() is special since it uses a weaker TLBWriteNI
cmd (prec commit) to shoot down JTLB, hence we retain the explicit
uTLB flush

Signed-off-by: Vineet Gupta <vgupta@synopsys.com>
arch/arc/mm/tlb.c

index 210d807..c340acd 100644 (file)
@@ -339,8 +339,6 @@ void local_flush_tlb_range(struct vm_area_struct *vma, unsigned long start,
                }
        }
 
-       utlb_invalidate();
-
        local_irq_restore(flags);
 }
 
@@ -369,8 +367,6 @@ void local_flush_tlb_kernel_range(unsigned long start, unsigned long end)
                start += PAGE_SIZE;
        }
 
-       utlb_invalidate();
-
        local_irq_restore(flags);
 }
 
@@ -391,7 +387,6 @@ void local_flush_tlb_page(struct vm_area_struct *vma, unsigned long page)
 
        if (asid_mm(vma->vm_mm, cpu) != MM_CTXT_NO_ASID) {
                tlb_entry_erase((page & PAGE_MASK) | hw_pid(vma->vm_mm, cpu));
-               utlb_invalidate();
        }
 
        local_irq_restore(flags);