x86/cpu_entry_area: Sync cpu_entry_area to initial_page_table
authorThomas Gleixner <tglx@linutronix.de>
Wed, 28 Feb 2018 20:14:26 +0000 (21:14 +0100)
committerThomas Gleixner <tglx@linutronix.de>
Thu, 1 Mar 2018 08:48:27 +0000 (09:48 +0100)
commit945fd17ab6bab8a4d05da6c3170519fbcfe62ddb
tree174377d2e0f5a1832931045e5e06b8345d610438
parent1402fd8ed7e5bda1b3e7613b70780b0db392d1e6
x86/cpu_entry_area: Sync cpu_entry_area to initial_page_table

The separation of the cpu_entry_area from the fixmap missed the fact that
on 32bit non-PAE kernels the cpu_entry_area mapping might not be covered in
initial_page_table by the previous synchronizations.

This results in suspend/resume failures because 32bit utilizes initial page
table for resume. The absence of the cpu_entry_area mapping results in a
triple fault, aka. insta reboot.

With PAE enabled this works by chance because the PGD entry which covers
the fixmap and other parts incindentally provides the cpu_entry_area
mapping as well.

Synchronize the initial page table after setting up the cpu entry
area. Instead of adding yet another copy of the same code, move it to a
function and invoke it from the various places.

It needs to be investigated if the existing calls in setup_arch() and
setup_per_cpu_areas() can be replaced by the later invocation from
setup_cpu_entry_areas(), but that's beyond the scope of this fix.

Fixes: 92a0f81d8957 ("x86/cpu_entry_area: Move it out of the fixmap")
Reported-by: Woody Suwalski <terraluna977@gmail.com>
Signed-off-by: Thomas Gleixner <tglx@linutronix.de>
Tested-by: Woody Suwalski <terraluna977@gmail.com>
Cc: William Grant <william.grant@canonical.com>
Cc: stable@vger.kernel.org
Link: https://lkml.kernel.org/r/alpine.DEB.2.21.1802282137290.1392@nanos.tec.linutronix.de
arch/x86/include/asm/pgtable_32.h
arch/x86/include/asm/pgtable_64.h
arch/x86/kernel/setup.c
arch/x86/kernel/setup_percpu.c
arch/x86/mm/cpu_entry_area.c
arch/x86/mm/init_32.c