ae56787ea7c152cf50295f7d188834471073b2f1
[linux-2.6-microblaze.git] / arch / arm64 / kernel / hyp-stub.S
1 /* SPDX-License-Identifier: GPL-2.0-only */
2 /*
3  * Hypervisor stub
4  *
5  * Copyright (C) 2012 ARM Ltd.
6  * Author:      Marc Zyngier <marc.zyngier@arm.com>
7  */
8
9 #include <linux/init.h>
10 #include <linux/linkage.h>
11
12 #include <asm/assembler.h>
13 #include <asm/el2_setup.h>
14 #include <asm/kvm_arm.h>
15 #include <asm/kvm_asm.h>
16 #include <asm/ptrace.h>
17 #include <asm/virt.h>
18
19         .text
20         .pushsection    .hyp.text, "ax"
21
22         .align 11
23
24 SYM_CODE_START(__hyp_stub_vectors)
25         ventry  el2_sync_invalid                // Synchronous EL2t
26         ventry  el2_irq_invalid                 // IRQ EL2t
27         ventry  el2_fiq_invalid                 // FIQ EL2t
28         ventry  el2_error_invalid               // Error EL2t
29
30         ventry  el2_sync_invalid                // Synchronous EL2h
31         ventry  el2_irq_invalid                 // IRQ EL2h
32         ventry  el2_fiq_invalid                 // FIQ EL2h
33         ventry  el2_error_invalid               // Error EL2h
34
35         ventry  el1_sync                        // Synchronous 64-bit EL1
36         ventry  el1_irq_invalid                 // IRQ 64-bit EL1
37         ventry  el1_fiq_invalid                 // FIQ 64-bit EL1
38         ventry  el1_error_invalid               // Error 64-bit EL1
39
40         ventry  el1_sync_invalid                // Synchronous 32-bit EL1
41         ventry  el1_irq_invalid                 // IRQ 32-bit EL1
42         ventry  el1_fiq_invalid                 // FIQ 32-bit EL1
43         ventry  el1_error_invalid               // Error 32-bit EL1
44 SYM_CODE_END(__hyp_stub_vectors)
45
46         .align 11
47
48 SYM_CODE_START_LOCAL(el1_sync)
49         cmp     x0, #HVC_SET_VECTORS
50         b.ne    1f
51         msr     vbar_el2, x1
52         b       9f
53
54 1:      cmp     x0, #HVC_VHE_RESTART
55         b.eq    mutate_to_vhe
56
57 2:      cmp     x0, #HVC_SOFT_RESTART
58         b.ne    3f
59         mov     x0, x2
60         mov     x2, x4
61         mov     x4, x1
62         mov     x1, x3
63         br      x4                              // no return
64
65 3:      cmp     x0, #HVC_RESET_VECTORS
66         beq     9f                              // Nothing to reset!
67
68         /* Someone called kvm_call_hyp() against the hyp-stub... */
69         mov_q   x0, HVC_STUB_ERR
70         eret
71
72 9:      mov     x0, xzr
73         eret
74 SYM_CODE_END(el1_sync)
75
76 // nVHE? No way! Give me the real thing!
77 SYM_CODE_START_LOCAL(mutate_to_vhe)
78         // Sanity check: MMU *must* be off
79         mrs     x1, sctlr_el2
80         tbnz    x1, #0, 1f
81
82         // Needs to be VHE capable, obviously
83         mrs     x1, id_aa64mmfr1_el1
84         ubfx    x1, x1, #ID_AA64MMFR1_VHE_SHIFT, #4
85         cbz     x1, 1f
86
87         // Check whether VHE is disabled from the command line
88         adr_l   x1, id_aa64mmfr1_override
89         ldr     x2, [x1, FTR_OVR_VAL_OFFSET]
90         ldr     x1, [x1, FTR_OVR_MASK_OFFSET]
91         ubfx    x2, x2, #ID_AA64MMFR1_VHE_SHIFT, #4
92         ubfx    x1, x1, #ID_AA64MMFR1_VHE_SHIFT, #4
93         cmp     x1, xzr
94         and     x2, x2, x1
95         csinv   x2, x2, xzr, ne
96         cbnz    x2, 2f
97
98 1:      mov_q   x0, HVC_STUB_ERR
99         eret
100 2:
101         // Engage the VHE magic!
102         mov_q   x0, HCR_HOST_VHE_FLAGS
103         msr     hcr_el2, x0
104         isb
105
106         // Use the EL1 allocated stack, per-cpu offset
107         mrs     x0, sp_el1
108         mov     sp, x0
109         mrs     x0, tpidr_el1
110         msr     tpidr_el2, x0
111
112         // FP configuration, vectors
113         mrs_s   x0, SYS_CPACR_EL12
114         msr     cpacr_el1, x0
115         mrs_s   x0, SYS_VBAR_EL12
116         msr     vbar_el1, x0
117
118         // Use EL2 translations for SPE and disable access from EL1
119         mrs     x0, mdcr_el2
120         bic     x0, x0, #(MDCR_EL2_E2PB_MASK << MDCR_EL2_E2PB_SHIFT)
121         msr     mdcr_el2, x0
122
123         // Transfer the MM state from EL1 to EL2
124         mrs_s   x0, SYS_TCR_EL12
125         msr     tcr_el1, x0
126         mrs_s   x0, SYS_TTBR0_EL12
127         msr     ttbr0_el1, x0
128         mrs_s   x0, SYS_TTBR1_EL12
129         msr     ttbr1_el1, x0
130         mrs_s   x0, SYS_MAIR_EL12
131         msr     mair_el1, x0
132         isb
133
134         // Hack the exception return to stay at EL2
135         mrs     x0, spsr_el1
136         and     x0, x0, #~PSR_MODE_MASK
137         mov     x1, #PSR_MODE_EL2h
138         orr     x0, x0, x1
139         msr     spsr_el1, x0
140
141         b       enter_vhe
142 SYM_CODE_END(mutate_to_vhe)
143
144         // At the point where we reach enter_vhe(), we run with
145         // the MMU off (which is enforced by mutate_to_vhe()).
146         // We thus need to be in the idmap, or everything will
147         // explode when enabling the MMU.
148
149         .pushsection    .idmap.text, "ax"
150
151 SYM_CODE_START_LOCAL(enter_vhe)
152         // Invalidate TLBs before enabling the MMU
153         tlbi    vmalle1
154         dsb     nsh
155
156         // Enable the EL2 S1 MMU, as set up from EL1
157         mrs_s   x0, SYS_SCTLR_EL12
158         set_sctlr_el1   x0
159
160         // Disable the EL1 S1 MMU for a good measure
161         mov_q   x0, INIT_SCTLR_EL1_MMU_OFF
162         msr_s   SYS_SCTLR_EL12, x0
163
164         mov     x0, xzr
165
166         eret
167 SYM_CODE_END(enter_vhe)
168
169         .popsection
170
171 .macro invalid_vector   label
172 SYM_CODE_START_LOCAL(\label)
173         b \label
174 SYM_CODE_END(\label)
175 .endm
176
177         invalid_vector  el2_sync_invalid
178         invalid_vector  el2_irq_invalid
179         invalid_vector  el2_fiq_invalid
180         invalid_vector  el2_error_invalid
181         invalid_vector  el1_sync_invalid
182         invalid_vector  el1_irq_invalid
183         invalid_vector  el1_fiq_invalid
184         invalid_vector  el1_error_invalid
185
186         .popsection
187
188 /*
189  * __hyp_set_vectors: Call this after boot to set the initial hypervisor
190  * vectors as part of hypervisor installation.  On an SMP system, this should
191  * be called on each CPU.
192  *
193  * x0 must be the physical address of the new vector table, and must be
194  * 2KB aligned.
195  *
196  * Before calling this, you must check that the stub hypervisor is installed
197  * everywhere, by waiting for any secondary CPUs to be brought up and then
198  * checking that is_hyp_mode_available() is true.
199  *
200  * If not, there is a pre-existing hypervisor, some CPUs failed to boot, or
201  * something else went wrong... in such cases, trying to install a new
202  * hypervisor is unlikely to work as desired.
203  *
204  * When you call into your shiny new hypervisor, sp_el2 will contain junk,
205  * so you will need to set that to something sensible at the new hypervisor's
206  * initialisation entry point.
207  */
208
209 SYM_FUNC_START(__hyp_set_vectors)
210         mov     x1, x0
211         mov     x0, #HVC_SET_VECTORS
212         hvc     #0
213         ret
214 SYM_FUNC_END(__hyp_set_vectors)
215
216 SYM_FUNC_START(__hyp_reset_vectors)
217         mov     x0, #HVC_RESET_VECTORS
218         hvc     #0
219         ret
220 SYM_FUNC_END(__hyp_reset_vectors)
221
222 /*
223  * Entry point to switch to VHE if deemed capable
224  */
225 SYM_FUNC_START(switch_to_vhe)
226 #ifdef CONFIG_ARM64_VHE
227         // Need to have booted at EL2
228         adr_l   x1, __boot_cpu_mode
229         ldr     w0, [x1]
230         cmp     w0, #BOOT_CPU_MODE_EL2
231         b.ne    1f
232
233         // and still be at EL1
234         mrs     x0, CurrentEL
235         cmp     x0, #CurrentEL_EL1
236         b.ne    1f
237
238         // Turn the world upside down
239         mov     x0, #HVC_VHE_RESTART
240         hvc     #0
241 1:
242 #endif
243         ret
244 SYM_FUNC_END(switch_to_vhe)