powerpc/watchpoint: Get watchpoint count dynamically while disabling them
[linux-2.6-microblaze.git] / arch / powerpc / include / asm / sstep.h
1 /* SPDX-License-Identifier: GPL-2.0-or-later */
2 /*
3  * Copyright (C) 2004 Paul Mackerras <paulus@au.ibm.com>, IBM
4  */
5 #include <asm/inst.h>
6
7 struct pt_regs;
8
9 /*
10  * We don't allow single-stepping an mtmsrd that would clear
11  * MSR_RI, since that would make the exception unrecoverable.
12  * Since we need to single-step to proceed from a breakpoint,
13  * we don't allow putting a breakpoint on an mtmsrd instruction.
14  * Similarly we don't allow breakpoints on rfid instructions.
15  * These macros tell us if an instruction is a mtmsrd or rfid.
16  * Note that IS_MTMSRD returns true for both an mtmsr (32-bit)
17  * and an mtmsrd (64-bit).
18  */
19 #define IS_MTMSRD(instr)        ((ppc_inst_val(instr) & 0xfc0007be) == 0x7c000124)
20 #define IS_RFID(instr)          ((ppc_inst_val(instr) & 0xfc0007fe) == 0x4c000024)
21 #define IS_RFI(instr)           ((ppc_inst_val(instr) & 0xfc0007fe) == 0x4c000064)
22
23 enum instruction_type {
24         COMPUTE,                /* arith/logical/CR op, etc. */
25         LOAD,                   /* load and store types need to be contiguous */
26         LOAD_MULTI,
27         LOAD_FP,
28         LOAD_VMX,
29         LOAD_VSX,
30         STORE,
31         STORE_MULTI,
32         STORE_FP,
33         STORE_VMX,
34         STORE_VSX,
35         LARX,
36         STCX,
37         BRANCH,
38         MFSPR,
39         MTSPR,
40         CACHEOP,
41         BARRIER,
42         SYSCALL,
43         MFMSR,
44         MTMSR,
45         RFI,
46         INTERRUPT,
47         UNKNOWN
48 };
49
50 #define INSTR_TYPE_MASK 0x1f
51
52 #define OP_IS_LOAD_STORE(type)  (LOAD <= (type) && (type) <= STCX)
53
54 /* Compute flags, ORed in with type */
55 #define SETREG          0x20
56 #define SETCC           0x40
57 #define SETXER          0x80
58
59 /* Branch flags, ORed in with type */
60 #define SETLK           0x20
61 #define BRTAKEN         0x40
62 #define DECCTR          0x80
63
64 /* Load/store flags, ORed in with type */
65 #define SIGNEXT         0x20
66 #define UPDATE          0x40    /* matches bit in opcode 31 instructions */
67 #define BYTEREV         0x80
68 #define FPCONV          0x100
69
70 /* Barrier type field, ORed in with type */
71 #define BARRIER_MASK    0xe0
72 #define BARRIER_SYNC    0x00
73 #define BARRIER_ISYNC   0x20
74 #define BARRIER_EIEIO   0x40
75 #define BARRIER_LWSYNC  0x60
76 #define BARRIER_PTESYNC 0x80
77
78 /* Cacheop values, ORed in with type */
79 #define CACHEOP_MASK    0x700
80 #define DCBST           0
81 #define DCBF            0x100
82 #define DCBTST          0x200
83 #define DCBT            0x300
84 #define ICBI            0x400
85 #define DCBZ            0x500
86
87 /* VSX flags values */
88 #define VSX_FPCONV      1       /* do floating point SP/DP conversion */
89 #define VSX_SPLAT       2       /* store loaded value into all elements */
90 #define VSX_LDLEFT      4       /* load VSX register from left */
91 #define VSX_CHECK_VEC   8       /* check MSR_VEC not MSR_VSX for reg >= 32 */
92
93 /* Prefixed flag, ORed in with type */
94 #define PREFIXED       0x800
95
96 /* Size field in type word */
97 #define SIZE(n)         ((n) << 12)
98 #define GETSIZE(w)      ((w) >> 12)
99
100 #define GETTYPE(t)      ((t) & INSTR_TYPE_MASK)
101 #define GETLENGTH(t)   (((t) & PREFIXED) ? 8 : 4)
102
103 #define MKOP(t, f, s)   ((t) | (f) | SIZE(s))
104
105 struct instruction_op {
106         int type;
107         int reg;
108         unsigned long val;
109         /* For LOAD/STORE/LARX/STCX */
110         unsigned long ea;
111         int update_reg;
112         /* For MFSPR */
113         int spr;
114         u32 ccval;
115         u32 xerval;
116         u8 element_size;        /* for VSX/VMX loads/stores */
117         u8 vsx_flags;
118 };
119
120 union vsx_reg {
121         u8      b[16];
122         u16     h[8];
123         u32     w[4];
124         unsigned long d[2];
125         float   fp[4];
126         double  dp[2];
127         __vector128 v;
128 };
129
130 /*
131  * Decode an instruction, and return information about it in *op
132  * without changing *regs.
133  *
134  * Return value is 1 if the instruction can be emulated just by
135  * updating *regs with the information in *op, -1 if we need the
136  * GPRs but *regs doesn't contain the full register set, or 0
137  * otherwise.
138  */
139 extern int analyse_instr(struct instruction_op *op, const struct pt_regs *regs,
140                          struct ppc_inst instr);
141
142 /*
143  * Emulate an instruction that can be executed just by updating
144  * fields in *regs.
145  */
146 void emulate_update_regs(struct pt_regs *reg, struct instruction_op *op);
147
148 /*
149  * Emulate instructions that cause a transfer of control,
150  * arithmetic/logical instructions, loads and stores,
151  * cache operations and barriers.
152  *
153  * Returns 1 if the instruction was emulated successfully,
154  * 0 if it could not be emulated, or -1 for an instruction that
155  * should not be emulated (rfid, mtmsrd clearing MSR_RI, etc.).
156  */
157 extern int emulate_step(struct pt_regs *regs, struct ppc_inst instr);
158
159 /*
160  * Emulate a load or store instruction by reading/writing the
161  * memory of the current process.  FP/VMX/VSX registers are assumed
162  * to hold live values if the appropriate enable bit in regs->msr is
163  * set; otherwise this will use the saved values in the thread struct
164  * for user-mode accesses.
165  */
166 extern int emulate_loadstore(struct pt_regs *regs, struct instruction_op *op);
167
168 extern void emulate_vsx_load(struct instruction_op *op, union vsx_reg *reg,
169                              const void *mem, bool cross_endian);
170 extern void emulate_vsx_store(struct instruction_op *op,
171                               const union vsx_reg *reg, void *mem,
172                               bool cross_endian);
173 extern int emulate_dcbz(unsigned long ea, struct pt_regs *regs);