GNU Linux-libre 4.19.286-gnu1
[releases.git] / arch / sh / include / asm / processor_32.h
1 /* SPDX-License-Identifier: GPL-2.0 */
2 /*
3  * include/asm-sh/processor.h
4  *
5  * Copyright (C) 1999, 2000  Niibe Yutaka
6  * Copyright (C) 2002, 2003  Paul Mundt
7  */
8
9 #ifndef __ASM_SH_PROCESSOR_32_H
10 #define __ASM_SH_PROCESSOR_32_H
11 #ifdef __KERNEL__
12
13 #include <linux/compiler.h>
14 #include <linux/linkage.h>
15 #include <asm/page.h>
16 #include <asm/types.h>
17 #include <asm/hw_breakpoint.h>
18
19 /*
20  * Default implementation of macro that returns current
21  * instruction pointer ("program counter").
22  */
23 #define current_text_addr() ({ void *pc; __asm__("mova  1f, %0\n.align 2\n1:":"=z" (pc)); pc; })
24
25 /* Core Processor Version Register */
26 #define CCN_PVR         0xff000030
27 #define CCN_CVR         0xff000040
28 #define CCN_PRR         0xff000044
29
30 /*
31  * User space process size: 2GB.
32  *
33  * Since SH7709 and SH7750 have "area 7", we can't use 0x7c000000--0x7fffffff
34  */
35 #define TASK_SIZE       0x7c000000UL
36
37 #define STACK_TOP       TASK_SIZE
38 #define STACK_TOP_MAX   STACK_TOP
39
40 /* This decides where the kernel will search for a free chunk of vm
41  * space during mmap's.
42  */
43 #define TASK_UNMAPPED_BASE      PAGE_ALIGN(TASK_SIZE / 3)
44
45 /*
46  * Bit of SR register
47  *
48  * FD-bit:
49  *     When it's set, it means the processor doesn't have right to use FPU,
50  *     and it results exception when the floating operation is executed.
51  *
52  * IMASK-bit:
53  *     Interrupt level mask
54  */
55 #define SR_DSP          0x00001000
56 #define SR_IMASK        0x000000f0
57 #define SR_FD           0x00008000
58 #define SR_MD           0x40000000
59
60 #define SR_USER_MASK    0x00000303      // M, Q, S, T bits
61 /*
62  * DSP structure and data
63  */
64 struct sh_dsp_struct {
65         unsigned long dsp_regs[14];
66         long status;
67 };
68
69 /*
70  * FPU structure and data
71  */
72
73 struct sh_fpu_hard_struct {
74         unsigned long fp_regs[16];
75         unsigned long xfp_regs[16];
76         unsigned long fpscr;
77         unsigned long fpul;
78
79         long status; /* software status information */
80 };
81
82 /* Dummy fpu emulator  */
83 struct sh_fpu_soft_struct {
84         unsigned long fp_regs[16];
85         unsigned long xfp_regs[16];
86         unsigned long fpscr;
87         unsigned long fpul;
88
89         unsigned char lookahead;
90         unsigned long entry_pc;
91 };
92
93 union thread_xstate {
94         struct sh_fpu_hard_struct hardfpu;
95         struct sh_fpu_soft_struct softfpu;
96 };
97
98 struct thread_struct {
99         /* Saved registers when thread is descheduled */
100         unsigned long sp;
101         unsigned long pc;
102
103         /* Various thread flags, see SH_THREAD_xxx */
104         unsigned long flags;
105
106         /* Save middle states of ptrace breakpoints */
107         struct perf_event *ptrace_bps[HBP_NUM];
108
109 #ifdef CONFIG_SH_DSP
110         /* Dsp status information */
111         struct sh_dsp_struct dsp_status;
112 #endif
113
114         /* Extended processor state */
115         union thread_xstate *xstate;
116
117         /*
118          * fpu_counter contains the number of consecutive context switches
119          * that the FPU is used. If this is over a threshold, the lazy fpu
120          * saving becomes unlazy to save the trap. This is an unsigned char
121          * so that after 256 times the counter wraps and the behavior turns
122          * lazy again; this to deal with bursty apps that only use FPU for
123          * a short time
124          */
125         unsigned char fpu_counter;
126 };
127
128 #define INIT_THREAD  {                                          \
129         .sp = sizeof(init_stack) + (long) &init_stack,          \
130         .flags = 0,                                             \
131 }
132
133 /* Forward declaration, a strange C thing */
134 struct task_struct;
135
136 extern void start_thread(struct pt_regs *regs, unsigned long new_pc, unsigned long new_sp);
137
138 /* Free all resources held by a thread. */
139 extern void release_thread(struct task_struct *);
140
141 /*
142  * FPU lazy state save handling.
143  */
144
145 static __inline__ void disable_fpu(void)
146 {
147         unsigned long __dummy;
148
149         /* Set FD flag in SR */
150         __asm__ __volatile__("stc       sr, %0\n\t"
151                              "or        %1, %0\n\t"
152                              "ldc       %0, sr"
153                              : "=&r" (__dummy)
154                              : "r" (SR_FD));
155 }
156
157 static __inline__ void enable_fpu(void)
158 {
159         unsigned long __dummy;
160
161         /* Clear out FD flag in SR */
162         __asm__ __volatile__("stc       sr, %0\n\t"
163                              "and       %1, %0\n\t"
164                              "ldc       %0, sr"
165                              : "=&r" (__dummy)
166                              : "r" (~SR_FD));
167 }
168
169 /* Double presision, NANS as NANS, rounding to nearest, no exceptions */
170 #define FPSCR_INIT  0x00080000
171
172 #define FPSCR_CAUSE_MASK        0x0001f000      /* Cause bits */
173 #define FPSCR_FLAG_MASK         0x0000007c      /* Flag bits */
174
175 /*
176  * Return saved PC of a blocked thread.
177  */
178 #define thread_saved_pc(tsk)    (tsk->thread.pc)
179
180 void show_trace(struct task_struct *tsk, unsigned long *sp,
181                 struct pt_regs *regs);
182
183 #ifdef CONFIG_DUMP_CODE
184 void show_code(struct pt_regs *regs);
185 #else
186 static inline void show_code(struct pt_regs *regs)
187 {
188 }
189 #endif
190
191 extern unsigned long get_wchan(struct task_struct *p);
192
193 #define KSTK_EIP(tsk)  (task_pt_regs(tsk)->pc)
194 #define KSTK_ESP(tsk)  (task_pt_regs(tsk)->regs[15])
195
196 #if defined(CONFIG_CPU_SH2A) || defined(CONFIG_CPU_SH4)
197
198 #define PREFETCH_STRIDE         L1_CACHE_BYTES
199 #define ARCH_HAS_PREFETCH
200 #define ARCH_HAS_PREFETCHW
201
202 static inline void prefetch(const void *x)
203 {
204         __builtin_prefetch(x, 0, 3);
205 }
206
207 static inline void prefetchw(const void *x)
208 {
209         __builtin_prefetch(x, 1, 3);
210 }
211 #endif
212
213 #endif /* __KERNEL__ */
214 #endif /* __ASM_SH_PROCESSOR_32_H */