GNU Linux-libre 4.9.309-gnu1
[releases.git] / arch / arm / include / asm / barrier.h
1 #ifndef __ASM_BARRIER_H
2 #define __ASM_BARRIER_H
3
4 #ifndef __ASSEMBLY__
5
6 #define nop() __asm__ __volatile__("mov\tr0,r0\t@ nop\n\t");
7
8 #if __LINUX_ARM_ARCH__ >= 7 ||          \
9         (__LINUX_ARM_ARCH__ == 6 && defined(CONFIG_CPU_32v6K))
10 #define sev()   __asm__ __volatile__ ("sev" : : : "memory")
11 #define wfe()   __asm__ __volatile__ ("wfe" : : : "memory")
12 #define wfi()   __asm__ __volatile__ ("wfi" : : : "memory")
13 #else
14 #define wfe()   do { } while (0)
15 #endif
16
17 #if __LINUX_ARM_ARCH__ >= 7
18 #define isb(option) __asm__ __volatile__ ("isb " #option : : : "memory")
19 #define dsb(option) __asm__ __volatile__ ("dsb " #option : : : "memory")
20 #define dmb(option) __asm__ __volatile__ ("dmb " #option : : : "memory")
21 #ifdef CONFIG_THUMB2_KERNEL
22 #define CSDB    ".inst.w 0xf3af8014"
23 #else
24 #define CSDB    ".inst  0xe320f014"
25 #endif
26 #define csdb() __asm__ __volatile__(CSDB : : : "memory")
27 #elif defined(CONFIG_CPU_XSC3) || __LINUX_ARM_ARCH__ == 6
28 #define isb(x) __asm__ __volatile__ ("mcr p15, 0, %0, c7, c5, 4" \
29                                     : : "r" (0) : "memory")
30 #define dsb(x) __asm__ __volatile__ ("mcr p15, 0, %0, c7, c10, 4" \
31                                     : : "r" (0) : "memory")
32 #define dmb(x) __asm__ __volatile__ ("mcr p15, 0, %0, c7, c10, 5" \
33                                     : : "r" (0) : "memory")
34 #elif defined(CONFIG_CPU_FA526)
35 #define isb(x) __asm__ __volatile__ ("mcr p15, 0, %0, c7, c5, 4" \
36                                     : : "r" (0) : "memory")
37 #define dsb(x) __asm__ __volatile__ ("mcr p15, 0, %0, c7, c10, 4" \
38                                     : : "r" (0) : "memory")
39 #define dmb(x) __asm__ __volatile__ ("" : : : "memory")
40 #else
41 #define isb(x) __asm__ __volatile__ ("" : : : "memory")
42 #define dsb(x) __asm__ __volatile__ ("mcr p15, 0, %0, c7, c10, 4" \
43                                     : : "r" (0) : "memory")
44 #define dmb(x) __asm__ __volatile__ ("" : : : "memory")
45 #endif
46
47 #ifndef CSDB
48 #define CSDB
49 #endif
50 #ifndef csdb
51 #define csdb()
52 #endif
53
54 #ifdef CONFIG_ARM_HEAVY_MB
55 extern void (*soc_mb)(void);
56 extern void arm_heavy_mb(void);
57 #define __arm_heavy_mb(x...) do { dsb(x); arm_heavy_mb(); } while (0)
58 #else
59 #define __arm_heavy_mb(x...) dsb(x)
60 #endif
61
62 #if defined(CONFIG_ARM_DMA_MEM_BUFFERABLE) || defined(CONFIG_SMP)
63 #define mb()            __arm_heavy_mb()
64 #define rmb()           dsb()
65 #define wmb()           __arm_heavy_mb(st)
66 #define dma_rmb()       dmb(osh)
67 #define dma_wmb()       dmb(oshst)
68 #else
69 #define mb()            barrier()
70 #define rmb()           barrier()
71 #define wmb()           barrier()
72 #define dma_rmb()       barrier()
73 #define dma_wmb()       barrier()
74 #endif
75
76 #define __smp_mb()      dmb(ish)
77 #define __smp_rmb()     __smp_mb()
78 #define __smp_wmb()     dmb(ishst)
79
80 #ifdef CONFIG_CPU_SPECTRE
81 static inline unsigned long array_index_mask_nospec(unsigned long idx,
82                                                     unsigned long sz)
83 {
84         unsigned long mask;
85
86         asm volatile(
87                 "cmp    %1, %2\n"
88         "       sbc     %0, %1, %1\n"
89         CSDB
90         : "=r" (mask)
91         : "r" (idx), "Ir" (sz)
92         : "cc");
93
94         return mask;
95 }
96 #define array_index_mask_nospec array_index_mask_nospec
97 #endif
98
99 #include <asm-generic/barrier.h>
100
101 #endif /* !__ASSEMBLY__ */
102 #endif /* __ASM_BARRIER_H */