GNU Linux-libre 4.19.264-gnu1
[releases.git] / arch / powerpc / include / asm / lppaca.h
1 /*
2  * lppaca.h
3  * Copyright (C) 2001  Mike Corrigan IBM Corporation
4  *
5  * This program is free software; you can redistribute it and/or modify
6  * it under the terms of the GNU General Public License as published by
7  * the Free Software Foundation; either version 2 of the License, or
8  * (at your option) any later version.
9  *
10  * This program is distributed in the hope that it will be useful,
11  * but WITHOUT ANY WARRANTY; without even the implied warranty of
12  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
13  * GNU General Public License for more details.
14  *
15  * You should have received a copy of the GNU General Public License
16  * along with this program; if not, write to the Free Software
17  * Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307 USA
18  */
19 #ifndef _ASM_POWERPC_LPPACA_H
20 #define _ASM_POWERPC_LPPACA_H
21 #ifdef __KERNEL__
22
23 /*
24  * These definitions relate to hypervisors that only exist when using
25  * a server type processor
26  */
27 #ifdef CONFIG_PPC_BOOK3S
28
29 /*
30  * This control block contains the data that is shared between the
31  * hypervisor and the OS.
32  */
33 #include <linux/cache.h>
34 #include <linux/threads.h>
35 #include <asm/types.h>
36 #include <asm/mmu.h>
37 #include <asm/firmware.h>
38
39 /*
40  * The lppaca is the "virtual processor area" registered with the hypervisor,
41  * H_REGISTER_VPA etc.
42  *
43  * According to PAPR, the structure is 640 bytes long, must be L1 cache line
44  * aligned, and must not cross a 4kB boundary. Its size field must be at
45  * least 640 bytes (but may be more).
46  *
47  * Pre-v4.14 KVM hypervisors reject the VPA if its size field is smaller than
48  * 1kB, so we dynamically allocate 1kB and advertise size as 1kB, but keep
49  * this structure as the canonical 640 byte size.
50  */
51 struct lppaca {
52         /* cacheline 1 contains read-only data */
53
54         __be32  desc;                   /* Eye catcher 0xD397D781 */
55         __be16  size;                   /* Size of this struct */
56         u8      reserved1[3];
57         u8      __old_status;           /* Old status, including shared proc */
58         u8      reserved3[14];
59         volatile __be32 dyn_hw_node_id; /* Dynamic hardware node id */
60         volatile __be32 dyn_hw_proc_id; /* Dynamic hardware proc id */
61         u8      reserved4[56];
62         volatile u8 vphn_assoc_counts[8]; /* Virtual processor home node */
63                                           /* associativity change counters */
64         u8      reserved5[32];
65
66         /* cacheline 2 contains local read-write data */
67
68         u8      reserved6[48];
69         u8      cede_latency_hint;
70         u8      ebb_regs_in_use;
71         u8      reserved7[6];
72         u8      dtl_enable_mask;        /* Dispatch Trace Log mask */
73         u8      donate_dedicated_cpu;   /* Donate dedicated CPU cycles */
74         u8      fpregs_in_use;
75         u8      pmcregs_in_use;
76         u8      reserved8[28];
77         __be64  wait_state_cycles;      /* Wait cycles for this proc */
78         u8      reserved9[28];
79         __be16  slb_count;              /* # of SLBs to maintain */
80         u8      idle;                   /* Indicate OS is idle */
81         u8      vmxregs_in_use;
82
83         /* cacheline 3 is shared with other processors */
84
85         /*
86          * This is the yield_count.  An "odd" value (low bit on) means that
87          * the processor is yielded (either because of an OS yield or a
88          * hypervisor preempt).  An even value implies that the processor is
89          * currently executing.
90          * NOTE: Even dedicated processor partitions can yield so this
91          * field cannot be used to determine if we are shared or dedicated.
92          */
93         volatile __be32 yield_count;
94         volatile __be32 dispersion_count; /* dispatch changed physical cpu */
95         volatile __be64 cmo_faults;     /* CMO page fault count */
96         volatile __be64 cmo_fault_time; /* CMO page fault time */
97         u8      reserved10[104];
98
99         /* cacheline 4-5 */
100
101         __be32  page_ins;               /* CMO Hint - # page ins by OS */
102         u8      reserved11[148];
103         volatile __be64 dtl_idx;        /* Dispatch Trace Log head index */
104         u8      reserved12[96];
105 } ____cacheline_aligned;
106
107 #define lppaca_of(cpu)  (*paca_ptrs[cpu]->lppaca_ptr)
108
109 /*
110  * We are using a non architected field to determine if a partition is
111  * shared or dedicated. This currently works on both KVM and PHYP, but
112  * we will have to transition to something better.
113  */
114 #define LPPACA_OLD_SHARED_PROC          2
115
116 static inline bool lppaca_shared_proc(struct lppaca *l)
117 {
118         if (!firmware_has_feature(FW_FEATURE_SPLPAR))
119                 return false;
120         return !!(l->__old_status & LPPACA_OLD_SHARED_PROC);
121 }
122
123 /*
124  * SLB shadow buffer structure as defined in the PAPR.  The save_area
125  * contains adjacent ESID and VSID pairs for each shadowed SLB.  The
126  * ESID is stored in the lower 64bits, then the VSID.
127  */
128 struct slb_shadow {
129         __be32  persistent;             /* Number of persistent SLBs */
130         __be32  buffer_length;          /* Total shadow buffer length */
131         __be64  reserved;
132         struct  {
133                 __be64     esid;
134                 __be64  vsid;
135         } save_area[SLB_NUM_BOLTED];
136 } ____cacheline_aligned;
137
138 /*
139  * Layout of entries in the hypervisor's dispatch trace log buffer.
140  */
141 struct dtl_entry {
142         u8      dispatch_reason;
143         u8      preempt_reason;
144         __be16  processor_id;
145         __be32  enqueue_to_dispatch_time;
146         __be32  ready_to_enqueue_time;
147         __be32  waiting_to_ready_time;
148         __be64  timebase;
149         __be64  fault_addr;
150         __be64  srr0;
151         __be64  srr1;
152 };
153
154 #define DISPATCH_LOG_BYTES      4096    /* bytes per cpu */
155 #define N_DISPATCH_LOG          (DISPATCH_LOG_BYTES / sizeof(struct dtl_entry))
156
157 extern struct kmem_cache *dtl_cache;
158
159 /*
160  * When CONFIG_VIRT_CPU_ACCOUNTING_NATIVE = y, the cpu accounting code controls
161  * reading from the dispatch trace log.  If other code wants to consume
162  * DTL entries, it can set this pointer to a function that will get
163  * called once for each DTL entry that gets processed.
164  */
165 extern void (*dtl_consumer)(struct dtl_entry *entry, u64 index);
166
167 #endif /* CONFIG_PPC_BOOK3S */
168 #endif /* __KERNEL__ */
169 #endif /* _ASM_POWERPC_LPPACA_H */