Merge tag 'fixes-for-5.12-rc7' of git://git.kernel.org/pub/scm/linux/kernel/git/mtd...
[linux-2.6-microblaze.git] / tools / perf / util / evsel.h
1 /* SPDX-License-Identifier: GPL-2.0 */
2 #ifndef __PERF_EVSEL_H
3 #define __PERF_EVSEL_H 1
4
5 #include <linux/list.h>
6 #include <stdbool.h>
7 #include <sys/types.h>
8 #include <linux/perf_event.h>
9 #include <linux/types.h>
10 #include <internal/evsel.h>
11 #include <perf/evsel.h>
12 #include "symbol_conf.h"
13 #include <internal/cpumap.h>
14
15 struct bpf_object;
16 struct cgroup;
17 struct perf_counts;
18 struct perf_stat_evsel;
19 union perf_event;
20 struct bpf_counter_ops;
21 struct target;
22 struct hashmap;
23
24 typedef int (evsel__sb_cb_t)(union perf_event *event, void *data);
25
26 enum perf_tool_event {
27         PERF_TOOL_NONE          = 0,
28         PERF_TOOL_DURATION_TIME = 1,
29 };
30
31 /** struct evsel - event selector
32  *
33  * @evlist - evlist this evsel is in, if it is in one.
34  * @core - libperf evsel object
35  * @name - Can be set to retain the original event name passed by the user,
36  *         so that when showing results in tools such as 'perf stat', we
37  *         show the name used, not some alias.
38  * @id_pos: the position of the event id (PERF_SAMPLE_ID or
39  *          PERF_SAMPLE_IDENTIFIER) in a sample event i.e. in the array of
40  *          struct perf_record_sample
41  * @is_pos: the position (counting backwards) of the event id (PERF_SAMPLE_ID or
42  *          PERF_SAMPLE_IDENTIFIER) in a non-sample event i.e. if sample_id_all
43  *          is used there is an id sample appended to non-sample events
44  * @priv:   And what is in its containing unnamed union are tool specific
45  */
46 struct evsel {
47         struct perf_evsel       core;
48         struct evlist           *evlist;
49         off_t                   id_offset;
50         int                     idx;
51         int                     id_pos;
52         int                     is_pos;
53         unsigned int            sample_size;
54
55         /*
56          * These fields can be set in the parse-events code or similar.
57          * Please check evsel__clone() to copy them properly so that
58          * they can be released properly.
59          */
60         struct {
61                 char                    *name;
62                 char                    *group_name;
63                 const char              *pmu_name;
64                 struct tep_event        *tp_format;
65                 char                    *filter;
66                 unsigned long           max_events;
67                 double                  scale;
68                 const char              *unit;
69                 struct cgroup           *cgrp;
70                 enum perf_tool_event    tool_event;
71                 /* parse modifier helper */
72                 int                     exclude_GH;
73                 int                     sample_read;
74                 bool                    snapshot;
75                 bool                    per_pkg;
76                 bool                    percore;
77                 bool                    precise_max;
78                 bool                    use_uncore_alias;
79                 bool                    is_libpfm_event;
80                 bool                    auto_merge_stats;
81                 bool                    collect_stat;
82                 bool                    weak_group;
83                 int                     bpf_fd;
84                 struct bpf_object       *bpf_obj;
85         };
86
87         /*
88          * metric fields are similar, but needs more care as they can have
89          * references to other metric (evsel).
90          */
91         const char *            metric_expr;
92         const char *            metric_name;
93         struct evsel            **metric_events;
94         struct evsel            *metric_leader;
95
96         void                    *handler;
97         struct perf_counts      *counts;
98         struct perf_counts      *prev_raw_counts;
99         unsigned long           nr_events_printed;
100         struct perf_stat_evsel  *stats;
101         void                    *priv;
102         u64                     db_id;
103         bool                    uniquified_name;
104         bool                    supported;
105         bool                    needs_swap;
106         bool                    disabled;
107         bool                    no_aux_samples;
108         bool                    immediate;
109         bool                    tracking;
110         bool                    ignore_missing_thread;
111         bool                    forced_leader;
112         bool                    cmdline_group_boundary;
113         bool                    merged_stat;
114         bool                    reset_group;
115         bool                    errored;
116         struct hashmap          *per_pkg_mask;
117         struct evsel            *leader;
118         struct list_head        config_terms;
119         int                     err;
120         int                     cpu_iter;
121         struct {
122                 evsel__sb_cb_t  *cb;
123                 void            *data;
124         } side_band;
125         /*
126          * For reporting purposes, an evsel sample can have a callchain
127          * synthesized from AUX area data. Keep track of synthesized sample
128          * types here. Note, the recorded sample_type cannot be changed because
129          * it is needed to continue to parse events.
130          * See also evsel__has_callchain().
131          */
132         __u64                   synth_sample_type;
133         struct list_head        bpf_counter_list;
134         struct bpf_counter_ops  *bpf_counter_ops;
135 };
136
137 struct perf_missing_features {
138         bool sample_id_all;
139         bool exclude_guest;
140         bool mmap2;
141         bool cloexec;
142         bool clockid;
143         bool clockid_wrong;
144         bool lbr_flags;
145         bool write_backward;
146         bool group_read;
147         bool ksymbol;
148         bool bpf;
149         bool aux_output;
150         bool branch_hw_idx;
151         bool cgroup;
152         bool data_page_size;
153         bool code_page_size;
154         bool weight_struct;
155 };
156
157 extern struct perf_missing_features perf_missing_features;
158
159 struct perf_cpu_map;
160 struct target;
161 struct thread_map;
162 struct record_opts;
163
164 static inline struct perf_cpu_map *evsel__cpus(struct evsel *evsel)
165 {
166         return perf_evsel__cpus(&evsel->core);
167 }
168
169 static inline int evsel__nr_cpus(struct evsel *evsel)
170 {
171         return evsel__cpus(evsel)->nr;
172 }
173
174 void perf_counts_values__scale(struct perf_counts_values *count,
175                                bool scale, s8 *pscaled);
176
177 void evsel__compute_deltas(struct evsel *evsel, int cpu, int thread,
178                            struct perf_counts_values *count);
179
180 int evsel__object_config(size_t object_size,
181                          int (*init)(struct evsel *evsel),
182                          void (*fini)(struct evsel *evsel));
183
184 struct perf_pmu *evsel__find_pmu(struct evsel *evsel);
185 bool evsel__is_aux_event(struct evsel *evsel);
186
187 struct evsel *evsel__new_idx(struct perf_event_attr *attr, int idx);
188
189 static inline struct evsel *evsel__new(struct perf_event_attr *attr)
190 {
191         return evsel__new_idx(attr, 0);
192 }
193
194 struct evsel *evsel__clone(struct evsel *orig);
195 struct evsel *evsel__newtp_idx(const char *sys, const char *name, int idx);
196
197 /*
198  * Returns pointer with encoded error via <linux/err.h> interface.
199  */
200 static inline struct evsel *evsel__newtp(const char *sys, const char *name)
201 {
202         return evsel__newtp_idx(sys, name, 0);
203 }
204
205 struct evsel *evsel__new_cycles(bool precise);
206
207 struct tep_event *event_format__new(const char *sys, const char *name);
208
209 void evsel__init(struct evsel *evsel, struct perf_event_attr *attr, int idx);
210 void evsel__exit(struct evsel *evsel);
211 void evsel__delete(struct evsel *evsel);
212
213 struct callchain_param;
214
215 void evsel__config(struct evsel *evsel, struct record_opts *opts,
216                    struct callchain_param *callchain);
217 void evsel__config_callchain(struct evsel *evsel, struct record_opts *opts,
218                              struct callchain_param *callchain);
219
220 int __evsel__sample_size(u64 sample_type);
221 void evsel__calc_id_pos(struct evsel *evsel);
222
223 bool evsel__is_cache_op_valid(u8 type, u8 op);
224
225 #define EVSEL__MAX_ALIASES 8
226
227 extern const char *evsel__hw_cache[PERF_COUNT_HW_CACHE_MAX][EVSEL__MAX_ALIASES];
228 extern const char *evsel__hw_cache_op[PERF_COUNT_HW_CACHE_OP_MAX][EVSEL__MAX_ALIASES];
229 extern const char *evsel__hw_cache_result[PERF_COUNT_HW_CACHE_RESULT_MAX][EVSEL__MAX_ALIASES];
230 extern const char *evsel__hw_names[PERF_COUNT_HW_MAX];
231 extern const char *evsel__sw_names[PERF_COUNT_SW_MAX];
232 int __evsel__hw_cache_type_op_res_name(u8 type, u8 op, u8 result, char *bf, size_t size);
233 const char *evsel__name(struct evsel *evsel);
234
235 const char *evsel__group_name(struct evsel *evsel);
236 int evsel__group_desc(struct evsel *evsel, char *buf, size_t size);
237
238 void __evsel__set_sample_bit(struct evsel *evsel, enum perf_event_sample_format bit);
239 void __evsel__reset_sample_bit(struct evsel *evsel, enum perf_event_sample_format bit);
240
241 #define evsel__set_sample_bit(evsel, bit) \
242         __evsel__set_sample_bit(evsel, PERF_SAMPLE_##bit)
243
244 #define evsel__reset_sample_bit(evsel, bit) \
245         __evsel__reset_sample_bit(evsel, PERF_SAMPLE_##bit)
246
247 void evsel__set_sample_id(struct evsel *evsel, bool use_sample_identifier);
248
249 void arch_evsel__set_sample_weight(struct evsel *evsel);
250
251 int evsel__set_filter(struct evsel *evsel, const char *filter);
252 int evsel__append_tp_filter(struct evsel *evsel, const char *filter);
253 int evsel__append_addr_filter(struct evsel *evsel, const char *filter);
254 int evsel__enable_cpu(struct evsel *evsel, int cpu);
255 int evsel__enable(struct evsel *evsel);
256 int evsel__disable(struct evsel *evsel);
257 int evsel__disable_cpu(struct evsel *evsel, int cpu);
258
259 int evsel__open_per_cpu(struct evsel *evsel, struct perf_cpu_map *cpus, int cpu);
260 int evsel__open_per_thread(struct evsel *evsel, struct perf_thread_map *threads);
261 int evsel__open(struct evsel *evsel, struct perf_cpu_map *cpus,
262                 struct perf_thread_map *threads);
263 void evsel__close(struct evsel *evsel);
264
265 struct perf_sample;
266
267 void *evsel__rawptr(struct evsel *evsel, struct perf_sample *sample, const char *name);
268 u64 evsel__intval(struct evsel *evsel, struct perf_sample *sample, const char *name);
269
270 static inline char *evsel__strval(struct evsel *evsel, struct perf_sample *sample, const char *name)
271 {
272         return evsel__rawptr(evsel, sample, name);
273 }
274
275 struct tep_format_field;
276
277 u64 format_field__intval(struct tep_format_field *field, struct perf_sample *sample, bool needs_swap);
278
279 struct tep_format_field *evsel__field(struct evsel *evsel, const char *name);
280
281 #define evsel__match(evsel, t, c)               \
282         (evsel->core.attr.type == PERF_TYPE_##t &&      \
283          evsel->core.attr.config == PERF_COUNT_##c)
284
285 static inline bool evsel__match2(struct evsel *e1, struct evsel *e2)
286 {
287         return (e1->core.attr.type == e2->core.attr.type) &&
288                (e1->core.attr.config == e2->core.attr.config);
289 }
290
291 int evsel__read_counter(struct evsel *evsel, int cpu, int thread);
292
293 int __evsel__read_on_cpu(struct evsel *evsel, int cpu, int thread, bool scale);
294
295 /**
296  * evsel__read_on_cpu - Read out the results on a CPU and thread
297  *
298  * @evsel - event selector to read value
299  * @cpu - CPU of interest
300  * @thread - thread of interest
301  */
302 static inline int evsel__read_on_cpu(struct evsel *evsel, int cpu, int thread)
303 {
304         return __evsel__read_on_cpu(evsel, cpu, thread, false);
305 }
306
307 /**
308  * evsel__read_on_cpu_scaled - Read out the results on a CPU and thread, scaled
309  *
310  * @evsel - event selector to read value
311  * @cpu - CPU of interest
312  * @thread - thread of interest
313  */
314 static inline int evsel__read_on_cpu_scaled(struct evsel *evsel, int cpu, int thread)
315 {
316         return __evsel__read_on_cpu(evsel, cpu, thread, true);
317 }
318
319 int evsel__parse_sample(struct evsel *evsel, union perf_event *event,
320                         struct perf_sample *sample);
321
322 int evsel__parse_sample_timestamp(struct evsel *evsel, union perf_event *event,
323                                   u64 *timestamp);
324
325 static inline struct evsel *evsel__next(struct evsel *evsel)
326 {
327         return list_entry(evsel->core.node.next, struct evsel, core.node);
328 }
329
330 static inline struct evsel *evsel__prev(struct evsel *evsel)
331 {
332         return list_entry(evsel->core.node.prev, struct evsel, core.node);
333 }
334
335 /**
336  * evsel__is_group_leader - Return whether given evsel is a leader event
337  *
338  * @evsel - evsel selector to be tested
339  *
340  * Return %true if @evsel is a group leader or a stand-alone event
341  */
342 static inline bool evsel__is_group_leader(const struct evsel *evsel)
343 {
344         return evsel->leader == evsel;
345 }
346
347 /**
348  * evsel__is_group_event - Return whether given evsel is a group event
349  *
350  * @evsel - evsel selector to be tested
351  *
352  * Return %true iff event group view is enabled and @evsel is a actual group
353  * leader which has other members in the group
354  */
355 static inline bool evsel__is_group_event(struct evsel *evsel)
356 {
357         if (!symbol_conf.event_group)
358                 return false;
359
360         return evsel__is_group_leader(evsel) && evsel->core.nr_members > 1;
361 }
362
363 bool evsel__is_function_event(struct evsel *evsel);
364
365 static inline bool evsel__is_bpf_output(struct evsel *evsel)
366 {
367         return evsel__match(evsel, SOFTWARE, SW_BPF_OUTPUT);
368 }
369
370 static inline bool evsel__is_clock(struct evsel *evsel)
371 {
372         return evsel__match(evsel, SOFTWARE, SW_CPU_CLOCK) ||
373                evsel__match(evsel, SOFTWARE, SW_TASK_CLOCK);
374 }
375
376 bool evsel__fallback(struct evsel *evsel, int err, char *msg, size_t msgsize);
377 int evsel__open_strerror(struct evsel *evsel, struct target *target,
378                          int err, char *msg, size_t size);
379
380 static inline int evsel__group_idx(struct evsel *evsel)
381 {
382         return evsel->idx - evsel->leader->idx;
383 }
384
385 /* Iterates group WITHOUT the leader. */
386 #define for_each_group_member(_evsel, _leader)                                  \
387 for ((_evsel) = list_entry((_leader)->core.node.next, struct evsel, core.node); \
388      (_evsel) && (_evsel)->leader == (_leader);                                 \
389      (_evsel) = list_entry((_evsel)->core.node.next, struct evsel, core.node))
390
391 /* Iterates group WITH the leader. */
392 #define for_each_group_evsel(_evsel, _leader)                                   \
393 for ((_evsel) = _leader;                                                        \
394      (_evsel) && (_evsel)->leader == (_leader);                                 \
395      (_evsel) = list_entry((_evsel)->core.node.next, struct evsel, core.node))
396
397 static inline bool evsel__has_branch_callstack(const struct evsel *evsel)
398 {
399         return evsel->core.attr.branch_sample_type & PERF_SAMPLE_BRANCH_CALL_STACK;
400 }
401
402 static inline bool evsel__has_branch_hw_idx(const struct evsel *evsel)
403 {
404         return evsel->core.attr.branch_sample_type & PERF_SAMPLE_BRANCH_HW_INDEX;
405 }
406
407 static inline bool evsel__has_callchain(const struct evsel *evsel)
408 {
409         /*
410          * For reporting purposes, an evsel sample can have a recorded callchain
411          * or a callchain synthesized from AUX area data.
412          */
413         return evsel->core.attr.sample_type & PERF_SAMPLE_CALLCHAIN ||
414                evsel->synth_sample_type & PERF_SAMPLE_CALLCHAIN;
415 }
416
417 static inline bool evsel__has_br_stack(const struct evsel *evsel)
418 {
419         /*
420          * For reporting purposes, an evsel sample can have a recorded branch
421          * stack or a branch stack synthesized from AUX area data.
422          */
423         return evsel->core.attr.sample_type & PERF_SAMPLE_BRANCH_STACK ||
424                evsel->synth_sample_type & PERF_SAMPLE_BRANCH_STACK;
425 }
426
427 static inline bool evsel__is_dummy_event(struct evsel *evsel)
428 {
429         return (evsel->core.attr.type == PERF_TYPE_SOFTWARE) &&
430                (evsel->core.attr.config == PERF_COUNT_SW_DUMMY);
431 }
432
433 struct perf_env *evsel__env(struct evsel *evsel);
434
435 int evsel__store_ids(struct evsel *evsel, struct evlist *evlist);
436
437 void evsel__zero_per_pkg(struct evsel *evsel);
438 #endif /* __PERF_EVSEL_H */