x86/CPU/AMD: Remove amd_get_nb_id()
authorYazen Ghannam <yazen.ghannam@amd.com>
Mon, 9 Nov 2020 21:06:57 +0000 (21:06 +0000)
committerBorislav Petkov <bp@suse.de>
Thu, 19 Nov 2020 10:43:17 +0000 (11:43 +0100)
The Last Level Cache ID is returned by amd_get_nb_id(). In practice,
this value is the same as the AMD NodeId for callers of this function.
The NodeId is saved in struct cpuinfo_x86.cpu_die_id.

Replace calls to amd_get_nb_id() with the logical CPU's cpu_die_id and
remove the function.

Signed-off-by: Yazen Ghannam <yazen.ghannam@amd.com>
Signed-off-by: Borislav Petkov <bp@suse.de>
Link: https://lkml.kernel.org/r/20201109210659.754018-3-Yazen.Ghannam@amd.com
arch/x86/events/amd/core.c
arch/x86/include/asm/processor.h
arch/x86/kernel/amd_nb.c
arch/x86/kernel/cpu/amd.c
arch/x86/kernel/cpu/cacheinfo.c
arch/x86/kernel/cpu/mce/amd.c
arch/x86/kernel/cpu/mce/inject.c
drivers/edac/amd64_edac.c
drivers/edac/mce_amd.c

index 39eb276..2c1791c 100644 (file)
@@ -538,7 +538,7 @@ static void amd_pmu_cpu_starting(int cpu)
        if (!x86_pmu.amd_nb_constraints)
                return;
 
-       nb_id = amd_get_nb_id(cpu);
+       nb_id = topology_die_id(cpu);
        WARN_ON_ONCE(nb_id == BAD_APICID);
 
        for_each_online_cpu(i) {
index 82a08b5..c20a52b 100644 (file)
@@ -813,10 +813,8 @@ extern int set_tsc_mode(unsigned int val);
 DECLARE_PER_CPU(u64, msr_misc_features_shadow);
 
 #ifdef CONFIG_CPU_SUP_AMD
-extern u16 amd_get_nb_id(int cpu);
 extern u32 amd_get_nodes_per_socket(void);
 #else
-static inline u16 amd_get_nb_id(int cpu)               { return 0; }
 static inline u32 amd_get_nodes_per_socket(void)       { return 0; }
 #endif
 
index 18f6b7c..b439695 100644 (file)
@@ -384,7 +384,7 @@ struct resource *amd_get_mmconfig_range(struct resource *res)
 
 int amd_get_subcaches(int cpu)
 {
-       struct pci_dev *link = node_to_amd_nb(amd_get_nb_id(cpu))->link;
+       struct pci_dev *link = node_to_amd_nb(topology_die_id(cpu))->link;
        unsigned int mask;
 
        if (!amd_nb_has_feature(AMD_NB_L3_PARTITIONING))
@@ -398,7 +398,7 @@ int amd_get_subcaches(int cpu)
 int amd_set_subcaches(int cpu, unsigned long mask)
 {
        static unsigned int reset, ban;
-       struct amd_northbridge *nb = node_to_amd_nb(amd_get_nb_id(cpu));
+       struct amd_northbridge *nb = node_to_amd_nb(topology_die_id(cpu));
        unsigned int reg;
        int cuid;
 
index 2f1fbd8..1f71c76 100644 (file)
@@ -424,12 +424,6 @@ clear_ppin:
        clear_cpu_cap(c, X86_FEATURE_AMD_PPIN);
 }
 
-u16 amd_get_nb_id(int cpu)
-{
-       return per_cpu(cpu_llc_id, cpu);
-}
-EXPORT_SYMBOL_GPL(amd_get_nb_id);
-
 u32 amd_get_nodes_per_socket(void)
 {
        return nodes_per_socket;
index f9ac682..3ca9be4 100644 (file)
@@ -580,7 +580,7 @@ static void amd_init_l3_cache(struct _cpuid4_info_regs *this_leaf, int index)
        if (index < 3)
                return;
 
-       node = amd_get_nb_id(smp_processor_id());
+       node = topology_die_id(smp_processor_id());
        this_leaf->nb = node_to_amd_nb(node);
        if (this_leaf->nb && !this_leaf->nb->l3_cache.indices)
                amd_calc_l3_indices(this_leaf->nb);
index 0c6b02d..e486f96 100644 (file)
@@ -1341,7 +1341,7 @@ static int threshold_create_bank(struct threshold_bank **bp, unsigned int cpu,
                return -ENODEV;
 
        if (is_shared_bank(bank)) {
-               nb = node_to_amd_nb(amd_get_nb_id(cpu));
+               nb = node_to_amd_nb(topology_die_id(cpu));
 
                /* threshold descriptor already initialized on this node? */
                if (nb && nb->bank4) {
@@ -1445,7 +1445,7 @@ static void threshold_remove_bank(struct threshold_bank *bank)
                 * The last CPU on this node using the shared bank is going
                 * away, remove that bank now.
                 */
-               nb = node_to_amd_nb(amd_get_nb_id(smp_processor_id()));
+               nb = node_to_amd_nb(topology_die_id(smp_processor_id()));
                nb->bank4 = NULL;
        }
 
index 3a44346..7b36073 100644 (file)
@@ -522,8 +522,8 @@ static void do_inject(void)
        if (boot_cpu_has(X86_FEATURE_AMD_DCM) &&
            b == 4 &&
            boot_cpu_data.x86 < 0x17) {
-               toggle_nb_mca_mst_cpu(amd_get_nb_id(cpu));
-               cpu = get_nbc_for_node(amd_get_nb_id(cpu));
+               toggle_nb_mca_mst_cpu(topology_die_id(cpu));
+               cpu = get_nbc_for_node(topology_die_id(cpu));
        }
 
        get_online_cpus();
index 1362274..39fb900 100644 (file)
@@ -1133,7 +1133,7 @@ static int k8_early_channel_count(struct amd64_pvt *pvt)
 /* On F10h and later ErrAddr is MC4_ADDR[47:1] */
 static u64 get_error_address(struct amd64_pvt *pvt, struct mce *m)
 {
-       u16 mce_nid = amd_get_nb_id(m->extcpu);
+       u16 mce_nid = topology_die_id(m->extcpu);
        struct mem_ctl_info *mci;
        u8 start_bit = 1;
        u8 end_bit   = 47;
@@ -3046,7 +3046,7 @@ static void get_cpus_on_this_dct_cpumask(struct cpumask *mask, u16 nid)
        int cpu;
 
        for_each_online_cpu(cpu)
-               if (amd_get_nb_id(cpu) == nid)
+               if (topology_die_id(cpu) == nid)
                        cpumask_set_cpu(cpu, mask);
 }
 
index 7f28edb..85095e3 100644 (file)
@@ -869,7 +869,7 @@ static void decode_mc3_mce(struct mce *m)
 static void decode_mc4_mce(struct mce *m)
 {
        unsigned int fam = x86_family(m->cpuid);
-       int node_id = amd_get_nb_id(m->extcpu);
+       int node_id = topology_die_id(m->extcpu);
        u16 ec = EC(m->status);
        u8 xec = XEC(m->status, 0x1f);
        u8 offset = 0;