Merge tag 'drm-next-2020-10-23' of git://anongit.freedesktop.org/drm/drm
[linux-2.6-microblaze.git] / arch / arm64 / Makefile
1 #
2 # arch/arm64/Makefile
3 #
4 # This file is included by the global makefile so that you can add your own
5 # architecture-specific flags and dependencies.
6 #
7 # This file is subject to the terms and conditions of the GNU General Public
8 # License.  See the file "COPYING" in the main directory of this archive
9 # for more details.
10 #
11 # Copyright (C) 1995-2001 by Russell King
12
13 LDFLAGS_vmlinux :=--no-undefined -X -z norelro
14
15 ifeq ($(CONFIG_RELOCATABLE), y)
16 # Pass --no-apply-dynamic-relocs to restore pre-binutils-2.27 behaviour
17 # for relative relocs, since this leads to better Image compression
18 # with the relocation offsets always being zero.
19 LDFLAGS_vmlinux         += -shared -Bsymbolic -z notext \
20                         $(call ld-option, --no-apply-dynamic-relocs)
21 endif
22
23 ifeq ($(CONFIG_ARM64_ERRATUM_843419),y)
24   ifeq ($(call ld-option, --fix-cortex-a53-843419),)
25 $(warning ld does not support --fix-cortex-a53-843419; kernel may be susceptible to erratum)
26   else
27 LDFLAGS_vmlinux += --fix-cortex-a53-843419
28   endif
29 endif
30
31 # We never want expected sections to be placed heuristically by the
32 # linker. All sections should be explicitly named in the linker script.
33 LDFLAGS_vmlinux += $(call ld-option, --orphan-handling=warn)
34
35 ifeq ($(CONFIG_ARM64_USE_LSE_ATOMICS), y)
36   ifneq ($(CONFIG_ARM64_LSE_ATOMICS), y)
37 $(warning LSE atomics not supported by binutils)
38   endif
39 endif
40
41 cc_has_k_constraint := $(call try-run,echo                              \
42         'int main(void) {                                               \
43                 asm volatile("and w0, w0, %w0" :: "K" (4294967295));    \
44                 return 0;                                               \
45         }' | $(CC) -S -x c -o "$$TMP" -,,-DCONFIG_CC_HAS_K_CONSTRAINT=1)
46
47 ifeq ($(CONFIG_BROKEN_GAS_INST),y)
48 $(warning Detected assembler with broken .inst; disassembly will be unreliable)
49 endif
50
51 KBUILD_CFLAGS   += -mgeneral-regs-only  \
52                    $(compat_vdso) $(cc_has_k_constraint)
53 KBUILD_CFLAGS   += $(call cc-disable-warning, psabi)
54 KBUILD_AFLAGS   += $(compat_vdso)
55
56 KBUILD_CFLAGS   += $(call cc-option,-mabi=lp64)
57 KBUILD_AFLAGS   += $(call cc-option,-mabi=lp64)
58
59 # Avoid generating .eh_frame* sections.
60 KBUILD_CFLAGS   += -fno-asynchronous-unwind-tables -fno-unwind-tables
61 KBUILD_AFLAGS   += -fno-asynchronous-unwind-tables -fno-unwind-tables
62
63 ifeq ($(CONFIG_STACKPROTECTOR_PER_TASK),y)
64 prepare: stack_protector_prepare
65 stack_protector_prepare: prepare0
66         $(eval KBUILD_CFLAGS += -mstack-protector-guard=sysreg            \
67                                 -mstack-protector-guard-reg=sp_el0        \
68                                 -mstack-protector-guard-offset=$(shell    \
69                         awk '{if ($$2 == "TSK_STACK_CANARY") print $$3;}' \
70                                         include/generated/asm-offsets.h))
71 endif
72
73 # Ensure that if the compiler supports branch protection we default it
74 # off, this will be overridden if we are using branch protection.
75 branch-prot-flags-y += $(call cc-option,-mbranch-protection=none)
76
77 ifeq ($(CONFIG_ARM64_PTR_AUTH),y)
78 branch-prot-flags-$(CONFIG_CC_HAS_SIGN_RETURN_ADDRESS) := -msign-return-address=all
79 # We enable additional protection for leaf functions as there is some
80 # narrow potential for ROP protection benefits and no substantial
81 # performance impact has been observed.
82 ifeq ($(CONFIG_ARM64_BTI_KERNEL),y)
83 branch-prot-flags-$(CONFIG_CC_HAS_BRANCH_PROT_PAC_RET_BTI) := -mbranch-protection=pac-ret+leaf+bti
84 else
85 branch-prot-flags-$(CONFIG_CC_HAS_BRANCH_PROT_PAC_RET) := -mbranch-protection=pac-ret+leaf
86 endif
87 # -march=armv8.3-a enables the non-nops instructions for PAC, to avoid the
88 # compiler to generate them and consequently to break the single image contract
89 # we pass it only to the assembler. This option is utilized only in case of non
90 # integrated assemblers.
91 ifeq ($(CONFIG_AS_HAS_PAC), y)
92 asm-arch := armv8.3-a
93 endif
94 endif
95
96 KBUILD_CFLAGS += $(branch-prot-flags-y)
97
98 ifeq ($(CONFIG_AS_HAS_ARMV8_4), y)
99 # make sure to pass the newest target architecture to -march.
100 asm-arch := armv8.4-a
101 endif
102
103 ifdef asm-arch
104 KBUILD_CFLAGS   += -Wa,-march=$(asm-arch) \
105                    -DARM64_ASM_ARCH='"$(asm-arch)"'
106 endif
107
108 ifeq ($(CONFIG_SHADOW_CALL_STACK), y)
109 KBUILD_CFLAGS   += -ffixed-x18
110 endif
111
112 ifeq ($(CONFIG_CPU_BIG_ENDIAN), y)
113 KBUILD_CPPFLAGS += -mbig-endian
114 CHECKFLAGS      += -D__AARCH64EB__
115 # Prefer the baremetal ELF build target, but not all toolchains include
116 # it so fall back to the standard linux version if needed.
117 KBUILD_LDFLAGS  += -EB $(call ld-option, -maarch64elfb, -maarch64linuxb)
118 UTS_MACHINE     := aarch64_be
119 else
120 KBUILD_CPPFLAGS += -mlittle-endian
121 CHECKFLAGS      += -D__AARCH64EL__
122 # Same as above, prefer ELF but fall back to linux target if needed.
123 KBUILD_LDFLAGS  += -EL $(call ld-option, -maarch64elf, -maarch64linux)
124 UTS_MACHINE     := aarch64
125 endif
126
127 CHECKFLAGS      += -D__aarch64__
128
129 ifeq ($(CONFIG_DYNAMIC_FTRACE_WITH_REGS),y)
130   KBUILD_CPPFLAGS += -DCC_USING_PATCHABLE_FUNCTION_ENTRY
131   CC_FLAGS_FTRACE := -fpatchable-function-entry=2
132 endif
133
134 # Default value
135 head-y          := arch/arm64/kernel/head.o
136
137 ifeq ($(CONFIG_KASAN_SW_TAGS), y)
138 KASAN_SHADOW_SCALE_SHIFT := 4
139 else
140 KASAN_SHADOW_SCALE_SHIFT := 3
141 endif
142
143 KBUILD_CFLAGS += -DKASAN_SHADOW_SCALE_SHIFT=$(KASAN_SHADOW_SCALE_SHIFT)
144 KBUILD_CPPFLAGS += -DKASAN_SHADOW_SCALE_SHIFT=$(KASAN_SHADOW_SCALE_SHIFT)
145 KBUILD_AFLAGS += -DKASAN_SHADOW_SCALE_SHIFT=$(KASAN_SHADOW_SCALE_SHIFT)
146
147 core-y          += arch/arm64/
148 libs-y          := arch/arm64/lib/ $(libs-y)
149 libs-$(CONFIG_EFI_STUB) += $(objtree)/drivers/firmware/efi/libstub/lib.a
150
151 # Default target when executing plain make
152 boot            := arch/arm64/boot
153 KBUILD_IMAGE    := $(boot)/Image.gz
154
155 all:    Image.gz
156
157
158 Image: vmlinux
159         $(Q)$(MAKE) $(build)=$(boot) $(boot)/$@
160
161 Image.%: Image
162         $(Q)$(MAKE) $(build)=$(boot) $(boot)/$@
163
164 zinstall install:
165         $(Q)$(MAKE) $(build)=$(boot) $@
166
167 PHONY += vdso_install
168 vdso_install:
169         $(Q)$(MAKE) $(build)=arch/arm64/kernel/vdso $@
170         $(if $(CONFIG_COMPAT_VDSO), \
171                 $(Q)$(MAKE) $(build)=arch/arm64/kernel/vdso32 $@)
172
173 # We use MRPROPER_FILES and CLEAN_FILES now
174 archclean:
175         $(Q)$(MAKE) $(clean)=$(boot)
176
177 ifeq ($(KBUILD_EXTMOD),)
178 # We need to generate vdso-offsets.h before compiling certain files in kernel/.
179 # In order to do that, we should use the archprepare target, but we can't since
180 # asm-offsets.h is included in some files used to generate vdso-offsets.h, and
181 # asm-offsets.h is built in prepare0, for which archprepare is a dependency.
182 # Therefore we need to generate the header after prepare0 has been made, hence
183 # this hack.
184 prepare: vdso_prepare
185 vdso_prepare: prepare0
186         $(Q)$(MAKE) $(build)=arch/arm64/kernel/vdso include/generated/vdso-offsets.h
187         $(if $(CONFIG_COMPAT_VDSO),$(Q)$(MAKE) \
188                 $(build)=arch/arm64/kernel/vdso32  \
189                 include/generated/vdso32-offsets.h)
190 endif
191
192 define archhelp
193   echo  '* Image.gz      - Compressed kernel image (arch/$(ARCH)/boot/Image.gz)'
194   echo  '  Image         - Uncompressed kernel image (arch/$(ARCH)/boot/Image)'
195   echo  '  install       - Install uncompressed kernel'
196   echo  '  zinstall      - Install compressed kernel'
197   echo  '                  Install using (your) ~/bin/installkernel or'
198   echo  '                  (distribution) /sbin/installkernel or'
199   echo  '                  install to $$(INSTALL_PATH) and run lilo'
200 endef