kbuild: preprocess module linker script
[linux-2.6-microblaze.git] / arch / arm64 / Makefile
1 #
2 # arch/arm64/Makefile
3 #
4 # This file is included by the global makefile so that you can add your own
5 # architecture-specific flags and dependencies.
6 #
7 # This file is subject to the terms and conditions of the GNU General Public
8 # License.  See the file "COPYING" in the main directory of this archive
9 # for more details.
10 #
11 # Copyright (C) 1995-2001 by Russell King
12
13 LDFLAGS_vmlinux :=--no-undefined -X
14 CPPFLAGS_vmlinux.lds = -DTEXT_OFFSET=$(TEXT_OFFSET)
15
16 ifeq ($(CONFIG_RELOCATABLE), y)
17 # Pass --no-apply-dynamic-relocs to restore pre-binutils-2.27 behaviour
18 # for relative relocs, since this leads to better Image compression
19 # with the relocation offsets always being zero.
20 LDFLAGS_vmlinux         += -shared -Bsymbolic -z notext -z norelro \
21                         $(call ld-option, --no-apply-dynamic-relocs)
22 endif
23
24 ifeq ($(CONFIG_ARM64_ERRATUM_843419),y)
25   ifeq ($(call ld-option, --fix-cortex-a53-843419),)
26 $(warning ld does not support --fix-cortex-a53-843419; kernel may be susceptible to erratum)
27   else
28 LDFLAGS_vmlinux += --fix-cortex-a53-843419
29   endif
30 endif
31
32 ifeq ($(CONFIG_ARM64_USE_LSE_ATOMICS), y)
33   ifneq ($(CONFIG_ARM64_LSE_ATOMICS), y)
34 $(warning LSE atomics not supported by binutils)
35   endif
36 endif
37
38 cc_has_k_constraint := $(call try-run,echo                              \
39         'int main(void) {                                               \
40                 asm volatile("and w0, w0, %w0" :: "K" (4294967295));    \
41                 return 0;                                               \
42         }' | $(CC) -S -x c -o "$$TMP" -,,-DCONFIG_CC_HAS_K_CONSTRAINT=1)
43
44 ifeq ($(CONFIG_BROKEN_GAS_INST),y)
45 $(warning Detected assembler with broken .inst; disassembly will be unreliable)
46 endif
47
48 KBUILD_CFLAGS   += -mgeneral-regs-only  \
49                    $(compat_vdso) $(cc_has_k_constraint)
50 KBUILD_CFLAGS   += -fno-asynchronous-unwind-tables
51 KBUILD_CFLAGS   += $(call cc-disable-warning, psabi)
52 KBUILD_AFLAGS   += $(compat_vdso)
53
54 KBUILD_CFLAGS   += $(call cc-option,-mabi=lp64)
55 KBUILD_AFLAGS   += $(call cc-option,-mabi=lp64)
56
57 ifeq ($(CONFIG_STACKPROTECTOR_PER_TASK),y)
58 prepare: stack_protector_prepare
59 stack_protector_prepare: prepare0
60         $(eval KBUILD_CFLAGS += -mstack-protector-guard=sysreg            \
61                                 -mstack-protector-guard-reg=sp_el0        \
62                                 -mstack-protector-guard-offset=$(shell    \
63                         awk '{if ($$2 == "TSK_STACK_CANARY") print $$3;}' \
64                                         include/generated/asm-offsets.h))
65 endif
66
67 # Ensure that if the compiler supports branch protection we default it
68 # off, this will be overridden if we are using branch protection.
69 branch-prot-flags-y += $(call cc-option,-mbranch-protection=none)
70
71 ifeq ($(CONFIG_ARM64_PTR_AUTH),y)
72 branch-prot-flags-$(CONFIG_CC_HAS_SIGN_RETURN_ADDRESS) := -msign-return-address=all
73 # We enable additional protection for leaf functions as there is some
74 # narrow potential for ROP protection benefits and no substantial
75 # performance impact has been observed.
76 ifeq ($(CONFIG_ARM64_BTI_KERNEL),y)
77 branch-prot-flags-$(CONFIG_CC_HAS_BRANCH_PROT_PAC_RET_BTI) := -mbranch-protection=pac-ret+leaf+bti
78 else
79 branch-prot-flags-$(CONFIG_CC_HAS_BRANCH_PROT_PAC_RET) := -mbranch-protection=pac-ret+leaf
80 endif
81 # -march=armv8.3-a enables the non-nops instructions for PAC, to avoid the
82 # compiler to generate them and consequently to break the single image contract
83 # we pass it only to the assembler. This option is utilized only in case of non
84 # integrated assemblers.
85 ifneq ($(CONFIG_AS_HAS_ARMV8_4), y)
86 branch-prot-flags-$(CONFIG_AS_HAS_PAC) += -Wa,-march=armv8.3-a
87 endif
88 endif
89
90 KBUILD_CFLAGS += $(branch-prot-flags-y)
91
92 ifeq ($(CONFIG_AS_HAS_ARMV8_4), y)
93 # make sure to pass the newest target architecture to -march.
94 KBUILD_CFLAGS   += -Wa,-march=armv8.4-a
95 endif
96
97 ifeq ($(CONFIG_SHADOW_CALL_STACK), y)
98 KBUILD_CFLAGS   += -ffixed-x18
99 endif
100
101 ifeq ($(CONFIG_CPU_BIG_ENDIAN), y)
102 KBUILD_CPPFLAGS += -mbig-endian
103 CHECKFLAGS      += -D__AARCH64EB__
104 # Prefer the baremetal ELF build target, but not all toolchains include
105 # it so fall back to the standard linux version if needed.
106 KBUILD_LDFLAGS  += -EB $(call ld-option, -maarch64elfb, -maarch64linuxb)
107 UTS_MACHINE     := aarch64_be
108 else
109 KBUILD_CPPFLAGS += -mlittle-endian
110 CHECKFLAGS      += -D__AARCH64EL__
111 # Same as above, prefer ELF but fall back to linux target if needed.
112 KBUILD_LDFLAGS  += -EL $(call ld-option, -maarch64elf, -maarch64linux)
113 UTS_MACHINE     := aarch64
114 endif
115
116 CHECKFLAGS      += -D__aarch64__
117
118 ifeq ($(CONFIG_DYNAMIC_FTRACE_WITH_REGS),y)
119   KBUILD_CPPFLAGS += -DCC_USING_PATCHABLE_FUNCTION_ENTRY
120   CC_FLAGS_FTRACE := -fpatchable-function-entry=2
121 endif
122
123 # Default value
124 head-y          := arch/arm64/kernel/head.o
125
126 # The byte offset of the kernel image in RAM from the start of RAM.
127 TEXT_OFFSET := 0x0
128
129 ifeq ($(CONFIG_KASAN_SW_TAGS), y)
130 KASAN_SHADOW_SCALE_SHIFT := 4
131 else
132 KASAN_SHADOW_SCALE_SHIFT := 3
133 endif
134
135 KBUILD_CFLAGS += -DKASAN_SHADOW_SCALE_SHIFT=$(KASAN_SHADOW_SCALE_SHIFT)
136 KBUILD_CPPFLAGS += -DKASAN_SHADOW_SCALE_SHIFT=$(KASAN_SHADOW_SCALE_SHIFT)
137 KBUILD_AFLAGS += -DKASAN_SHADOW_SCALE_SHIFT=$(KASAN_SHADOW_SCALE_SHIFT)
138
139 export  TEXT_OFFSET
140
141 core-y          += arch/arm64/
142 libs-y          := arch/arm64/lib/ $(libs-y)
143 libs-$(CONFIG_EFI_STUB) += $(objtree)/drivers/firmware/efi/libstub/lib.a
144
145 # Default target when executing plain make
146 boot            := arch/arm64/boot
147 KBUILD_IMAGE    := $(boot)/Image.gz
148
149 all:    Image.gz
150
151
152 Image: vmlinux
153         $(Q)$(MAKE) $(build)=$(boot) $(boot)/$@
154
155 Image.%: Image
156         $(Q)$(MAKE) $(build)=$(boot) $(boot)/$@
157
158 zinstall install:
159         $(Q)$(MAKE) $(build)=$(boot) $@
160
161 PHONY += vdso_install
162 vdso_install:
163         $(Q)$(MAKE) $(build)=arch/arm64/kernel/vdso $@
164         $(Q)$(MAKE) $(build)=arch/arm64/kernel/vdso32 $@
165
166 # We use MRPROPER_FILES and CLEAN_FILES now
167 archclean:
168         $(Q)$(MAKE) $(clean)=$(boot)
169
170 ifeq ($(KBUILD_EXTMOD),)
171 # We need to generate vdso-offsets.h before compiling certain files in kernel/.
172 # In order to do that, we should use the archprepare target, but we can't since
173 # asm-offsets.h is included in some files used to generate vdso-offsets.h, and
174 # asm-offsets.h is built in prepare0, for which archprepare is a dependency.
175 # Therefore we need to generate the header after prepare0 has been made, hence
176 # this hack.
177 prepare: vdso_prepare
178 vdso_prepare: prepare0
179         $(Q)$(MAKE) $(build)=arch/arm64/kernel/vdso include/generated/vdso-offsets.h
180         $(if $(CONFIG_COMPAT_VDSO),$(Q)$(MAKE) \
181                 $(build)=arch/arm64/kernel/vdso32  \
182                 include/generated/vdso32-offsets.h)
183 endif
184
185 define archhelp
186   echo  '* Image.gz      - Compressed kernel image (arch/$(ARCH)/boot/Image.gz)'
187   echo  '  Image         - Uncompressed kernel image (arch/$(ARCH)/boot/Image)'
188   echo  '  install       - Install uncompressed kernel'
189   echo  '  zinstall      - Install compressed kernel'
190   echo  '                  Install using (your) ~/bin/installkernel or'
191   echo  '                  (distribution) /sbin/installkernel or'
192   echo  '                  install to $$(INSTALL_PATH) and run lilo'
193 endef