tracing: Use guard() rather than scoped_guard()
[drm/drm-misc.git] / arch / Kconfig
blobde5200eb55d1619d35166b9af278f4d1c83f897c
1 # SPDX-License-Identifier: GPL-2.0
3 # General architecture dependent options
7 # Note: arch/$(SRCARCH)/Kconfig needs to be included first so that it can
8 # override the default values in this file.
10 source "arch/$(SRCARCH)/Kconfig"
12 config ARCH_CONFIGURES_CPU_MITIGATIONS
13         bool
15 if !ARCH_CONFIGURES_CPU_MITIGATIONS
16 config CPU_MITIGATIONS
17         def_bool y
18 endif
21 # Selected by architectures that need custom DMA operations for e.g. legacy
22 # IOMMUs not handled by dma-iommu.  Drivers must never select this symbol.
24 config ARCH_HAS_DMA_OPS
25         depends on HAS_DMA
26         select DMA_OPS_HELPERS
27         bool
29 menu "General architecture-dependent options"
31 config ARCH_HAS_SUBPAGE_FAULTS
32         bool
33         help
34           Select if the architecture can check permissions at sub-page
35           granularity (e.g. arm64 MTE). The probe_user_*() functions
36           must be implemented.
38 config HOTPLUG_SMT
39         bool
41 config SMT_NUM_THREADS_DYNAMIC
42         bool
44 # Selected by HOTPLUG_CORE_SYNC_DEAD or HOTPLUG_CORE_SYNC_FULL
45 config HOTPLUG_CORE_SYNC
46         bool
48 # Basic CPU dead synchronization selected by architecture
49 config HOTPLUG_CORE_SYNC_DEAD
50         bool
51         select HOTPLUG_CORE_SYNC
53 # Full CPU synchronization with alive state selected by architecture
54 config HOTPLUG_CORE_SYNC_FULL
55         bool
56         select HOTPLUG_CORE_SYNC_DEAD if HOTPLUG_CPU
57         select HOTPLUG_CORE_SYNC
59 config HOTPLUG_SPLIT_STARTUP
60         bool
61         select HOTPLUG_CORE_SYNC_FULL
63 config HOTPLUG_PARALLEL
64         bool
65         select HOTPLUG_SPLIT_STARTUP
67 config GENERIC_ENTRY
68         bool
70 config KPROBES
71         bool "Kprobes"
72         depends on HAVE_KPROBES
73         select KALLSYMS
74         select EXECMEM
75         select NEED_TASKS_RCU
76         help
77           Kprobes allows you to trap at almost any kernel address and
78           execute a callback function.  register_kprobe() establishes
79           a probepoint and specifies the callback.  Kprobes is useful
80           for kernel debugging, non-intrusive instrumentation and testing.
81           If in doubt, say "N".
83 config JUMP_LABEL
84         bool "Optimize very unlikely/likely branches"
85         depends on HAVE_ARCH_JUMP_LABEL
86         select OBJTOOL if HAVE_JUMP_LABEL_HACK
87         help
88           This option enables a transparent branch optimization that
89           makes certain almost-always-true or almost-always-false branch
90           conditions even cheaper to execute within the kernel.
92           Certain performance-sensitive kernel code, such as trace points,
93           scheduler functionality, networking code and KVM have such
94           branches and include support for this optimization technique.
96           If it is detected that the compiler has support for "asm goto",
97           the kernel will compile such branches with just a nop
98           instruction. When the condition flag is toggled to true, the
99           nop will be converted to a jump instruction to execute the
100           conditional block of instructions.
102           This technique lowers overhead and stress on the branch prediction
103           of the processor and generally makes the kernel faster. The update
104           of the condition is slower, but those are always very rare.
106           ( On 32-bit x86, the necessary options added to the compiler
107             flags may increase the size of the kernel slightly. )
109 config STATIC_KEYS_SELFTEST
110         bool "Static key selftest"
111         depends on JUMP_LABEL
112         help
113           Boot time self-test of the branch patching code.
115 config STATIC_CALL_SELFTEST
116         bool "Static call selftest"
117         depends on HAVE_STATIC_CALL
118         help
119           Boot time self-test of the call patching code.
121 config OPTPROBES
122         def_bool y
123         depends on KPROBES && HAVE_OPTPROBES
124         select NEED_TASKS_RCU
126 config KPROBES_ON_FTRACE
127         def_bool y
128         depends on KPROBES && HAVE_KPROBES_ON_FTRACE
129         depends on DYNAMIC_FTRACE_WITH_REGS
130         help
131           If function tracer is enabled and the arch supports full
132           passing of pt_regs to function tracing, then kprobes can
133           optimize on top of function tracing.
135 config UPROBES
136         def_bool n
137         depends on ARCH_SUPPORTS_UPROBES
138         select TASKS_TRACE_RCU
139         help
140           Uprobes is the user-space counterpart to kprobes: they
141           enable instrumentation applications (such as 'perf probe')
142           to establish unintrusive probes in user-space binaries and
143           libraries, by executing handler functions when the probes
144           are hit by user-space applications.
146           ( These probes come in the form of single-byte breakpoints,
147             managed by the kernel and kept transparent to the probed
148             application. )
150 config HAVE_64BIT_ALIGNED_ACCESS
151         def_bool 64BIT && !HAVE_EFFICIENT_UNALIGNED_ACCESS
152         help
153           Some architectures require 64 bit accesses to be 64 bit
154           aligned, which also requires structs containing 64 bit values
155           to be 64 bit aligned too. This includes some 32 bit
156           architectures which can do 64 bit accesses, as well as 64 bit
157           architectures without unaligned access.
159           This symbol should be selected by an architecture if 64 bit
160           accesses are required to be 64 bit aligned in this way even
161           though it is not a 64 bit architecture.
163           See Documentation/core-api/unaligned-memory-access.rst for
164           more information on the topic of unaligned memory accesses.
166 config HAVE_EFFICIENT_UNALIGNED_ACCESS
167         bool
168         help
169           Some architectures are unable to perform unaligned accesses
170           without the use of get_unaligned/put_unaligned. Others are
171           unable to perform such accesses efficiently (e.g. trap on
172           unaligned access and require fixing it up in the exception
173           handler.)
175           This symbol should be selected by an architecture if it can
176           perform unaligned accesses efficiently to allow different
177           code paths to be selected for these cases. Some network
178           drivers, for example, could opt to not fix up alignment
179           problems with received packets if doing so would not help
180           much.
182           See Documentation/core-api/unaligned-memory-access.rst for more
183           information on the topic of unaligned memory accesses.
185 config ARCH_USE_BUILTIN_BSWAP
186         bool
187         help
188           Modern versions of GCC (since 4.4) have builtin functions
189           for handling byte-swapping. Using these, instead of the old
190           inline assembler that the architecture code provides in the
191           __arch_bswapXX() macros, allows the compiler to see what's
192           happening and offers more opportunity for optimisation. In
193           particular, the compiler will be able to combine the byteswap
194           with a nearby load or store and use load-and-swap or
195           store-and-swap instructions if the architecture has them. It
196           should almost *never* result in code which is worse than the
197           hand-coded assembler in <asm/swab.h>.  But just in case it
198           does, the use of the builtins is optional.
200           Any architecture with load-and-swap or store-and-swap
201           instructions should set this. And it shouldn't hurt to set it
202           on architectures that don't have such instructions.
204 config KRETPROBES
205         def_bool y
206         depends on KPROBES && (HAVE_KRETPROBES || HAVE_RETHOOK)
208 config KRETPROBE_ON_RETHOOK
209         def_bool y
210         depends on HAVE_RETHOOK
211         depends on KRETPROBES
212         select RETHOOK
214 config USER_RETURN_NOTIFIER
215         bool
216         depends on HAVE_USER_RETURN_NOTIFIER
217         help
218           Provide a kernel-internal notification when a cpu is about to
219           switch to user mode.
221 config HAVE_IOREMAP_PROT
222         bool
224 config HAVE_KPROBES
225         bool
227 config HAVE_KRETPROBES
228         bool
230 config HAVE_OPTPROBES
231         bool
233 config HAVE_KPROBES_ON_FTRACE
234         bool
236 config ARCH_CORRECT_STACKTRACE_ON_KRETPROBE
237         bool
238         help
239           Since kretprobes modifies return address on the stack, the
240           stacktrace may see the kretprobe trampoline address instead
241           of correct one. If the architecture stacktrace code and
242           unwinder can adjust such entries, select this configuration.
244 config HAVE_FUNCTION_ERROR_INJECTION
245         bool
247 config HAVE_NMI
248         bool
250 config HAVE_FUNCTION_DESCRIPTORS
251         bool
253 config TRACE_IRQFLAGS_SUPPORT
254         bool
256 config TRACE_IRQFLAGS_NMI_SUPPORT
257         bool
260 # An arch should select this if it provides all these things:
262 #       task_pt_regs()          in asm/processor.h or asm/ptrace.h
263 #       arch_has_single_step()  if there is hardware single-step support
264 #       arch_has_block_step()   if there is hardware block-step support
265 #       asm/syscall.h           supplying asm-generic/syscall.h interface
266 #       linux/regset.h          user_regset interfaces
267 #       CORE_DUMP_USE_REGSET    #define'd in linux/elf.h
268 #       TIF_SYSCALL_TRACE       calls ptrace_report_syscall_{entry,exit}
269 #       TIF_NOTIFY_RESUME       calls resume_user_mode_work()
271 config HAVE_ARCH_TRACEHOOK
272         bool
274 config HAVE_DMA_CONTIGUOUS
275         bool
277 config GENERIC_SMP_IDLE_THREAD
278         bool
280 config GENERIC_IDLE_POLL_SETUP
281         bool
283 config ARCH_HAS_FORTIFY_SOURCE
284         bool
285         help
286           An architecture should select this when it can successfully
287           build and run with CONFIG_FORTIFY_SOURCE.
290 # Select if the arch provides a historic keepinit alias for the retain_initrd
291 # command line option
293 config ARCH_HAS_KEEPINITRD
294         bool
296 # Select if arch has all set_memory_ro/rw/x/nx() functions in asm/cacheflush.h
297 config ARCH_HAS_SET_MEMORY
298         bool
300 # Select if arch has all set_direct_map_invalid/default() functions
301 config ARCH_HAS_SET_DIRECT_MAP
302         bool
305 # Select if the architecture provides the arch_dma_set_uncached symbol to
306 # either provide an uncached segment alias for a DMA allocation, or
307 # to remap the page tables in place.
309 config ARCH_HAS_DMA_SET_UNCACHED
310         bool
313 # Select if the architectures provides the arch_dma_clear_uncached symbol
314 # to undo an in-place page table remap for uncached access.
316 config ARCH_HAS_DMA_CLEAR_UNCACHED
317         bool
319 config ARCH_HAS_CPU_FINALIZE_INIT
320         bool
322 # The architecture has a per-task state that includes the mm's PASID
323 config ARCH_HAS_CPU_PASID
324         bool
325         select IOMMU_MM_DATA
327 config HAVE_ARCH_THREAD_STRUCT_WHITELIST
328         bool
329         help
330           An architecture should select this to provide hardened usercopy
331           knowledge about what region of the thread_struct should be
332           whitelisted for copying to userspace. Normally this is only the
333           FPU registers. Specifically, arch_thread_struct_whitelist()
334           should be implemented. Without this, the entire thread_struct
335           field in task_struct will be left whitelisted.
337 # Select if arch wants to size task_struct dynamically via arch_task_struct_size:
338 config ARCH_WANTS_DYNAMIC_TASK_STRUCT
339         bool
341 config ARCH_WANTS_NO_INSTR
342         bool
343         help
344           An architecture should select this if the noinstr macro is being used on
345           functions to denote that the toolchain should avoid instrumenting such
346           functions and is required for correctness.
348 config ARCH_32BIT_OFF_T
349         bool
350         depends on !64BIT
351         help
352           All new 32-bit architectures should have 64-bit off_t type on
353           userspace side which corresponds to the loff_t kernel type. This
354           is the requirement for modern ABIs. Some existing architectures
355           still support 32-bit off_t. This option is enabled for all such
356           architectures explicitly.
358 # Selected by 64 bit architectures which have a 32 bit f_tinode in struct ustat
359 config ARCH_32BIT_USTAT_F_TINODE
360         bool
362 config HAVE_ASM_MODVERSIONS
363         bool
364         help
365           This symbol should be selected by an architecture if it provides
366           <asm/asm-prototypes.h> to support the module versioning for symbols
367           exported from assembly code.
369 config HAVE_REGS_AND_STACK_ACCESS_API
370         bool
371         help
372           This symbol should be selected by an architecture if it supports
373           the API needed to access registers and stack entries from pt_regs,
374           declared in asm/ptrace.h
375           For example the kprobes-based event tracer needs this API.
377 config HAVE_RSEQ
378         bool
379         depends on HAVE_REGS_AND_STACK_ACCESS_API
380         help
381           This symbol should be selected by an architecture if it
382           supports an implementation of restartable sequences.
384 config HAVE_RUST
385         bool
386         help
387           This symbol should be selected by an architecture if it
388           supports Rust.
390 config HAVE_FUNCTION_ARG_ACCESS_API
391         bool
392         help
393           This symbol should be selected by an architecture if it supports
394           the API needed to access function arguments from pt_regs,
395           declared in asm/ptrace.h
397 config HAVE_HW_BREAKPOINT
398         bool
399         depends on PERF_EVENTS
401 config HAVE_MIXED_BREAKPOINTS_REGS
402         bool
403         depends on HAVE_HW_BREAKPOINT
404         help
405           Depending on the arch implementation of hardware breakpoints,
406           some of them have separate registers for data and instruction
407           breakpoints addresses, others have mixed registers to store
408           them but define the access type in a control register.
409           Select this option if your arch implements breakpoints under the
410           latter fashion.
412 config HAVE_USER_RETURN_NOTIFIER
413         bool
415 config HAVE_PERF_EVENTS_NMI
416         bool
417         help
418           System hardware can generate an NMI using the perf event
419           subsystem.  Also has support for calculating CPU cycle events
420           to determine how many clock cycles in a given period.
422 config HAVE_HARDLOCKUP_DETECTOR_PERF
423         bool
424         depends on HAVE_PERF_EVENTS_NMI
425         help
426           The arch chooses to use the generic perf-NMI-based hardlockup
427           detector. Must define HAVE_PERF_EVENTS_NMI.
429 config HAVE_HARDLOCKUP_DETECTOR_ARCH
430         bool
431         help
432           The arch provides its own hardlockup detector implementation instead
433           of the generic ones.
435           It uses the same command line parameters, and sysctl interface,
436           as the generic hardlockup detectors.
438 config HAVE_PERF_REGS
439         bool
440         help
441           Support selective register dumps for perf events. This includes
442           bit-mapping of each registers and a unique architecture id.
444 config HAVE_PERF_USER_STACK_DUMP
445         bool
446         help
447           Support user stack dumps for perf event samples. This needs
448           access to the user stack pointer which is not unified across
449           architectures.
451 config HAVE_ARCH_JUMP_LABEL
452         bool
454 config HAVE_ARCH_JUMP_LABEL_RELATIVE
455         bool
457 config MMU_GATHER_TABLE_FREE
458         bool
460 config MMU_GATHER_RCU_TABLE_FREE
461         bool
462         select MMU_GATHER_TABLE_FREE
464 config MMU_GATHER_PAGE_SIZE
465         bool
467 config MMU_GATHER_NO_RANGE
468         bool
469         select MMU_GATHER_MERGE_VMAS
471 config MMU_GATHER_NO_FLUSH_CACHE
472         bool
474 config MMU_GATHER_MERGE_VMAS
475         bool
477 config MMU_GATHER_NO_GATHER
478         bool
479         depends on MMU_GATHER_TABLE_FREE
481 config ARCH_WANT_IRQS_OFF_ACTIVATE_MM
482         bool
483         help
484           Temporary select until all architectures can be converted to have
485           irqs disabled over activate_mm. Architectures that do IPI based TLB
486           shootdowns should enable this.
488 # Use normal mm refcounting for MMU_LAZY_TLB kernel thread references.
489 # MMU_LAZY_TLB_REFCOUNT=n can improve the scalability of context switching
490 # to/from kernel threads when the same mm is running on a lot of CPUs (a large
491 # multi-threaded application), by reducing contention on the mm refcount.
493 # This can be disabled if the architecture ensures no CPUs are using an mm as a
494 # "lazy tlb" beyond its final refcount (i.e., by the time __mmdrop frees the mm
495 # or its kernel page tables). This could be arranged by arch_exit_mmap(), or
496 # final exit(2) TLB flush, for example.
498 # To implement this, an arch *must*:
499 # Ensure the _lazy_tlb variants of mmgrab/mmdrop are used when manipulating
500 # the lazy tlb reference of a kthread's ->active_mm (non-arch code has been
501 # converted already).
502 config MMU_LAZY_TLB_REFCOUNT
503         def_bool y
504         depends on !MMU_LAZY_TLB_SHOOTDOWN
506 # This option allows MMU_LAZY_TLB_REFCOUNT=n. It ensures no CPUs are using an
507 # mm as a lazy tlb beyond its last reference count, by shooting down these
508 # users before the mm is deallocated. __mmdrop() first IPIs all CPUs that may
509 # be using the mm as a lazy tlb, so that they may switch themselves to using
510 # init_mm for their active mm. mm_cpumask(mm) is used to determine which CPUs
511 # may be using mm as a lazy tlb mm.
513 # To implement this, an arch *must*:
514 # - At the time of the final mmdrop of the mm, ensure mm_cpumask(mm) contains
515 #   at least all possible CPUs in which the mm is lazy.
516 # - It must meet the requirements for MMU_LAZY_TLB_REFCOUNT=n (see above).
517 config MMU_LAZY_TLB_SHOOTDOWN
518         bool
520 config ARCH_HAVE_NMI_SAFE_CMPXCHG
521         bool
523 config ARCH_HAVE_EXTRA_ELF_NOTES
524         bool
525         help
526           An architecture should select this in order to enable adding an
527           arch-specific ELF note section to core files. It must provide two
528           functions: elf_coredump_extra_notes_size() and
529           elf_coredump_extra_notes_write() which are invoked by the ELF core
530           dumper.
532 config ARCH_HAS_NMI_SAFE_THIS_CPU_OPS
533         bool
535 config HAVE_ALIGNED_STRUCT_PAGE
536         bool
537         help
538           This makes sure that struct pages are double word aligned and that
539           e.g. the SLUB allocator can perform double word atomic operations
540           on a struct page for better performance. However selecting this
541           might increase the size of a struct page by a word.
543 config HAVE_CMPXCHG_LOCAL
544         bool
546 config HAVE_CMPXCHG_DOUBLE
547         bool
549 config ARCH_WEAK_RELEASE_ACQUIRE
550         bool
552 config ARCH_WANT_IPC_PARSE_VERSION
553         bool
555 config ARCH_WANT_COMPAT_IPC_PARSE_VERSION
556         bool
558 config ARCH_WANT_OLD_COMPAT_IPC
559         select ARCH_WANT_COMPAT_IPC_PARSE_VERSION
560         bool
562 config HAVE_ARCH_SECCOMP
563         bool
564         help
565           An arch should select this symbol to support seccomp mode 1 (the fixed
566           syscall policy), and must provide an overrides for __NR_seccomp_sigreturn,
567           and compat syscalls if the asm-generic/seccomp.h defaults need adjustment:
568           - __NR_seccomp_read_32
569           - __NR_seccomp_write_32
570           - __NR_seccomp_exit_32
571           - __NR_seccomp_sigreturn_32
573 config HAVE_ARCH_SECCOMP_FILTER
574         bool
575         select HAVE_ARCH_SECCOMP
576         help
577           An arch should select this symbol if it provides all of these things:
578           - all the requirements for HAVE_ARCH_SECCOMP
579           - syscall_get_arch()
580           - syscall_get_arguments()
581           - syscall_rollback()
582           - syscall_set_return_value()
583           - SIGSYS siginfo_t support
584           - secure_computing is called from a ptrace_event()-safe context
585           - secure_computing return value is checked and a return value of -1
586             results in the system call being skipped immediately.
587           - seccomp syscall wired up
588           - if !HAVE_SPARSE_SYSCALL_NR, have SECCOMP_ARCH_NATIVE,
589             SECCOMP_ARCH_NATIVE_NR, SECCOMP_ARCH_NATIVE_NAME defined. If
590             COMPAT is supported, have the SECCOMP_ARCH_COMPAT* defines too.
592 config SECCOMP
593         prompt "Enable seccomp to safely execute untrusted bytecode"
594         def_bool y
595         depends on HAVE_ARCH_SECCOMP
596         help
597           This kernel feature is useful for number crunching applications
598           that may need to handle untrusted bytecode during their
599           execution. By using pipes or other transports made available
600           to the process as file descriptors supporting the read/write
601           syscalls, it's possible to isolate those applications in their
602           own address space using seccomp. Once seccomp is enabled via
603           prctl(PR_SET_SECCOMP) or the seccomp() syscall, it cannot be
604           disabled and the task is only allowed to execute a few safe
605           syscalls defined by each seccomp mode.
607           If unsure, say Y.
609 config SECCOMP_FILTER
610         def_bool y
611         depends on HAVE_ARCH_SECCOMP_FILTER && SECCOMP && NET
612         help
613           Enable tasks to build secure computing environments defined
614           in terms of Berkeley Packet Filter programs which implement
615           task-defined system call filtering polices.
617           See Documentation/userspace-api/seccomp_filter.rst for details.
619 config SECCOMP_CACHE_DEBUG
620         bool "Show seccomp filter cache status in /proc/pid/seccomp_cache"
621         depends on SECCOMP_FILTER && !HAVE_SPARSE_SYSCALL_NR
622         depends on PROC_FS
623         help
624           This enables the /proc/pid/seccomp_cache interface to monitor
625           seccomp cache data. The file format is subject to change. Reading
626           the file requires CAP_SYS_ADMIN.
628           This option is for debugging only. Enabling presents the risk that
629           an adversary may be able to infer the seccomp filter logic.
631           If unsure, say N.
633 config HAVE_ARCH_STACKLEAK
634         bool
635         help
636           An architecture should select this if it has the code which
637           fills the used part of the kernel stack with the STACKLEAK_POISON
638           value before returning from system calls.
640 config HAVE_STACKPROTECTOR
641         bool
642         help
643           An arch should select this symbol if:
644           - it has implemented a stack canary (e.g. __stack_chk_guard)
646 config STACKPROTECTOR
647         bool "Stack Protector buffer overflow detection"
648         depends on HAVE_STACKPROTECTOR
649         depends on $(cc-option,-fstack-protector)
650         default y
651         help
652           This option turns on the "stack-protector" GCC feature. This
653           feature puts, at the beginning of functions, a canary value on
654           the stack just before the return address, and validates
655           the value just before actually returning.  Stack based buffer
656           overflows (that need to overwrite this return address) now also
657           overwrite the canary, which gets detected and the attack is then
658           neutralized via a kernel panic.
660           Functions will have the stack-protector canary logic added if they
661           have an 8-byte or larger character array on the stack.
663           This feature requires gcc version 4.2 or above, or a distribution
664           gcc with the feature backported ("-fstack-protector").
666           On an x86 "defconfig" build, this feature adds canary checks to
667           about 3% of all kernel functions, which increases kernel code size
668           by about 0.3%.
670 config STACKPROTECTOR_STRONG
671         bool "Strong Stack Protector"
672         depends on STACKPROTECTOR
673         depends on $(cc-option,-fstack-protector-strong)
674         default y
675         help
676           Functions will have the stack-protector canary logic added in any
677           of the following conditions:
679           - local variable's address used as part of the right hand side of an
680             assignment or function argument
681           - local variable is an array (or union containing an array),
682             regardless of array type or length
683           - uses register local variables
685           This feature requires gcc version 4.9 or above, or a distribution
686           gcc with the feature backported ("-fstack-protector-strong").
688           On an x86 "defconfig" build, this feature adds canary checks to
689           about 20% of all kernel functions, which increases the kernel code
690           size by about 2%.
692 config ARCH_SUPPORTS_SHADOW_CALL_STACK
693         bool
694         help
695           An architecture should select this if it supports the compiler's
696           Shadow Call Stack and implements runtime support for shadow stack
697           switching.
699 config SHADOW_CALL_STACK
700         bool "Shadow Call Stack"
701         depends on ARCH_SUPPORTS_SHADOW_CALL_STACK
702         depends on DYNAMIC_FTRACE_WITH_ARGS || DYNAMIC_FTRACE_WITH_REGS || !FUNCTION_GRAPH_TRACER
703         depends on MMU
704         help
705           This option enables the compiler's Shadow Call Stack, which
706           uses a shadow stack to protect function return addresses from
707           being overwritten by an attacker. More information can be found
708           in the compiler's documentation:
710           - Clang: https://clang.llvm.org/docs/ShadowCallStack.html
711           - GCC: https://gcc.gnu.org/onlinedocs/gcc/Instrumentation-Options.html#Instrumentation-Options
713           Note that security guarantees in the kernel differ from the
714           ones documented for user space. The kernel must store addresses
715           of shadow stacks in memory, which means an attacker capable of
716           reading and writing arbitrary memory may be able to locate them
717           and hijack control flow by modifying the stacks.
719 config DYNAMIC_SCS
720         bool
721         help
722           Set by the arch code if it relies on code patching to insert the
723           shadow call stack push and pop instructions rather than on the
724           compiler.
726 config LTO
727         bool
728         help
729           Selected if the kernel will be built using the compiler's LTO feature.
731 config LTO_CLANG
732         bool
733         select LTO
734         help
735           Selected if the kernel will be built using Clang's LTO feature.
737 config ARCH_SUPPORTS_LTO_CLANG
738         bool
739         help
740           An architecture should select this option if it supports:
741           - compiling with Clang,
742           - compiling inline assembly with Clang's integrated assembler,
743           - and linking with LLD.
745 config ARCH_SUPPORTS_LTO_CLANG_THIN
746         bool
747         help
748           An architecture should select this option if it can support Clang's
749           ThinLTO mode.
751 config HAS_LTO_CLANG
752         def_bool y
753         depends on CC_IS_CLANG && LD_IS_LLD && AS_IS_LLVM
754         depends on $(success,$(NM) --help | head -n 1 | grep -qi llvm)
755         depends on $(success,$(AR) --help | head -n 1 | grep -qi llvm)
756         depends on ARCH_SUPPORTS_LTO_CLANG
757         depends on !FTRACE_MCOUNT_USE_RECORDMCOUNT
758         # https://github.com/ClangBuiltLinux/linux/issues/1721
759         depends on (!KASAN || KASAN_HW_TAGS || CLANG_VERSION >= 170000) || !DEBUG_INFO
760         depends on (!KCOV || CLANG_VERSION >= 170000) || !DEBUG_INFO
761         depends on !GCOV_KERNEL
762         help
763           The compiler and Kconfig options support building with Clang's
764           LTO.
766 choice
767         prompt "Link Time Optimization (LTO)"
768         default LTO_NONE
769         help
770           This option enables Link Time Optimization (LTO), which allows the
771           compiler to optimize binaries globally.
773           If unsure, select LTO_NONE. Note that LTO is very resource-intensive
774           so it's disabled by default.
776 config LTO_NONE
777         bool "None"
778         help
779           Build the kernel normally, without Link Time Optimization (LTO).
781 config LTO_CLANG_FULL
782         bool "Clang Full LTO (EXPERIMENTAL)"
783         depends on HAS_LTO_CLANG
784         depends on !COMPILE_TEST
785         select LTO_CLANG
786         help
787           This option enables Clang's full Link Time Optimization (LTO), which
788           allows the compiler to optimize the kernel globally. If you enable
789           this option, the compiler generates LLVM bitcode instead of ELF
790           object files, and the actual compilation from bitcode happens at
791           the LTO link step, which may take several minutes depending on the
792           kernel configuration. More information can be found from LLVM's
793           documentation:
795             https://llvm.org/docs/LinkTimeOptimization.html
797           During link time, this option can use a large amount of RAM, and
798           may take much longer than the ThinLTO option.
800 config LTO_CLANG_THIN
801         bool "Clang ThinLTO (EXPERIMENTAL)"
802         depends on HAS_LTO_CLANG && ARCH_SUPPORTS_LTO_CLANG_THIN
803         select LTO_CLANG
804         help
805           This option enables Clang's ThinLTO, which allows for parallel
806           optimization and faster incremental compiles compared to the
807           CONFIG_LTO_CLANG_FULL option. More information can be found
808           from Clang's documentation:
810             https://clang.llvm.org/docs/ThinLTO.html
812           If unsure, say Y.
813 endchoice
815 config ARCH_SUPPORTS_CFI_CLANG
816         bool
817         help
818           An architecture should select this option if it can support Clang's
819           Control-Flow Integrity (CFI) checking.
821 config ARCH_USES_CFI_TRAPS
822         bool
824 config CFI_CLANG
825         bool "Use Clang's Control Flow Integrity (CFI)"
826         depends on ARCH_SUPPORTS_CFI_CLANG
827         depends on $(cc-option,-fsanitize=kcfi)
828         help
829           This option enables Clang's forward-edge Control Flow Integrity
830           (CFI) checking, where the compiler injects a runtime check to each
831           indirect function call to ensure the target is a valid function with
832           the correct static type. This restricts possible call targets and
833           makes it more difficult for an attacker to exploit bugs that allow
834           the modification of stored function pointers. More information can be
835           found from Clang's documentation:
837             https://clang.llvm.org/docs/ControlFlowIntegrity.html
839 config CFI_ICALL_NORMALIZE_INTEGERS
840         bool "Normalize CFI tags for integers"
841         depends on CFI_CLANG
842         depends on HAVE_CFI_ICALL_NORMALIZE_INTEGERS_CLANG
843         help
844           This option normalizes the CFI tags for integer types so that all
845           integer types of the same size and signedness receive the same CFI
846           tag.
848           The option is separate from CONFIG_RUST because it affects the ABI.
849           When working with build systems that care about the ABI, it is
850           convenient to be able to turn on this flag first, before Rust is
851           turned on.
853           This option is necessary for using CFI with Rust. If unsure, say N.
855 config HAVE_CFI_ICALL_NORMALIZE_INTEGERS_CLANG
856         def_bool y
857         depends on $(cc-option,-fsanitize=kcfi -fsanitize-cfi-icall-experimental-normalize-integers)
858         # With GCOV/KASAN we need this fix: https://github.com/llvm/llvm-project/pull/104826
859         depends on CLANG_VERSION >= 190103 || (!GCOV_KERNEL && !KASAN_GENERIC && !KASAN_SW_TAGS)
861 config HAVE_CFI_ICALL_NORMALIZE_INTEGERS_RUSTC
862         def_bool y
863         depends on HAVE_CFI_ICALL_NORMALIZE_INTEGERS_CLANG
864         depends on RUSTC_VERSION >= 107900
865         # With GCOV/KASAN we need this fix: https://github.com/rust-lang/rust/pull/129373
866         depends on (RUSTC_LLVM_VERSION >= 190103 && RUSTC_VERSION >= 108200) || \
867                 (!GCOV_KERNEL && !KASAN_GENERIC && !KASAN_SW_TAGS)
869 config CFI_PERMISSIVE
870         bool "Use CFI in permissive mode"
871         depends on CFI_CLANG
872         help
873           When selected, Control Flow Integrity (CFI) violations result in a
874           warning instead of a kernel panic. This option should only be used
875           for finding indirect call type mismatches during development.
877           If unsure, say N.
879 config HAVE_ARCH_WITHIN_STACK_FRAMES
880         bool
881         help
882           An architecture should select this if it can walk the kernel stack
883           frames to determine if an object is part of either the arguments
884           or local variables (i.e. that it excludes saved return addresses,
885           and similar) by implementing an inline arch_within_stack_frames(),
886           which is used by CONFIG_HARDENED_USERCOPY.
888 config HAVE_CONTEXT_TRACKING_USER
889         bool
890         help
891           Provide kernel/user boundaries probes necessary for subsystems
892           that need it, such as userspace RCU extended quiescent state.
893           Syscalls need to be wrapped inside user_exit()-user_enter(), either
894           optimized behind static key or through the slow path using TIF_NOHZ
895           flag. Exceptions handlers must be wrapped as well. Irqs are already
896           protected inside ct_irq_enter/ct_irq_exit() but preemption or signal
897           handling on irq exit still need to be protected.
899 config HAVE_CONTEXT_TRACKING_USER_OFFSTACK
900         bool
901         help
902           Architecture neither relies on exception_enter()/exception_exit()
903           nor on schedule_user(). Also preempt_schedule_notrace() and
904           preempt_schedule_irq() can't be called in a preemptible section
905           while context tracking is CT_STATE_USER. This feature reflects a sane
906           entry implementation where the following requirements are met on
907           critical entry code, ie: before user_exit() or after user_enter():
909           - Critical entry code isn't preemptible (or better yet:
910             not interruptible).
911           - No use of RCU read side critical sections, unless ct_nmi_enter()
912             got called.
913           - No use of instrumentation, unless instrumentation_begin() got
914             called.
916 config HAVE_TIF_NOHZ
917         bool
918         help
919           Arch relies on TIF_NOHZ and syscall slow path to implement context
920           tracking calls to user_enter()/user_exit().
922 config HAVE_VIRT_CPU_ACCOUNTING
923         bool
925 config HAVE_VIRT_CPU_ACCOUNTING_IDLE
926         bool
927         help
928           Architecture has its own way to account idle CPU time and therefore
929           doesn't implement vtime_account_idle().
931 config ARCH_HAS_SCALED_CPUTIME
932         bool
934 config HAVE_VIRT_CPU_ACCOUNTING_GEN
935         bool
936         default y if 64BIT
937         help
938           With VIRT_CPU_ACCOUNTING_GEN, cputime_t becomes 64-bit.
939           Before enabling this option, arch code must be audited
940           to ensure there are no races in concurrent read/write of
941           cputime_t. For example, reading/writing 64-bit cputime_t on
942           some 32-bit arches may require multiple accesses, so proper
943           locking is needed to protect against concurrent accesses.
945 config HAVE_IRQ_TIME_ACCOUNTING
946         bool
947         help
948           Archs need to ensure they use a high enough resolution clock to
949           support irq time accounting and then call enable_sched_clock_irqtime().
951 config HAVE_MOVE_PUD
952         bool
953         help
954           Architectures that select this are able to move page tables at the
955           PUD level. If there are only 3 page table levels, the move effectively
956           happens at the PGD level.
958 config HAVE_MOVE_PMD
959         bool
960         help
961           Archs that select this are able to move page tables at the PMD level.
963 config HAVE_ARCH_TRANSPARENT_HUGEPAGE
964         bool
966 config HAVE_ARCH_TRANSPARENT_HUGEPAGE_PUD
967         bool
969 config HAVE_ARCH_HUGE_VMAP
970         bool
973 #  Archs that select this would be capable of PMD-sized vmaps (i.e.,
974 #  arch_vmap_pmd_supported() returns true). The VM_ALLOW_HUGE_VMAP flag
975 #  must be used to enable allocations to use hugepages.
977 config HAVE_ARCH_HUGE_VMALLOC
978         depends on HAVE_ARCH_HUGE_VMAP
979         bool
981 config ARCH_WANT_HUGE_PMD_SHARE
982         bool
984 # Archs that want to use pmd_mkwrite on kernel memory need it defined even
985 # if there are no userspace memory management features that use it
986 config ARCH_WANT_KERNEL_PMD_MKWRITE
987         bool
989 config ARCH_WANT_PMD_MKWRITE
990         def_bool TRANSPARENT_HUGEPAGE || ARCH_WANT_KERNEL_PMD_MKWRITE
992 config HAVE_ARCH_SOFT_DIRTY
993         bool
995 config HAVE_MOD_ARCH_SPECIFIC
996         bool
997         help
998           The arch uses struct mod_arch_specific to store data.  Many arches
999           just need a simple module loader without arch specific data - those
1000           should not enable this.
1002 config MODULES_USE_ELF_RELA
1003         bool
1004         help
1005           Modules only use ELF RELA relocations.  Modules with ELF REL
1006           relocations will give an error.
1008 config MODULES_USE_ELF_REL
1009         bool
1010         help
1011           Modules only use ELF REL relocations.  Modules with ELF RELA
1012           relocations will give an error.
1014 config ARCH_WANTS_MODULES_DATA_IN_VMALLOC
1015         bool
1016         help
1017           For architectures like powerpc/32 which have constraints on module
1018           allocation and need to allocate module data outside of module area.
1020 config ARCH_WANTS_EXECMEM_LATE
1021         bool
1022         help
1023           For architectures that do not allocate executable memory early on
1024           boot, but rather require its initialization late when there is
1025           enough entropy for module space randomization, for instance
1026           arm64.
1028 config HAVE_IRQ_EXIT_ON_IRQ_STACK
1029         bool
1030         help
1031           Architecture doesn't only execute the irq handler on the irq stack
1032           but also irq_exit(). This way we can process softirqs on this irq
1033           stack instead of switching to a new one when we call __do_softirq()
1034           in the end of an hardirq.
1035           This spares a stack switch and improves cache usage on softirq
1036           processing.
1038 config HAVE_SOFTIRQ_ON_OWN_STACK
1039         bool
1040         help
1041           Architecture provides a function to run __do_softirq() on a
1042           separate stack.
1044 config SOFTIRQ_ON_OWN_STACK
1045         def_bool HAVE_SOFTIRQ_ON_OWN_STACK && !PREEMPT_RT
1047 config ALTERNATE_USER_ADDRESS_SPACE
1048         bool
1049         help
1050           Architectures set this when the CPU uses separate address
1051           spaces for kernel and user space pointers. In this case, the
1052           access_ok() check on a __user pointer is skipped.
1054 config PGTABLE_LEVELS
1055         int
1056         default 2
1058 config ARCH_HAS_ELF_RANDOMIZE
1059         bool
1060         help
1061           An architecture supports choosing randomized locations for
1062           stack, mmap, brk, and ET_DYN. Defined functions:
1063           - arch_mmap_rnd()
1064           - arch_randomize_brk()
1066 config HAVE_ARCH_MMAP_RND_BITS
1067         bool
1068         help
1069           An arch should select this symbol if it supports setting a variable
1070           number of bits for use in establishing the base address for mmap
1071           allocations, has MMU enabled and provides values for both:
1072           - ARCH_MMAP_RND_BITS_MIN
1073           - ARCH_MMAP_RND_BITS_MAX
1075 config HAVE_EXIT_THREAD
1076         bool
1077         help
1078           An architecture implements exit_thread.
1080 config ARCH_MMAP_RND_BITS_MIN
1081         int
1083 config ARCH_MMAP_RND_BITS_MAX
1084         int
1086 config ARCH_MMAP_RND_BITS_DEFAULT
1087         int
1089 config ARCH_MMAP_RND_BITS
1090         int "Number of bits to use for ASLR of mmap base address" if EXPERT
1091         range ARCH_MMAP_RND_BITS_MIN ARCH_MMAP_RND_BITS_MAX
1092         default ARCH_MMAP_RND_BITS_DEFAULT if ARCH_MMAP_RND_BITS_DEFAULT
1093         default ARCH_MMAP_RND_BITS_MIN
1094         depends on HAVE_ARCH_MMAP_RND_BITS
1095         help
1096           This value can be used to select the number of bits to use to
1097           determine the random offset to the base address of vma regions
1098           resulting from mmap allocations. This value will be bounded
1099           by the architecture's minimum and maximum supported values.
1101           This value can be changed after boot using the
1102           /proc/sys/vm/mmap_rnd_bits tunable
1104 config HAVE_ARCH_MMAP_RND_COMPAT_BITS
1105         bool
1106         help
1107           An arch should select this symbol if it supports running applications
1108           in compatibility mode, supports setting a variable number of bits for
1109           use in establishing the base address for mmap allocations, has MMU
1110           enabled and provides values for both:
1111           - ARCH_MMAP_RND_COMPAT_BITS_MIN
1112           - ARCH_MMAP_RND_COMPAT_BITS_MAX
1114 config ARCH_MMAP_RND_COMPAT_BITS_MIN
1115         int
1117 config ARCH_MMAP_RND_COMPAT_BITS_MAX
1118         int
1120 config ARCH_MMAP_RND_COMPAT_BITS_DEFAULT
1121         int
1123 config ARCH_MMAP_RND_COMPAT_BITS
1124         int "Number of bits to use for ASLR of mmap base address for compatible applications" if EXPERT
1125         range ARCH_MMAP_RND_COMPAT_BITS_MIN ARCH_MMAP_RND_COMPAT_BITS_MAX
1126         default ARCH_MMAP_RND_COMPAT_BITS_DEFAULT if ARCH_MMAP_RND_COMPAT_BITS_DEFAULT
1127         default ARCH_MMAP_RND_COMPAT_BITS_MIN
1128         depends on HAVE_ARCH_MMAP_RND_COMPAT_BITS
1129         help
1130           This value can be used to select the number of bits to use to
1131           determine the random offset to the base address of vma regions
1132           resulting from mmap allocations for compatible applications This
1133           value will be bounded by the architecture's minimum and maximum
1134           supported values.
1136           This value can be changed after boot using the
1137           /proc/sys/vm/mmap_rnd_compat_bits tunable
1139 config HAVE_ARCH_COMPAT_MMAP_BASES
1140         bool
1141         help
1142           This allows 64bit applications to invoke 32-bit mmap() syscall
1143           and vice-versa 32-bit applications to call 64-bit mmap().
1144           Required for applications doing different bitness syscalls.
1146 config HAVE_PAGE_SIZE_4KB
1147         bool
1149 config HAVE_PAGE_SIZE_8KB
1150         bool
1152 config HAVE_PAGE_SIZE_16KB
1153         bool
1155 config HAVE_PAGE_SIZE_32KB
1156         bool
1158 config HAVE_PAGE_SIZE_64KB
1159         bool
1161 config HAVE_PAGE_SIZE_256KB
1162         bool
1164 choice
1165         prompt "MMU page size"
1167 config PAGE_SIZE_4KB
1168         bool "4KiB pages"
1169         depends on HAVE_PAGE_SIZE_4KB
1170         help
1171           This option select the standard 4KiB Linux page size and the only
1172           available option on many architectures. Using 4KiB page size will
1173           minimize memory consumption and is therefore recommended for low
1174           memory systems.
1175           Some software that is written for x86 systems makes incorrect
1176           assumptions about the page size and only runs on 4KiB pages.
1178 config PAGE_SIZE_8KB
1179         bool "8KiB pages"
1180         depends on HAVE_PAGE_SIZE_8KB
1181         help
1182           This option is the only supported page size on a few older
1183           processors, and can be slightly faster than 4KiB pages.
1185 config PAGE_SIZE_16KB
1186         bool "16KiB pages"
1187         depends on HAVE_PAGE_SIZE_16KB
1188         help
1189           This option is usually a good compromise between memory
1190           consumption and performance for typical desktop and server
1191           workloads, often saving a level of page table lookups compared
1192           to 4KB pages as well as reducing TLB pressure and overhead of
1193           per-page operations in the kernel at the expense of a larger
1194           page cache.
1196 config PAGE_SIZE_32KB
1197         bool "32KiB pages"
1198         depends on HAVE_PAGE_SIZE_32KB
1199         help
1200           Using 32KiB page size will result in slightly higher performance
1201           kernel at the price of higher memory consumption compared to
1202           16KiB pages.  This option is available only on cnMIPS cores.
1203           Note that you will need a suitable Linux distribution to
1204           support this.
1206 config PAGE_SIZE_64KB
1207         bool "64KiB pages"
1208         depends on HAVE_PAGE_SIZE_64KB
1209         help
1210           Using 64KiB page size will result in slightly higher performance
1211           kernel at the price of much higher memory consumption compared to
1212           4KiB or 16KiB pages.
1213           This is not suitable for general-purpose workloads but the
1214           better performance may be worth the cost for certain types of
1215           supercomputing or database applications that work mostly with
1216           large in-memory data rather than small files.
1218 config PAGE_SIZE_256KB
1219         bool "256KiB pages"
1220         depends on HAVE_PAGE_SIZE_256KB
1221         help
1222           256KiB pages have little practical value due to their extreme
1223           memory usage.  The kernel will only be able to run applications
1224           that have been compiled with '-zmax-page-size' set to 256KiB
1225           (the default is 64KiB or 4KiB on most architectures).
1227 endchoice
1229 config PAGE_SIZE_LESS_THAN_64KB
1230         def_bool y
1231         depends on !PAGE_SIZE_64KB
1232         depends on PAGE_SIZE_LESS_THAN_256KB
1234 config PAGE_SIZE_LESS_THAN_256KB
1235         def_bool y
1236         depends on !PAGE_SIZE_256KB
1238 config PAGE_SHIFT
1239         int
1240         default 12 if PAGE_SIZE_4KB
1241         default 13 if PAGE_SIZE_8KB
1242         default 14 if PAGE_SIZE_16KB
1243         default 15 if PAGE_SIZE_32KB
1244         default 16 if PAGE_SIZE_64KB
1245         default 18 if PAGE_SIZE_256KB
1247 # This allows to use a set of generic functions to determine mmap base
1248 # address by giving priority to top-down scheme only if the process
1249 # is not in legacy mode (compat task, unlimited stack size or
1250 # sysctl_legacy_va_layout).
1251 # Architecture that selects this option can provide its own version of:
1252 # - STACK_RND_MASK
1253 config ARCH_WANT_DEFAULT_TOPDOWN_MMAP_LAYOUT
1254         bool
1255         depends on MMU
1256         select ARCH_HAS_ELF_RANDOMIZE
1258 config HAVE_OBJTOOL
1259         bool
1261 config HAVE_JUMP_LABEL_HACK
1262         bool
1264 config HAVE_NOINSTR_HACK
1265         bool
1267 config HAVE_NOINSTR_VALIDATION
1268         bool
1270 config HAVE_UACCESS_VALIDATION
1271         bool
1272         select OBJTOOL
1274 config HAVE_STACK_VALIDATION
1275         bool
1276         help
1277           Architecture supports objtool compile-time frame pointer rule
1278           validation.
1280 config HAVE_RELIABLE_STACKTRACE
1281         bool
1282         help
1283           Architecture has either save_stack_trace_tsk_reliable() or
1284           arch_stack_walk_reliable() function which only returns a stack trace
1285           if it can guarantee the trace is reliable.
1287 config HAVE_ARCH_HASH
1288         bool
1289         default n
1290         help
1291           If this is set, the architecture provides an <asm/hash.h>
1292           file which provides platform-specific implementations of some
1293           functions in <linux/hash.h> or fs/namei.c.
1295 config HAVE_ARCH_NVRAM_OPS
1296         bool
1298 config ISA_BUS_API
1299         def_bool ISA
1302 # ABI hall of shame
1304 config CLONE_BACKWARDS
1305         bool
1306         help
1307           Architecture has tls passed as the 4th argument of clone(2),
1308           not the 5th one.
1310 config CLONE_BACKWARDS2
1311         bool
1312         help
1313           Architecture has the first two arguments of clone(2) swapped.
1315 config CLONE_BACKWARDS3
1316         bool
1317         help
1318           Architecture has tls passed as the 3rd argument of clone(2),
1319           not the 5th one.
1321 config ODD_RT_SIGACTION
1322         bool
1323         help
1324           Architecture has unusual rt_sigaction(2) arguments
1326 config OLD_SIGSUSPEND
1327         bool
1328         help
1329           Architecture has old sigsuspend(2) syscall, of one-argument variety
1331 config OLD_SIGSUSPEND3
1332         bool
1333         help
1334           Even weirder antique ABI - three-argument sigsuspend(2)
1336 config OLD_SIGACTION
1337         bool
1338         help
1339           Architecture has old sigaction(2) syscall.  Nope, not the same
1340           as OLD_SIGSUSPEND | OLD_SIGSUSPEND3 - alpha has sigsuspend(2),
1341           but fairly different variant of sigaction(2), thanks to OSF/1
1342           compatibility...
1344 config COMPAT_OLD_SIGACTION
1345         bool
1347 config COMPAT_32BIT_TIME
1348         bool "Provide system calls for 32-bit time_t"
1349         default !64BIT || COMPAT
1350         help
1351           This enables 32 bit time_t support in addition to 64 bit time_t support.
1352           This is relevant on all 32-bit architectures, and 64-bit architectures
1353           as part of compat syscall handling.
1355 config ARCH_NO_PREEMPT
1356         bool
1358 config ARCH_SUPPORTS_RT
1359         bool
1361 config CPU_NO_EFFICIENT_FFS
1362         def_bool n
1364 config HAVE_ARCH_VMAP_STACK
1365         def_bool n
1366         help
1367           An arch should select this symbol if it can support kernel stacks
1368           in vmalloc space.  This means:
1370           - vmalloc space must be large enough to hold many kernel stacks.
1371             This may rule out many 32-bit architectures.
1373           - Stacks in vmalloc space need to work reliably.  For example, if
1374             vmap page tables are created on demand, either this mechanism
1375             needs to work while the stack points to a virtual address with
1376             unpopulated page tables or arch code (switch_to() and switch_mm(),
1377             most likely) needs to ensure that the stack's page table entries
1378             are populated before running on a possibly unpopulated stack.
1380           - If the stack overflows into a guard page, something reasonable
1381             should happen.  The definition of "reasonable" is flexible, but
1382             instantly rebooting without logging anything would be unfriendly.
1384 config VMAP_STACK
1385         default y
1386         bool "Use a virtually-mapped stack"
1387         depends on HAVE_ARCH_VMAP_STACK
1388         depends on !KASAN || KASAN_HW_TAGS || KASAN_VMALLOC
1389         help
1390           Enable this if you want the use virtually-mapped kernel stacks
1391           with guard pages.  This causes kernel stack overflows to be
1392           caught immediately rather than causing difficult-to-diagnose
1393           corruption.
1395           To use this with software KASAN modes, the architecture must support
1396           backing virtual mappings with real shadow memory, and KASAN_VMALLOC
1397           must be enabled.
1399 config HAVE_ARCH_RANDOMIZE_KSTACK_OFFSET
1400         def_bool n
1401         help
1402           An arch should select this symbol if it can support kernel stack
1403           offset randomization with calls to add_random_kstack_offset()
1404           during syscall entry and choose_random_kstack_offset() during
1405           syscall exit. Careful removal of -fstack-protector-strong and
1406           -fstack-protector should also be applied to the entry code and
1407           closely examined, as the artificial stack bump looks like an array
1408           to the compiler, so it will attempt to add canary checks regardless
1409           of the static branch state.
1411 config RANDOMIZE_KSTACK_OFFSET
1412         bool "Support for randomizing kernel stack offset on syscall entry" if EXPERT
1413         default y
1414         depends on HAVE_ARCH_RANDOMIZE_KSTACK_OFFSET
1415         depends on INIT_STACK_NONE || !CC_IS_CLANG || CLANG_VERSION >= 140000
1416         help
1417           The kernel stack offset can be randomized (after pt_regs) by
1418           roughly 5 bits of entropy, frustrating memory corruption
1419           attacks that depend on stack address determinism or
1420           cross-syscall address exposures.
1422           The feature is controlled via the "randomize_kstack_offset=on/off"
1423           kernel boot param, and if turned off has zero overhead due to its use
1424           of static branches (see JUMP_LABEL).
1426           If unsure, say Y.
1428 config RANDOMIZE_KSTACK_OFFSET_DEFAULT
1429         bool "Default state of kernel stack offset randomization"
1430         depends on RANDOMIZE_KSTACK_OFFSET
1431         help
1432           Kernel stack offset randomization is controlled by kernel boot param
1433           "randomize_kstack_offset=on/off", and this config chooses the default
1434           boot state.
1436 config ARCH_OPTIONAL_KERNEL_RWX
1437         def_bool n
1439 config ARCH_OPTIONAL_KERNEL_RWX_DEFAULT
1440         def_bool n
1442 config ARCH_HAS_STRICT_KERNEL_RWX
1443         def_bool n
1445 config STRICT_KERNEL_RWX
1446         bool "Make kernel text and rodata read-only" if ARCH_OPTIONAL_KERNEL_RWX
1447         depends on ARCH_HAS_STRICT_KERNEL_RWX
1448         default !ARCH_OPTIONAL_KERNEL_RWX || ARCH_OPTIONAL_KERNEL_RWX_DEFAULT
1449         help
1450           If this is set, kernel text and rodata memory will be made read-only,
1451           and non-text memory will be made non-executable. This provides
1452           protection against certain security exploits (e.g. executing the heap
1453           or modifying text)
1455           These features are considered standard security practice these days.
1456           You should say Y here in almost all cases.
1458 config ARCH_HAS_STRICT_MODULE_RWX
1459         def_bool n
1461 config STRICT_MODULE_RWX
1462         bool "Set loadable kernel module data as NX and text as RO" if ARCH_OPTIONAL_KERNEL_RWX
1463         depends on ARCH_HAS_STRICT_MODULE_RWX && MODULES
1464         default !ARCH_OPTIONAL_KERNEL_RWX || ARCH_OPTIONAL_KERNEL_RWX_DEFAULT
1465         help
1466           If this is set, module text and rodata memory will be made read-only,
1467           and non-text memory will be made non-executable. This provides
1468           protection against certain security exploits (e.g. writing to text)
1470 # select if the architecture provides an asm/dma-direct.h header
1471 config ARCH_HAS_PHYS_TO_DMA
1472         bool
1474 config HAVE_ARCH_COMPILER_H
1475         bool
1476         help
1477           An architecture can select this if it provides an
1478           asm/compiler.h header that should be included after
1479           linux/compiler-*.h in order to override macro definitions that those
1480           headers generally provide.
1482 config HAVE_ARCH_PREL32_RELOCATIONS
1483         bool
1484         help
1485           May be selected by an architecture if it supports place-relative
1486           32-bit relocations, both in the toolchain and in the module loader,
1487           in which case relative references can be used in special sections
1488           for PCI fixup, initcalls etc which are only half the size on 64 bit
1489           architectures, and don't require runtime relocation on relocatable
1490           kernels.
1492 config ARCH_USE_MEMREMAP_PROT
1493         bool
1495 config LOCK_EVENT_COUNTS
1496         bool "Locking event counts collection"
1497         depends on DEBUG_FS
1498         help
1499           Enable light-weight counting of various locking related events
1500           in the system with minimal performance impact. This reduces
1501           the chance of application behavior change because of timing
1502           differences. The counts are reported via debugfs.
1504 # Select if the architecture has support for applying RELR relocations.
1505 config ARCH_HAS_RELR
1506         bool
1508 config RELR
1509         bool "Use RELR relocation packing"
1510         depends on ARCH_HAS_RELR && TOOLS_SUPPORT_RELR
1511         default y
1512         help
1513           Store the kernel's dynamic relocations in the RELR relocation packing
1514           format. Requires a compatible linker (LLD supports this feature), as
1515           well as compatible NM and OBJCOPY utilities (llvm-nm and llvm-objcopy
1516           are compatible).
1518 config ARCH_HAS_MEM_ENCRYPT
1519         bool
1521 config ARCH_HAS_CC_PLATFORM
1522         bool
1524 config HAVE_SPARSE_SYSCALL_NR
1525         bool
1526         help
1527           An architecture should select this if its syscall numbering is sparse
1528           to save space. For example, MIPS architecture has a syscall array with
1529           entries at 4000, 5000 and 6000 locations. This option turns on syscall
1530           related optimizations for a given architecture.
1532 config ARCH_HAS_VDSO_TIME_DATA
1533         bool
1535 config HAVE_STATIC_CALL
1536         bool
1538 config HAVE_STATIC_CALL_INLINE
1539         bool
1540         depends on HAVE_STATIC_CALL
1541         select OBJTOOL
1543 config HAVE_PREEMPT_DYNAMIC
1544         bool
1546 config HAVE_PREEMPT_DYNAMIC_CALL
1547         bool
1548         depends on HAVE_STATIC_CALL
1549         select HAVE_PREEMPT_DYNAMIC
1550         help
1551           An architecture should select this if it can handle the preemption
1552           model being selected at boot time using static calls.
1554           Where an architecture selects HAVE_STATIC_CALL_INLINE, any call to a
1555           preemption function will be patched directly.
1557           Where an architecture does not select HAVE_STATIC_CALL_INLINE, any
1558           call to a preemption function will go through a trampoline, and the
1559           trampoline will be patched.
1561           It is strongly advised to support inline static call to avoid any
1562           overhead.
1564 config HAVE_PREEMPT_DYNAMIC_KEY
1565         bool
1566         depends on HAVE_ARCH_JUMP_LABEL
1567         select HAVE_PREEMPT_DYNAMIC
1568         help
1569           An architecture should select this if it can handle the preemption
1570           model being selected at boot time using static keys.
1572           Each preemption function will be given an early return based on a
1573           static key. This should have slightly lower overhead than non-inline
1574           static calls, as this effectively inlines each trampoline into the
1575           start of its callee. This may avoid redundant work, and may
1576           integrate better with CFI schemes.
1578           This will have greater overhead than using inline static calls as
1579           the call to the preemption function cannot be entirely elided.
1581 config ARCH_WANT_LD_ORPHAN_WARN
1582         bool
1583         help
1584           An arch should select this symbol once all linker sections are explicitly
1585           included, size-asserted, or discarded in the linker scripts. This is
1586           important because we never want expected sections to be placed heuristically
1587           by the linker, since the locations of such sections can change between linker
1588           versions.
1590 config HAVE_ARCH_PFN_VALID
1591         bool
1593 config ARCH_SUPPORTS_DEBUG_PAGEALLOC
1594         bool
1596 config ARCH_SUPPORTS_PAGE_TABLE_CHECK
1597         bool
1599 config ARCH_SPLIT_ARG64
1600         bool
1601         help
1602           If a 32-bit architecture requires 64-bit arguments to be split into
1603           pairs of 32-bit arguments, select this option.
1605 config ARCH_HAS_ELFCORE_COMPAT
1606         bool
1608 config ARCH_HAS_PARANOID_L1D_FLUSH
1609         bool
1611 config ARCH_HAVE_TRACE_MMIO_ACCESS
1612         bool
1614 config DYNAMIC_SIGFRAME
1615         bool
1617 # Select, if arch has a named attribute group bound to NUMA device nodes.
1618 config HAVE_ARCH_NODE_DEV_GROUP
1619         bool
1621 config ARCH_HAS_HW_PTE_YOUNG
1622         bool
1623         help
1624           Architectures that select this option are capable of setting the
1625           accessed bit in PTE entries when using them as part of linear address
1626           translations. Architectures that require runtime check should select
1627           this option and override arch_has_hw_pte_young().
1629 config ARCH_HAS_NONLEAF_PMD_YOUNG
1630         bool
1631         help
1632           Architectures that select this option are capable of setting the
1633           accessed bit in non-leaf PMD entries when using them as part of linear
1634           address translations. Page table walkers that clear the accessed bit
1635           may use this capability to reduce their search space.
1637 config ARCH_HAS_KERNEL_FPU_SUPPORT
1638         bool
1639         help
1640           Architectures that select this option can run floating-point code in
1641           the kernel, as described in Documentation/core-api/floating-point.rst.
1643 source "kernel/gcov/Kconfig"
1645 source "scripts/gcc-plugins/Kconfig"
1647 config FUNCTION_ALIGNMENT_4B
1648         bool
1650 config FUNCTION_ALIGNMENT_8B
1651         bool
1653 config FUNCTION_ALIGNMENT_16B
1654         bool
1656 config FUNCTION_ALIGNMENT_32B
1657         bool
1659 config FUNCTION_ALIGNMENT_64B
1660         bool
1662 config FUNCTION_ALIGNMENT
1663         int
1664         default 64 if FUNCTION_ALIGNMENT_64B
1665         default 32 if FUNCTION_ALIGNMENT_32B
1666         default 16 if FUNCTION_ALIGNMENT_16B
1667         default 8 if FUNCTION_ALIGNMENT_8B
1668         default 4 if FUNCTION_ALIGNMENT_4B
1669         default 0
1671 config CC_HAS_MIN_FUNCTION_ALIGNMENT
1672         # Detect availability of the GCC option -fmin-function-alignment which
1673         # guarantees minimal alignment for all functions, unlike
1674         # -falign-functions which the compiler ignores for cold functions.
1675         def_bool $(cc-option, -fmin-function-alignment=8)
1677 config CC_HAS_SANE_FUNCTION_ALIGNMENT
1678         # Set if the guaranteed alignment with -fmin-function-alignment is
1679         # available or extra care is required in the kernel. Clang provides
1680         # strict alignment always, even with -falign-functions.
1681         def_bool CC_HAS_MIN_FUNCTION_ALIGNMENT || CC_IS_CLANG
1683 config ARCH_NEED_CMPXCHG_1_EMU
1684         bool
1686 endmenu