Merge tag 'sched-urgent-2020-12-27' of git://git.kernel.org/pub/scm/linux/kernel...
[linux/fpc-iii.git] / arch / arm / kernel / head-common.S
blob29b2eda136bba8cd1139d9ea878eeef3a53ab403
1 /* SPDX-License-Identifier: GPL-2.0-only */
2 /*
3  *  linux/arch/arm/kernel/head-common.S
4  *
5  *  Copyright (C) 1994-2002 Russell King
6  *  Copyright (c) 2003 ARM Limited
7  *  All Rights Reserved
8  */
9 #include <asm/assembler.h>
11 #define ATAG_CORE 0x54410001
12 #define ATAG_CORE_SIZE ((2*4 + 3*4) >> 2)
13 #define ATAG_CORE_SIZE_EMPTY ((2*4) >> 2)
15 #ifdef CONFIG_CPU_BIG_ENDIAN
16 #define OF_DT_MAGIC 0xd00dfeed
17 #else
18 #define OF_DT_MAGIC 0xedfe0dd0 /* 0xd00dfeed in big-endian */
19 #endif
22  * Exception handling.  Something went wrong and we can't proceed.  We
23  * ought to tell the user, but since we don't have any guarantee that
24  * we're even running on the right architecture, we do virtually nothing.
25  *
26  * If CONFIG_DEBUG_LL is set we try to print out something about the error
27  * and hope for the best (useful if bootloader fails to pass a proper
28  * machine ID for example).
29  */
30         __HEAD
32 /* Determine validity of the r2 atags pointer.  The heuristic requires
33  * that the pointer be aligned, in the first 16k of physical RAM and
34  * that the ATAG_CORE marker is first and present.  If CONFIG_OF_FLATTREE
35  * is selected, then it will also accept a dtb pointer.  Future revisions
36  * of this function may be more lenient with the physical address and
37  * may also be able to move the ATAGS block if necessary.
38  *
39  * Returns:
40  *  r2 either valid atags pointer, valid dtb pointer, or zero
41  *  r5, r6 corrupted
42  */
43 __vet_atags:
44         tst     r2, #0x3                        @ aligned?
45         bne     1f
47         ldr     r5, [r2, #0]
48 #ifdef CONFIG_OF_FLATTREE
49         ldr     r6, =OF_DT_MAGIC                @ is it a DTB?
50         cmp     r5, r6
51         beq     2f
52 #endif
53         cmp     r5, #ATAG_CORE_SIZE             @ is first tag ATAG_CORE?
54         cmpne   r5, #ATAG_CORE_SIZE_EMPTY
55         bne     1f
56         ldr     r5, [r2, #4]
57         ldr     r6, =ATAG_CORE
58         cmp     r5, r6
59         bne     1f
61 2:      ret     lr                              @ atag/dtb pointer is ok
63 1:      mov     r2, #0
64         ret     lr
65 ENDPROC(__vet_atags)
68  * The following fragment of code is executed with the MMU on in MMU mode,
69  * and uses absolute addresses; this is not position independent.
70  *
71  *  r0  = cp#15 control register (exc_ret for M-class)
72  *  r1  = machine ID
73  *  r2  = atags/dtb pointer
74  *  r9  = processor ID
75  */
76         __INIT
77 __mmap_switched:
79         mov     r7, r1
80         mov     r8, r2
81         mov     r10, r0
83         adr     r4, __mmap_switched_data
84         mov     fp, #0
86 #if defined(CONFIG_XIP_DEFLATED_DATA)
87    ARM( ldr     sp, [r4], #4 )
88  THUMB( ldr     sp, [r4] )
89  THUMB( add     r4, #4 )
90         bl      __inflate_kernel_data           @ decompress .data to RAM
91         teq     r0, #0
92         bne     __error
93 #elif defined(CONFIG_XIP_KERNEL)
94    ARM( ldmia   r4!, {r0, r1, r2, sp} )
95  THUMB( ldmia   r4!, {r0, r1, r2, r3} )
96  THUMB( mov     sp, r3 )
97         sub     r2, r2, r1
98         bl      __memcpy                        @ copy .data to RAM
99 #endif
101    ARM( ldmia   r4!, {r0, r1, sp} )
102  THUMB( ldmia   r4!, {r0, r1, r3} )
103  THUMB( mov     sp, r3 )
104         sub     r2, r1, r0
105         mov     r1, #0
106         bl      __memset                        @ clear .bss
108         ldmia   r4, {r0, r1, r2, r3}
109         str     r9, [r0]                        @ Save processor ID
110         str     r7, [r1]                        @ Save machine type
111         str     r8, [r2]                        @ Save atags pointer
112         cmp     r3, #0
113         strne   r10, [r3]                       @ Save control register values
114 #ifdef CONFIG_KASAN
115         bl      kasan_early_init
116 #endif
117         mov     lr, #0
118         b       start_kernel
119 ENDPROC(__mmap_switched)
121         .align  2
122         .type   __mmap_switched_data, %object
123 __mmap_switched_data:
124 #ifdef CONFIG_XIP_KERNEL
125 #ifndef CONFIG_XIP_DEFLATED_DATA
126         .long   _sdata                          @ r0
127         .long   __data_loc                      @ r1
128         .long   _edata_loc                      @ r2
129 #endif
130         .long   __bss_stop                      @ sp (temporary stack in .bss)
131 #endif
133         .long   __bss_start                     @ r0
134         .long   __bss_stop                      @ r1
135         .long   init_thread_union + THREAD_START_SP @ sp
137         .long   processor_id                    @ r0
138         .long   __machine_arch_type             @ r1
139         .long   __atags_pointer                 @ r2
140 #ifdef CONFIG_CPU_CP15
141         .long   cr_alignment                    @ r3
142 #else
143 M_CLASS(.long   exc_ret)                        @ r3
144 AR_CLASS(.long  0)                              @ r3
145 #endif
146         .size   __mmap_switched_data, . - __mmap_switched_data
148         __FINIT
149         .text
152  * This provides a C-API version of __lookup_processor_type
153  */
154 ENTRY(lookup_processor_type)
155         stmfd   sp!, {r4 - r6, r9, lr}
156         mov     r9, r0
157         bl      __lookup_processor_type
158         mov     r0, r5
159         ldmfd   sp!, {r4 - r6, r9, pc}
160 ENDPROC(lookup_processor_type)
163  * Read processor ID register (CP#15, CR0), and look up in the linker-built
164  * supported processor list.  Note that we can't use the absolute addresses
165  * for the __proc_info lists since we aren't running with the MMU on
166  * (and therefore, we are not in the correct address space).  We have to
167  * calculate the offset.
169  *      r9 = cpuid
170  * Returns:
171  *      r3, r4, r6 corrupted
172  *      r5 = proc_info pointer in physical address space
173  *      r9 = cpuid (preserved)
174  */
175 __lookup_processor_type:
176         /*
177          * Look in <asm/procinfo.h> for information about the __proc_info
178          * structure.
179          */
180         adr_l   r5, __proc_info_begin
181         adr_l   r6, __proc_info_end
182 1:      ldmia   r5, {r3, r4}                    @ value, mask
183         and     r4, r4, r9                      @ mask wanted bits
184         teq     r3, r4
185         beq     2f
186         add     r5, r5, #PROC_INFO_SZ           @ sizeof(proc_info_list)
187         cmp     r5, r6
188         blo     1b
189         mov     r5, #0                          @ unknown processor
190 2:      ret     lr
191 ENDPROC(__lookup_processor_type)
193 __error_lpae:
194 #ifdef CONFIG_DEBUG_LL
195         adr     r0, str_lpae
196         bl      printascii
197         b       __error
198 str_lpae: .asciz "\nError: Kernel with LPAE support, but CPU does not support LPAE.\n"
199 #else
200         b       __error
201 #endif
202         .align
203 ENDPROC(__error_lpae)
205 __error_p:
206 #ifdef CONFIG_DEBUG_LL
207         adr     r0, str_p1
208         bl      printascii
209         mov     r0, r9
210         bl      printhex8
211         adr     r0, str_p2
212         bl      printascii
213         b       __error
214 str_p1: .asciz  "\nError: unrecognized/unsupported processor variant (0x"
215 str_p2: .asciz  ").\n"
216         .align
217 #endif
218 ENDPROC(__error_p)
220 __error:
221 #ifdef CONFIG_ARCH_RPC
223  * Turn the screen red on a error - RiscPC only.
224  */
225         mov     r0, #0x02000000
226         mov     r3, #0x11
227         orr     r3, r3, r3, lsl #8
228         orr     r3, r3, r3, lsl #16
229         str     r3, [r0], #4
230         str     r3, [r0], #4
231         str     r3, [r0], #4
232         str     r3, [r0], #4
233 #endif
234 1:      mov     r0, r0
235         b       1b
236 ENDPROC(__error)