staging: rtl8192u: remove redundant assignment to pointer crypt
[linux/fpc-iii.git] / arch / arm64 / kernel / entry.S
blob320a30dbe35efb02e4f7d5bd52c82189e1f4400c
1 /* SPDX-License-Identifier: GPL-2.0-only */
2 /*
3  * Low-level exception handling code
4  *
5  * Copyright (C) 2012 ARM Ltd.
6  * Authors:     Catalin Marinas <catalin.marinas@arm.com>
7  *              Will Deacon <will.deacon@arm.com>
8  */
10 #include <linux/arm-smccc.h>
11 #include <linux/init.h>
12 #include <linux/linkage.h>
14 #include <asm/alternative.h>
15 #include <asm/assembler.h>
16 #include <asm/asm-offsets.h>
17 #include <asm/cpufeature.h>
18 #include <asm/errno.h>
19 #include <asm/esr.h>
20 #include <asm/irq.h>
21 #include <asm/memory.h>
22 #include <asm/mmu.h>
23 #include <asm/processor.h>
24 #include <asm/ptrace.h>
25 #include <asm/thread_info.h>
26 #include <asm/asm-uaccess.h>
27 #include <asm/unistd.h>
30  * Context tracking subsystem.  Used to instrument transitions
31  * between user and kernel mode.
32  */
33         .macro ct_user_exit
34 #ifdef CONFIG_CONTEXT_TRACKING
35         bl      context_tracking_user_exit
36 #endif
37         .endm
39         .macro ct_user_enter
40 #ifdef CONFIG_CONTEXT_TRACKING
41         bl      context_tracking_user_enter
42 #endif
43         .endm
45         .macro  clear_gp_regs
46         .irp    n,0,1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,18,19,20,21,22,23,24,25,26,27,28,29
47         mov     x\n, xzr
48         .endr
49         .endm
52  * Bad Abort numbers
53  *-----------------
54  */
55 #define BAD_SYNC        0
56 #define BAD_IRQ         1
57 #define BAD_FIQ         2
58 #define BAD_ERROR       3
60         .macro kernel_ventry, el, label, regsize = 64
61         .align 7
62 #ifdef CONFIG_UNMAP_KERNEL_AT_EL0
63 alternative_if ARM64_UNMAP_KERNEL_AT_EL0
64         .if     \el == 0
65         .if     \regsize == 64
66         mrs     x30, tpidrro_el0
67         msr     tpidrro_el0, xzr
68         .else
69         mov     x30, xzr
70         .endif
71         .endif
72 alternative_else_nop_endif
73 #endif
75         sub     sp, sp, #S_FRAME_SIZE
76 #ifdef CONFIG_VMAP_STACK
77         /*
78          * Test whether the SP has overflowed, without corrupting a GPR.
79          * Task and IRQ stacks are aligned to (1 << THREAD_SHIFT).
80          */
81         add     sp, sp, x0                      // sp' = sp + x0
82         sub     x0, sp, x0                      // x0' = sp' - x0 = (sp + x0) - x0 = sp
83         tbnz    x0, #THREAD_SHIFT, 0f
84         sub     x0, sp, x0                      // x0'' = sp' - x0' = (sp + x0) - sp = x0
85         sub     sp, sp, x0                      // sp'' = sp' - x0 = (sp + x0) - x0 = sp
86         b       el\()\el\()_\label
89         /*
90          * Either we've just detected an overflow, or we've taken an exception
91          * while on the overflow stack. Either way, we won't return to
92          * userspace, and can clobber EL0 registers to free up GPRs.
93          */
95         /* Stash the original SP (minus S_FRAME_SIZE) in tpidr_el0. */
96         msr     tpidr_el0, x0
98         /* Recover the original x0 value and stash it in tpidrro_el0 */
99         sub     x0, sp, x0
100         msr     tpidrro_el0, x0
102         /* Switch to the overflow stack */
103         adr_this_cpu sp, overflow_stack + OVERFLOW_STACK_SIZE, x0
105         /*
106          * Check whether we were already on the overflow stack. This may happen
107          * after panic() re-enables interrupts.
108          */
109         mrs     x0, tpidr_el0                   // sp of interrupted context
110         sub     x0, sp, x0                      // delta with top of overflow stack
111         tst     x0, #~(OVERFLOW_STACK_SIZE - 1) // within range?
112         b.ne    __bad_stack                     // no? -> bad stack pointer
114         /* We were already on the overflow stack. Restore sp/x0 and carry on. */
115         sub     sp, sp, x0
116         mrs     x0, tpidrro_el0
117 #endif
118         b       el\()\el\()_\label
119         .endm
121         .macro tramp_alias, dst, sym
122         mov_q   \dst, TRAMP_VALIAS
123         add     \dst, \dst, #(\sym - .entry.tramp.text)
124         .endm
126         // This macro corrupts x0-x3. It is the caller's duty
127         // to save/restore them if required.
128         .macro  apply_ssbd, state, tmp1, tmp2
129 #ifdef CONFIG_ARM64_SSBD
130 alternative_cb  arm64_enable_wa2_handling
131         b       .L__asm_ssbd_skip\@
132 alternative_cb_end
133         ldr_this_cpu    \tmp2, arm64_ssbd_callback_required, \tmp1
134         cbz     \tmp2,  .L__asm_ssbd_skip\@
135         ldr     \tmp2, [tsk, #TSK_TI_FLAGS]
136         tbnz    \tmp2, #TIF_SSBD, .L__asm_ssbd_skip\@
137         mov     w0, #ARM_SMCCC_ARCH_WORKAROUND_2
138         mov     w1, #\state
139 alternative_cb  arm64_update_smccc_conduit
140         nop                                     // Patched to SMC/HVC #0
141 alternative_cb_end
142 .L__asm_ssbd_skip\@:
143 #endif
144         .endm
146         .macro  kernel_entry, el, regsize = 64
147         .if     \regsize == 32
148         mov     w0, w0                          // zero upper 32 bits of x0
149         .endif
150         stp     x0, x1, [sp, #16 * 0]
151         stp     x2, x3, [sp, #16 * 1]
152         stp     x4, x5, [sp, #16 * 2]
153         stp     x6, x7, [sp, #16 * 3]
154         stp     x8, x9, [sp, #16 * 4]
155         stp     x10, x11, [sp, #16 * 5]
156         stp     x12, x13, [sp, #16 * 6]
157         stp     x14, x15, [sp, #16 * 7]
158         stp     x16, x17, [sp, #16 * 8]
159         stp     x18, x19, [sp, #16 * 9]
160         stp     x20, x21, [sp, #16 * 10]
161         stp     x22, x23, [sp, #16 * 11]
162         stp     x24, x25, [sp, #16 * 12]
163         stp     x26, x27, [sp, #16 * 13]
164         stp     x28, x29, [sp, #16 * 14]
166         .if     \el == 0
167         clear_gp_regs
168         mrs     x21, sp_el0
169         ldr_this_cpu    tsk, __entry_task, x20  // Ensure MDSCR_EL1.SS is clear,
170         ldr     x19, [tsk, #TSK_TI_FLAGS]       // since we can unmask debug
171         disable_step_tsk x19, x20               // exceptions when scheduling.
173         apply_ssbd 1, x22, x23
175         .else
176         add     x21, sp, #S_FRAME_SIZE
177         get_current_task tsk
178         /* Save the task's original addr_limit and set USER_DS */
179         ldr     x20, [tsk, #TSK_TI_ADDR_LIMIT]
180         str     x20, [sp, #S_ORIG_ADDR_LIMIT]
181         mov     x20, #USER_DS
182         str     x20, [tsk, #TSK_TI_ADDR_LIMIT]
183         /* No need to reset PSTATE.UAO, hardware's already set it to 0 for us */
184         .endif /* \el == 0 */
185         mrs     x22, elr_el1
186         mrs     x23, spsr_el1
187         stp     lr, x21, [sp, #S_LR]
189         /*
190          * In order to be able to dump the contents of struct pt_regs at the
191          * time the exception was taken (in case we attempt to walk the call
192          * stack later), chain it together with the stack frames.
193          */
194         .if \el == 0
195         stp     xzr, xzr, [sp, #S_STACKFRAME]
196         .else
197         stp     x29, x22, [sp, #S_STACKFRAME]
198         .endif
199         add     x29, sp, #S_STACKFRAME
201 #ifdef CONFIG_ARM64_SW_TTBR0_PAN
202         /*
203          * Set the TTBR0 PAN bit in SPSR. When the exception is taken from
204          * EL0, there is no need to check the state of TTBR0_EL1 since
205          * accesses are always enabled.
206          * Note that the meaning of this bit differs from the ARMv8.1 PAN
207          * feature as all TTBR0_EL1 accesses are disabled, not just those to
208          * user mappings.
209          */
210 alternative_if ARM64_HAS_PAN
211         b       1f                              // skip TTBR0 PAN
212 alternative_else_nop_endif
214         .if     \el != 0
215         mrs     x21, ttbr0_el1
216         tst     x21, #TTBR_ASID_MASK            // Check for the reserved ASID
217         orr     x23, x23, #PSR_PAN_BIT          // Set the emulated PAN in the saved SPSR
218         b.eq    1f                              // TTBR0 access already disabled
219         and     x23, x23, #~PSR_PAN_BIT         // Clear the emulated PAN in the saved SPSR
220         .endif
222         __uaccess_ttbr0_disable x21
224 #endif
226         stp     x22, x23, [sp, #S_PC]
228         /* Not in a syscall by default (el0_svc overwrites for real syscall) */
229         .if     \el == 0
230         mov     w21, #NO_SYSCALL
231         str     w21, [sp, #S_SYSCALLNO]
232         .endif
234         /*
235          * Set sp_el0 to current thread_info.
236          */
237         .if     \el == 0
238         msr     sp_el0, tsk
239         .endif
241         /* Save pmr */
242 alternative_if ARM64_HAS_IRQ_PRIO_MASKING
243         mrs_s   x20, SYS_ICC_PMR_EL1
244         str     x20, [sp, #S_PMR_SAVE]
245 alternative_else_nop_endif
247         /*
248          * Registers that may be useful after this macro is invoked:
249          *
250          * x20 - ICC_PMR_EL1
251          * x21 - aborted SP
252          * x22 - aborted PC
253          * x23 - aborted PSTATE
254         */
255         .endm
257         .macro  kernel_exit, el
258         .if     \el != 0
259         disable_daif
261         /* Restore the task's original addr_limit. */
262         ldr     x20, [sp, #S_ORIG_ADDR_LIMIT]
263         str     x20, [tsk, #TSK_TI_ADDR_LIMIT]
265         /* No need to restore UAO, it will be restored from SPSR_EL1 */
266         .endif
268         /* Restore pmr */
269 alternative_if ARM64_HAS_IRQ_PRIO_MASKING
270         ldr     x20, [sp, #S_PMR_SAVE]
271         msr_s   SYS_ICC_PMR_EL1, x20
272         /* Ensure priority change is seen by redistributor */
273         dsb     sy
274 alternative_else_nop_endif
276         ldp     x21, x22, [sp, #S_PC]           // load ELR, SPSR
277         .if     \el == 0
278         ct_user_enter
279         .endif
281 #ifdef CONFIG_ARM64_SW_TTBR0_PAN
282         /*
283          * Restore access to TTBR0_EL1. If returning to EL0, no need for SPSR
284          * PAN bit checking.
285          */
286 alternative_if ARM64_HAS_PAN
287         b       2f                              // skip TTBR0 PAN
288 alternative_else_nop_endif
290         .if     \el != 0
291         tbnz    x22, #22, 1f                    // Skip re-enabling TTBR0 access if the PSR_PAN_BIT is set
292         .endif
294         __uaccess_ttbr0_enable x0, x1
296         .if     \el == 0
297         /*
298          * Enable errata workarounds only if returning to user. The only
299          * workaround currently required for TTBR0_EL1 changes are for the
300          * Cavium erratum 27456 (broadcast TLBI instructions may cause I-cache
301          * corruption).
302          */
303         bl      post_ttbr_update_workaround
304         .endif
306         .if     \el != 0
307         and     x22, x22, #~PSR_PAN_BIT         // ARMv8.0 CPUs do not understand this bit
308         .endif
310 #endif
312         .if     \el == 0
313         ldr     x23, [sp, #S_SP]                // load return stack pointer
314         msr     sp_el0, x23
315         tst     x22, #PSR_MODE32_BIT            // native task?
316         b.eq    3f
318 #ifdef CONFIG_ARM64_ERRATUM_845719
319 alternative_if ARM64_WORKAROUND_845719
320 #ifdef CONFIG_PID_IN_CONTEXTIDR
321         mrs     x29, contextidr_el1
322         msr     contextidr_el1, x29
323 #else
324         msr contextidr_el1, xzr
325 #endif
326 alternative_else_nop_endif
327 #endif
329 #ifdef CONFIG_ARM64_ERRATUM_1418040
330 alternative_if_not ARM64_WORKAROUND_1418040
331         b       4f
332 alternative_else_nop_endif
333         /*
334          * if (x22.mode32 == cntkctl_el1.el0vcten)
335          *     cntkctl_el1.el0vcten = ~cntkctl_el1.el0vcten
336          */
337         mrs     x1, cntkctl_el1
338         eon     x0, x1, x22, lsr #3
339         tbz     x0, #1, 4f
340         eor     x1, x1, #2      // ARCH_TIMER_USR_VCT_ACCESS_EN
341         msr     cntkctl_el1, x1
343 #endif
344         apply_ssbd 0, x0, x1
345         .endif
347         msr     elr_el1, x21                    // set up the return data
348         msr     spsr_el1, x22
349         ldp     x0, x1, [sp, #16 * 0]
350         ldp     x2, x3, [sp, #16 * 1]
351         ldp     x4, x5, [sp, #16 * 2]
352         ldp     x6, x7, [sp, #16 * 3]
353         ldp     x8, x9, [sp, #16 * 4]
354         ldp     x10, x11, [sp, #16 * 5]
355         ldp     x12, x13, [sp, #16 * 6]
356         ldp     x14, x15, [sp, #16 * 7]
357         ldp     x16, x17, [sp, #16 * 8]
358         ldp     x18, x19, [sp, #16 * 9]
359         ldp     x20, x21, [sp, #16 * 10]
360         ldp     x22, x23, [sp, #16 * 11]
361         ldp     x24, x25, [sp, #16 * 12]
362         ldp     x26, x27, [sp, #16 * 13]
363         ldp     x28, x29, [sp, #16 * 14]
364         ldr     lr, [sp, #S_LR]
365         add     sp, sp, #S_FRAME_SIZE           // restore sp
367         .if     \el == 0
368 alternative_insn eret, nop, ARM64_UNMAP_KERNEL_AT_EL0
369 #ifdef CONFIG_UNMAP_KERNEL_AT_EL0
370         bne     5f
371         msr     far_el1, x30
372         tramp_alias     x30, tramp_exit_native
373         br      x30
375         tramp_alias     x30, tramp_exit_compat
376         br      x30
377 #endif
378         .else
379         eret
380         .endif
381         sb
382         .endm
384         .macro  irq_stack_entry
385         mov     x19, sp                 // preserve the original sp
387         /*
388          * Compare sp with the base of the task stack.
389          * If the top ~(THREAD_SIZE - 1) bits match, we are on a task stack,
390          * and should switch to the irq stack.
391          */
392         ldr     x25, [tsk, TSK_STACK]
393         eor     x25, x25, x19
394         and     x25, x25, #~(THREAD_SIZE - 1)
395         cbnz    x25, 9998f
397         ldr_this_cpu x25, irq_stack_ptr, x26
398         mov     x26, #IRQ_STACK_SIZE
399         add     x26, x25, x26
401         /* switch to the irq stack */
402         mov     sp, x26
403 9998:
404         .endm
406         /*
407          * x19 should be preserved between irq_stack_entry and
408          * irq_stack_exit.
409          */
410         .macro  irq_stack_exit
411         mov     sp, x19
412         .endm
414 /* GPRs used by entry code */
415 tsk     .req    x28             // current thread_info
418  * Interrupt handling.
419  */
420         .macro  irq_handler
421         ldr_l   x1, handle_arch_irq
422         mov     x0, sp
423         irq_stack_entry
424         blr     x1
425         irq_stack_exit
426         .endm
428 #ifdef CONFIG_ARM64_PSEUDO_NMI
429         /*
430          * Set res to 0 if irqs were unmasked in interrupted context.
431          * Otherwise set res to non-0 value.
432          */
433         .macro  test_irqs_unmasked res:req, pmr:req
434 alternative_if ARM64_HAS_IRQ_PRIO_MASKING
435         sub     \res, \pmr, #GIC_PRIO_IRQON
436 alternative_else
437         mov     \res, xzr
438 alternative_endif
439         .endm
440 #endif
442         .macro  gic_prio_kentry_setup, tmp:req
443 #ifdef CONFIG_ARM64_PSEUDO_NMI
444         alternative_if ARM64_HAS_IRQ_PRIO_MASKING
445         mov     \tmp, #(GIC_PRIO_PSR_I_SET | GIC_PRIO_IRQON)
446         msr_s   SYS_ICC_PMR_EL1, \tmp
447         alternative_else_nop_endif
448 #endif
449         .endm
451         .macro  gic_prio_irq_setup, pmr:req, tmp:req
452 #ifdef CONFIG_ARM64_PSEUDO_NMI
453         alternative_if ARM64_HAS_IRQ_PRIO_MASKING
454         orr     \tmp, \pmr, #GIC_PRIO_PSR_I_SET
455         msr_s   SYS_ICC_PMR_EL1, \tmp
456         alternative_else_nop_endif
457 #endif
458         .endm
460         .text
463  * Exception vectors.
464  */
465         .pushsection ".entry.text", "ax"
467         .align  11
468 ENTRY(vectors)
469         kernel_ventry   1, sync_invalid                 // Synchronous EL1t
470         kernel_ventry   1, irq_invalid                  // IRQ EL1t
471         kernel_ventry   1, fiq_invalid                  // FIQ EL1t
472         kernel_ventry   1, error_invalid                // Error EL1t
474         kernel_ventry   1, sync                         // Synchronous EL1h
475         kernel_ventry   1, irq                          // IRQ EL1h
476         kernel_ventry   1, fiq_invalid                  // FIQ EL1h
477         kernel_ventry   1, error                        // Error EL1h
479         kernel_ventry   0, sync                         // Synchronous 64-bit EL0
480         kernel_ventry   0, irq                          // IRQ 64-bit EL0
481         kernel_ventry   0, fiq_invalid                  // FIQ 64-bit EL0
482         kernel_ventry   0, error                        // Error 64-bit EL0
484 #ifdef CONFIG_COMPAT
485         kernel_ventry   0, sync_compat, 32              // Synchronous 32-bit EL0
486         kernel_ventry   0, irq_compat, 32               // IRQ 32-bit EL0
487         kernel_ventry   0, fiq_invalid_compat, 32       // FIQ 32-bit EL0
488         kernel_ventry   0, error_compat, 32             // Error 32-bit EL0
489 #else
490         kernel_ventry   0, sync_invalid, 32             // Synchronous 32-bit EL0
491         kernel_ventry   0, irq_invalid, 32              // IRQ 32-bit EL0
492         kernel_ventry   0, fiq_invalid, 32              // FIQ 32-bit EL0
493         kernel_ventry   0, error_invalid, 32            // Error 32-bit EL0
494 #endif
495 END(vectors)
497 #ifdef CONFIG_VMAP_STACK
498         /*
499          * We detected an overflow in kernel_ventry, which switched to the
500          * overflow stack. Stash the exception regs, and head to our overflow
501          * handler.
502          */
503 __bad_stack:
504         /* Restore the original x0 value */
505         mrs     x0, tpidrro_el0
507         /*
508          * Store the original GPRs to the new stack. The orginal SP (minus
509          * S_FRAME_SIZE) was stashed in tpidr_el0 by kernel_ventry.
510          */
511         sub     sp, sp, #S_FRAME_SIZE
512         kernel_entry 1
513         mrs     x0, tpidr_el0
514         add     x0, x0, #S_FRAME_SIZE
515         str     x0, [sp, #S_SP]
517         /* Stash the regs for handle_bad_stack */
518         mov     x0, sp
520         /* Time to die */
521         bl      handle_bad_stack
522         ASM_BUG()
523 #endif /* CONFIG_VMAP_STACK */
526  * Invalid mode handlers
527  */
528         .macro  inv_entry, el, reason, regsize = 64
529         kernel_entry \el, \regsize
530         mov     x0, sp
531         mov     x1, #\reason
532         mrs     x2, esr_el1
533         bl      bad_mode
534         ASM_BUG()
535         .endm
537 el0_sync_invalid:
538         inv_entry 0, BAD_SYNC
539 ENDPROC(el0_sync_invalid)
541 el0_irq_invalid:
542         inv_entry 0, BAD_IRQ
543 ENDPROC(el0_irq_invalid)
545 el0_fiq_invalid:
546         inv_entry 0, BAD_FIQ
547 ENDPROC(el0_fiq_invalid)
549 el0_error_invalid:
550         inv_entry 0, BAD_ERROR
551 ENDPROC(el0_error_invalid)
553 #ifdef CONFIG_COMPAT
554 el0_fiq_invalid_compat:
555         inv_entry 0, BAD_FIQ, 32
556 ENDPROC(el0_fiq_invalid_compat)
557 #endif
559 el1_sync_invalid:
560         inv_entry 1, BAD_SYNC
561 ENDPROC(el1_sync_invalid)
563 el1_irq_invalid:
564         inv_entry 1, BAD_IRQ
565 ENDPROC(el1_irq_invalid)
567 el1_fiq_invalid:
568         inv_entry 1, BAD_FIQ
569 ENDPROC(el1_fiq_invalid)
571 el1_error_invalid:
572         inv_entry 1, BAD_ERROR
573 ENDPROC(el1_error_invalid)
576  * EL1 mode handlers.
577  */
578         .align  6
579 el1_sync:
580         kernel_entry 1
581         mrs     x1, esr_el1                     // read the syndrome register
582         lsr     x24, x1, #ESR_ELx_EC_SHIFT      // exception class
583         cmp     x24, #ESR_ELx_EC_DABT_CUR       // data abort in EL1
584         b.eq    el1_da
585         cmp     x24, #ESR_ELx_EC_IABT_CUR       // instruction abort in EL1
586         b.eq    el1_ia
587         cmp     x24, #ESR_ELx_EC_SYS64          // configurable trap
588         b.eq    el1_undef
589         cmp     x24, #ESR_ELx_EC_PC_ALIGN       // pc alignment exception
590         b.eq    el1_pc
591         cmp     x24, #ESR_ELx_EC_UNKNOWN        // unknown exception in EL1
592         b.eq    el1_undef
593         cmp     x24, #ESR_ELx_EC_BREAKPT_CUR    // debug exception in EL1
594         b.ge    el1_dbg
595         b       el1_inv
597 el1_ia:
598         /*
599          * Fall through to the Data abort case
600          */
601 el1_da:
602         /*
603          * Data abort handling
604          */
605         mrs     x3, far_el1
606         inherit_daif    pstate=x23, tmp=x2
607         clear_address_tag x0, x3
608         mov     x2, sp                          // struct pt_regs
609         bl      do_mem_abort
611         kernel_exit 1
612 el1_pc:
613         /*
614          * PC alignment exception handling. We don't handle SP alignment faults,
615          * since we will have hit a recursive exception when trying to push the
616          * initial pt_regs.
617          */
618         mrs     x0, far_el1
619         inherit_daif    pstate=x23, tmp=x2
620         mov     x2, sp
621         bl      do_sp_pc_abort
622         ASM_BUG()
623 el1_undef:
624         /*
625          * Undefined instruction
626          */
627         inherit_daif    pstate=x23, tmp=x2
628         mov     x0, sp
629         bl      do_undefinstr
630         kernel_exit 1
631 el1_dbg:
632         /*
633          * Debug exception handling
634          */
635         cmp     x24, #ESR_ELx_EC_BRK64          // if BRK64
636         cinc    x24, x24, eq                    // set bit '0'
637         tbz     x24, #0, el1_inv                // EL1 only
638         gic_prio_kentry_setup tmp=x3
639         mrs     x0, far_el1
640         mov     x2, sp                          // struct pt_regs
641         bl      do_debug_exception
642         kernel_exit 1
643 el1_inv:
644         // TODO: add support for undefined instructions in kernel mode
645         inherit_daif    pstate=x23, tmp=x2
646         mov     x0, sp
647         mov     x2, x1
648         mov     x1, #BAD_SYNC
649         bl      bad_mode
650         ASM_BUG()
651 ENDPROC(el1_sync)
653         .align  6
654 el1_irq:
655         kernel_entry 1
656         gic_prio_irq_setup pmr=x20, tmp=x1
657         enable_da_f
659 #ifdef CONFIG_ARM64_PSEUDO_NMI
660         test_irqs_unmasked      res=x0, pmr=x20
661         cbz     x0, 1f
662         bl      asm_nmi_enter
664 #endif
666 #ifdef CONFIG_TRACE_IRQFLAGS
667         bl      trace_hardirqs_off
668 #endif
670         irq_handler
672 #ifdef CONFIG_PREEMPT
673         ldr     x24, [tsk, #TSK_TI_PREEMPT]     // get preempt count
674 alternative_if ARM64_HAS_IRQ_PRIO_MASKING
675         /*
676          * DA_F were cleared at start of handling. If anything is set in DAIF,
677          * we come back from an NMI, so skip preemption
678          */
679         mrs     x0, daif
680         orr     x24, x24, x0
681 alternative_else_nop_endif
682         cbnz    x24, 1f                         // preempt count != 0 || NMI return path
683         bl      preempt_schedule_irq            // irq en/disable is done inside
685 #endif
687 #ifdef CONFIG_ARM64_PSEUDO_NMI
688         /*
689          * When using IRQ priority masking, we can get spurious interrupts while
690          * PMR is set to GIC_PRIO_IRQOFF. An NMI might also have occurred in a
691          * section with interrupts disabled. Skip tracing in those cases.
692          */
693         test_irqs_unmasked      res=x0, pmr=x20
694         cbz     x0, 1f
695         bl      asm_nmi_exit
697 #endif
699 #ifdef CONFIG_TRACE_IRQFLAGS
700 #ifdef CONFIG_ARM64_PSEUDO_NMI
701         test_irqs_unmasked      res=x0, pmr=x20
702         cbnz    x0, 1f
703 #endif
704         bl      trace_hardirqs_on
706 #endif
708         kernel_exit 1
709 ENDPROC(el1_irq)
712  * EL0 mode handlers.
713  */
714         .align  6
715 el0_sync:
716         kernel_entry 0
717         mrs     x25, esr_el1                    // read the syndrome register
718         lsr     x24, x25, #ESR_ELx_EC_SHIFT     // exception class
719         cmp     x24, #ESR_ELx_EC_SVC64          // SVC in 64-bit state
720         b.eq    el0_svc
721         cmp     x24, #ESR_ELx_EC_DABT_LOW       // data abort in EL0
722         b.eq    el0_da
723         cmp     x24, #ESR_ELx_EC_IABT_LOW       // instruction abort in EL0
724         b.eq    el0_ia
725         cmp     x24, #ESR_ELx_EC_FP_ASIMD       // FP/ASIMD access
726         b.eq    el0_fpsimd_acc
727         cmp     x24, #ESR_ELx_EC_SVE            // SVE access
728         b.eq    el0_sve_acc
729         cmp     x24, #ESR_ELx_EC_FP_EXC64       // FP/ASIMD exception
730         b.eq    el0_fpsimd_exc
731         cmp     x24, #ESR_ELx_EC_SYS64          // configurable trap
732         ccmp    x24, #ESR_ELx_EC_WFx, #4, ne
733         b.eq    el0_sys
734         cmp     x24, #ESR_ELx_EC_SP_ALIGN       // stack alignment exception
735         b.eq    el0_sp
736         cmp     x24, #ESR_ELx_EC_PC_ALIGN       // pc alignment exception
737         b.eq    el0_pc
738         cmp     x24, #ESR_ELx_EC_UNKNOWN        // unknown exception in EL0
739         b.eq    el0_undef
740         cmp     x24, #ESR_ELx_EC_BREAKPT_LOW    // debug exception in EL0
741         b.ge    el0_dbg
742         b       el0_inv
744 #ifdef CONFIG_COMPAT
745         .align  6
746 el0_sync_compat:
747         kernel_entry 0, 32
748         mrs     x25, esr_el1                    // read the syndrome register
749         lsr     x24, x25, #ESR_ELx_EC_SHIFT     // exception class
750         cmp     x24, #ESR_ELx_EC_SVC32          // SVC in 32-bit state
751         b.eq    el0_svc_compat
752         cmp     x24, #ESR_ELx_EC_DABT_LOW       // data abort in EL0
753         b.eq    el0_da
754         cmp     x24, #ESR_ELx_EC_IABT_LOW       // instruction abort in EL0
755         b.eq    el0_ia
756         cmp     x24, #ESR_ELx_EC_FP_ASIMD       // FP/ASIMD access
757         b.eq    el0_fpsimd_acc
758         cmp     x24, #ESR_ELx_EC_FP_EXC32       // FP/ASIMD exception
759         b.eq    el0_fpsimd_exc
760         cmp     x24, #ESR_ELx_EC_PC_ALIGN       // pc alignment exception
761         b.eq    el0_pc
762         cmp     x24, #ESR_ELx_EC_UNKNOWN        // unknown exception in EL0
763         b.eq    el0_undef
764         cmp     x24, #ESR_ELx_EC_CP15_32        // CP15 MRC/MCR trap
765         b.eq    el0_cp15
766         cmp     x24, #ESR_ELx_EC_CP15_64        // CP15 MRRC/MCRR trap
767         b.eq    el0_cp15
768         cmp     x24, #ESR_ELx_EC_CP14_MR        // CP14 MRC/MCR trap
769         b.eq    el0_undef
770         cmp     x24, #ESR_ELx_EC_CP14_LS        // CP14 LDC/STC trap
771         b.eq    el0_undef
772         cmp     x24, #ESR_ELx_EC_CP14_64        // CP14 MRRC/MCRR trap
773         b.eq    el0_undef
774         cmp     x24, #ESR_ELx_EC_BREAKPT_LOW    // debug exception in EL0
775         b.ge    el0_dbg
776         b       el0_inv
777 el0_svc_compat:
778         mov     x0, sp
779         bl      el0_svc_compat_handler
780         b       ret_to_user
782         .align  6
783 el0_irq_compat:
784         kernel_entry 0, 32
785         b       el0_irq_naked
787 el0_error_compat:
788         kernel_entry 0, 32
789         b       el0_error_naked
791 el0_cp15:
792         /*
793          * Trapped CP15 (MRC, MCR, MRRC, MCRR) instructions
794          */
795         enable_daif
796         ct_user_exit
797         mov     x0, x25
798         mov     x1, sp
799         bl      do_cp15instr
800         b       ret_to_user
801 #endif
803 el0_da:
804         /*
805          * Data abort handling
806          */
807         mrs     x26, far_el1
808         enable_daif
809         ct_user_exit
810         clear_address_tag x0, x26
811         mov     x1, x25
812         mov     x2, sp
813         bl      do_mem_abort
814         b       ret_to_user
815 el0_ia:
816         /*
817          * Instruction abort handling
818          */
819         mrs     x26, far_el1
820         gic_prio_kentry_setup tmp=x0
821         enable_da_f
822 #ifdef CONFIG_TRACE_IRQFLAGS
823         bl      trace_hardirqs_off
824 #endif
825         ct_user_exit
826         mov     x0, x26
827         mov     x1, x25
828         mov     x2, sp
829         bl      do_el0_ia_bp_hardening
830         b       ret_to_user
831 el0_fpsimd_acc:
832         /*
833          * Floating Point or Advanced SIMD access
834          */
835         enable_daif
836         ct_user_exit
837         mov     x0, x25
838         mov     x1, sp
839         bl      do_fpsimd_acc
840         b       ret_to_user
841 el0_sve_acc:
842         /*
843          * Scalable Vector Extension access
844          */
845         enable_daif
846         ct_user_exit
847         mov     x0, x25
848         mov     x1, sp
849         bl      do_sve_acc
850         b       ret_to_user
851 el0_fpsimd_exc:
852         /*
853          * Floating Point, Advanced SIMD or SVE exception
854          */
855         enable_daif
856         ct_user_exit
857         mov     x0, x25
858         mov     x1, sp
859         bl      do_fpsimd_exc
860         b       ret_to_user
861 el0_sp:
862         ldr     x26, [sp, #S_SP]
863         b       el0_sp_pc
864 el0_pc:
865         mrs     x26, far_el1
866 el0_sp_pc:
867         /*
868          * Stack or PC alignment exception handling
869          */
870         gic_prio_kentry_setup tmp=x0
871         enable_da_f
872 #ifdef CONFIG_TRACE_IRQFLAGS
873         bl      trace_hardirqs_off
874 #endif
875         ct_user_exit
876         mov     x0, x26
877         mov     x1, x25
878         mov     x2, sp
879         bl      do_sp_pc_abort
880         b       ret_to_user
881 el0_undef:
882         /*
883          * Undefined instruction
884          */
885         enable_daif
886         ct_user_exit
887         mov     x0, sp
888         bl      do_undefinstr
889         b       ret_to_user
890 el0_sys:
891         /*
892          * System instructions, for trapped cache maintenance instructions
893          */
894         enable_daif
895         ct_user_exit
896         mov     x0, x25
897         mov     x1, sp
898         bl      do_sysinstr
899         b       ret_to_user
900 el0_dbg:
901         /*
902          * Debug exception handling
903          */
904         tbnz    x24, #0, el0_inv                // EL0 only
905         gic_prio_kentry_setup tmp=x3
906         mrs     x0, far_el1
907         mov     x1, x25
908         mov     x2, sp
909         bl      do_debug_exception
910         enable_da_f
911         ct_user_exit
912         b       ret_to_user
913 el0_inv:
914         enable_daif
915         ct_user_exit
916         mov     x0, sp
917         mov     x1, #BAD_SYNC
918         mov     x2, x25
919         bl      bad_el0_sync
920         b       ret_to_user
921 ENDPROC(el0_sync)
923         .align  6
924 el0_irq:
925         kernel_entry 0
926 el0_irq_naked:
927         gic_prio_irq_setup pmr=x20, tmp=x0
928         enable_da_f
930 #ifdef CONFIG_TRACE_IRQFLAGS
931         bl      trace_hardirqs_off
932 #endif
934         ct_user_exit
935 #ifdef CONFIG_HARDEN_BRANCH_PREDICTOR
936         tbz     x22, #55, 1f
937         bl      do_el0_irq_bp_hardening
939 #endif
940         irq_handler
942 #ifdef CONFIG_TRACE_IRQFLAGS
943         bl      trace_hardirqs_on
944 #endif
945         b       ret_to_user
946 ENDPROC(el0_irq)
948 el1_error:
949         kernel_entry 1
950         mrs     x1, esr_el1
951         gic_prio_kentry_setup tmp=x2
952         enable_dbg
953         mov     x0, sp
954         bl      do_serror
955         kernel_exit 1
956 ENDPROC(el1_error)
958 el0_error:
959         kernel_entry 0
960 el0_error_naked:
961         mrs     x1, esr_el1
962         gic_prio_kentry_setup tmp=x2
963         enable_dbg
964         mov     x0, sp
965         bl      do_serror
966         enable_da_f
967         ct_user_exit
968         b       ret_to_user
969 ENDPROC(el0_error)
972  * Ok, we need to do extra processing, enter the slow path.
973  */
974 work_pending:
975         mov     x0, sp                          // 'regs'
976         bl      do_notify_resume
977 #ifdef CONFIG_TRACE_IRQFLAGS
978         bl      trace_hardirqs_on               // enabled while in userspace
979 #endif
980         ldr     x1, [tsk, #TSK_TI_FLAGS]        // re-check for single-step
981         b       finish_ret_to_user
983  * "slow" syscall return path.
984  */
985 ret_to_user:
986         disable_daif
987         gic_prio_kentry_setup tmp=x3
988         ldr     x1, [tsk, #TSK_TI_FLAGS]
989         and     x2, x1, #_TIF_WORK_MASK
990         cbnz    x2, work_pending
991 finish_ret_to_user:
992         enable_step_tsk x1, x2
993 #ifdef CONFIG_GCC_PLUGIN_STACKLEAK
994         bl      stackleak_erase
995 #endif
996         kernel_exit 0
997 ENDPROC(ret_to_user)
1000  * SVC handler.
1001  */
1002         .align  6
1003 el0_svc:
1004         gic_prio_kentry_setup tmp=x1
1005         mov     x0, sp
1006         bl      el0_svc_handler
1007         b       ret_to_user
1008 ENDPROC(el0_svc)
1010         .popsection                             // .entry.text
1012 #ifdef CONFIG_UNMAP_KERNEL_AT_EL0
1014  * Exception vectors trampoline.
1015  */
1016         .pushsection ".entry.tramp.text", "ax"
1018         .macro tramp_map_kernel, tmp
1019         mrs     \tmp, ttbr1_el1
1020         add     \tmp, \tmp, #(PAGE_SIZE + RESERVED_TTBR0_SIZE)
1021         bic     \tmp, \tmp, #USER_ASID_FLAG
1022         msr     ttbr1_el1, \tmp
1023 #ifdef CONFIG_QCOM_FALKOR_ERRATUM_1003
1024 alternative_if ARM64_WORKAROUND_QCOM_FALKOR_E1003
1025         /* ASID already in \tmp[63:48] */
1026         movk    \tmp, #:abs_g2_nc:(TRAMP_VALIAS >> 12)
1027         movk    \tmp, #:abs_g1_nc:(TRAMP_VALIAS >> 12)
1028         /* 2MB boundary containing the vectors, so we nobble the walk cache */
1029         movk    \tmp, #:abs_g0_nc:((TRAMP_VALIAS & ~(SZ_2M - 1)) >> 12)
1030         isb
1031         tlbi    vae1, \tmp
1032         dsb     nsh
1033 alternative_else_nop_endif
1034 #endif /* CONFIG_QCOM_FALKOR_ERRATUM_1003 */
1035         .endm
1037         .macro tramp_unmap_kernel, tmp
1038         mrs     \tmp, ttbr1_el1
1039         sub     \tmp, \tmp, #(PAGE_SIZE + RESERVED_TTBR0_SIZE)
1040         orr     \tmp, \tmp, #USER_ASID_FLAG
1041         msr     ttbr1_el1, \tmp
1042         /*
1043          * We avoid running the post_ttbr_update_workaround here because
1044          * it's only needed by Cavium ThunderX, which requires KPTI to be
1045          * disabled.
1046          */
1047         .endm
1049         .macro tramp_ventry, regsize = 64
1050         .align  7
1052         .if     \regsize == 64
1053         msr     tpidrro_el0, x30        // Restored in kernel_ventry
1054         .endif
1055         /*
1056          * Defend against branch aliasing attacks by pushing a dummy
1057          * entry onto the return stack and using a RET instruction to
1058          * enter the full-fat kernel vectors.
1059          */
1060         bl      2f
1061         b       .
1063         tramp_map_kernel        x30
1064 #ifdef CONFIG_RANDOMIZE_BASE
1065         adr     x30, tramp_vectors + PAGE_SIZE
1066 alternative_insn isb, nop, ARM64_WORKAROUND_QCOM_FALKOR_E1003
1067         ldr     x30, [x30]
1068 #else
1069         ldr     x30, =vectors
1070 #endif
1071         prfm    plil1strm, [x30, #(1b - tramp_vectors)]
1072         msr     vbar_el1, x30
1073         add     x30, x30, #(1b - tramp_vectors)
1074         isb
1075         ret
1076         .endm
1078         .macro tramp_exit, regsize = 64
1079         adr     x30, tramp_vectors
1080         msr     vbar_el1, x30
1081         tramp_unmap_kernel      x30
1082         .if     \regsize == 64
1083         mrs     x30, far_el1
1084         .endif
1085         eret
1086         sb
1087         .endm
1089         .align  11
1090 ENTRY(tramp_vectors)
1091         .space  0x400
1093         tramp_ventry
1094         tramp_ventry
1095         tramp_ventry
1096         tramp_ventry
1098         tramp_ventry    32
1099         tramp_ventry    32
1100         tramp_ventry    32
1101         tramp_ventry    32
1102 END(tramp_vectors)
1104 ENTRY(tramp_exit_native)
1105         tramp_exit
1106 END(tramp_exit_native)
1108 ENTRY(tramp_exit_compat)
1109         tramp_exit      32
1110 END(tramp_exit_compat)
1112         .ltorg
1113         .popsection                             // .entry.tramp.text
1114 #ifdef CONFIG_RANDOMIZE_BASE
1115         .pushsection ".rodata", "a"
1116         .align PAGE_SHIFT
1117         .globl  __entry_tramp_data_start
1118 __entry_tramp_data_start:
1119         .quad   vectors
1120         .popsection                             // .rodata
1121 #endif /* CONFIG_RANDOMIZE_BASE */
1122 #endif /* CONFIG_UNMAP_KERNEL_AT_EL0 */
1125  * Register switch for AArch64. The callee-saved registers need to be saved
1126  * and restored. On entry:
1127  *   x0 = previous task_struct (must be preserved across the switch)
1128  *   x1 = next task_struct
1129  * Previous and next are guaranteed not to be the same.
1131  */
1132 ENTRY(cpu_switch_to)
1133         mov     x10, #THREAD_CPU_CONTEXT
1134         add     x8, x0, x10
1135         mov     x9, sp
1136         stp     x19, x20, [x8], #16             // store callee-saved registers
1137         stp     x21, x22, [x8], #16
1138         stp     x23, x24, [x8], #16
1139         stp     x25, x26, [x8], #16
1140         stp     x27, x28, [x8], #16
1141         stp     x29, x9, [x8], #16
1142         str     lr, [x8]
1143         add     x8, x1, x10
1144         ldp     x19, x20, [x8], #16             // restore callee-saved registers
1145         ldp     x21, x22, [x8], #16
1146         ldp     x23, x24, [x8], #16
1147         ldp     x25, x26, [x8], #16
1148         ldp     x27, x28, [x8], #16
1149         ldp     x29, x9, [x8], #16
1150         ldr     lr, [x8]
1151         mov     sp, x9
1152         msr     sp_el0, x1
1153         ret
1154 ENDPROC(cpu_switch_to)
1155 NOKPROBE(cpu_switch_to)
1158  * This is how we return from a fork.
1159  */
1160 ENTRY(ret_from_fork)
1161         bl      schedule_tail
1162         cbz     x19, 1f                         // not a kernel thread
1163         mov     x0, x20
1164         blr     x19
1165 1:      get_current_task tsk
1166         b       ret_to_user
1167 ENDPROC(ret_from_fork)
1168 NOKPROBE(ret_from_fork)
1170 #ifdef CONFIG_ARM_SDE_INTERFACE
1172 #include <asm/sdei.h>
1173 #include <uapi/linux/arm_sdei.h>
1175 .macro sdei_handler_exit exit_mode
1176         /* On success, this call never returns... */
1177         cmp     \exit_mode, #SDEI_EXIT_SMC
1178         b.ne    99f
1179         smc     #0
1180         b       .
1181 99:     hvc     #0
1182         b       .
1183 .endm
1185 #ifdef CONFIG_UNMAP_KERNEL_AT_EL0
1187  * The regular SDEI entry point may have been unmapped along with the rest of
1188  * the kernel. This trampoline restores the kernel mapping to make the x1 memory
1189  * argument accessible.
1191  * This clobbers x4, __sdei_handler() will restore this from firmware's
1192  * copy.
1193  */
1194 .ltorg
1195 .pushsection ".entry.tramp.text", "ax"
1196 ENTRY(__sdei_asm_entry_trampoline)
1197         mrs     x4, ttbr1_el1
1198         tbz     x4, #USER_ASID_BIT, 1f
1200         tramp_map_kernel tmp=x4
1201         isb
1202         mov     x4, xzr
1204         /*
1205          * Use reg->interrupted_regs.addr_limit to remember whether to unmap
1206          * the kernel on exit.
1207          */
1208 1:      str     x4, [x1, #(SDEI_EVENT_INTREGS + S_ORIG_ADDR_LIMIT)]
1210 #ifdef CONFIG_RANDOMIZE_BASE
1211         adr     x4, tramp_vectors + PAGE_SIZE
1212         add     x4, x4, #:lo12:__sdei_asm_trampoline_next_handler
1213         ldr     x4, [x4]
1214 #else
1215         ldr     x4, =__sdei_asm_handler
1216 #endif
1217         br      x4
1218 ENDPROC(__sdei_asm_entry_trampoline)
1219 NOKPROBE(__sdei_asm_entry_trampoline)
1222  * Make the exit call and restore the original ttbr1_el1
1224  * x0 & x1: setup for the exit API call
1225  * x2: exit_mode
1226  * x4: struct sdei_registered_event argument from registration time.
1227  */
1228 ENTRY(__sdei_asm_exit_trampoline)
1229         ldr     x4, [x4, #(SDEI_EVENT_INTREGS + S_ORIG_ADDR_LIMIT)]
1230         cbnz    x4, 1f
1232         tramp_unmap_kernel      tmp=x4
1234 1:      sdei_handler_exit exit_mode=x2
1235 ENDPROC(__sdei_asm_exit_trampoline)
1236 NOKPROBE(__sdei_asm_exit_trampoline)
1237         .ltorg
1238 .popsection             // .entry.tramp.text
1239 #ifdef CONFIG_RANDOMIZE_BASE
1240 .pushsection ".rodata", "a"
1241 __sdei_asm_trampoline_next_handler:
1242         .quad   __sdei_asm_handler
1243 .popsection             // .rodata
1244 #endif /* CONFIG_RANDOMIZE_BASE */
1245 #endif /* CONFIG_UNMAP_KERNEL_AT_EL0 */
1248  * Software Delegated Exception entry point.
1250  * x0: Event number
1251  * x1: struct sdei_registered_event argument from registration time.
1252  * x2: interrupted PC
1253  * x3: interrupted PSTATE
1254  * x4: maybe clobbered by the trampoline
1256  * Firmware has preserved x0->x17 for us, we must save/restore the rest to
1257  * follow SMC-CC. We save (or retrieve) all the registers as the handler may
1258  * want them.
1259  */
1260 ENTRY(__sdei_asm_handler)
1261         stp     x2, x3, [x1, #SDEI_EVENT_INTREGS + S_PC]
1262         stp     x4, x5, [x1, #SDEI_EVENT_INTREGS + 16 * 2]
1263         stp     x6, x7, [x1, #SDEI_EVENT_INTREGS + 16 * 3]
1264         stp     x8, x9, [x1, #SDEI_EVENT_INTREGS + 16 * 4]
1265         stp     x10, x11, [x1, #SDEI_EVENT_INTREGS + 16 * 5]
1266         stp     x12, x13, [x1, #SDEI_EVENT_INTREGS + 16 * 6]
1267         stp     x14, x15, [x1, #SDEI_EVENT_INTREGS + 16 * 7]
1268         stp     x16, x17, [x1, #SDEI_EVENT_INTREGS + 16 * 8]
1269         stp     x18, x19, [x1, #SDEI_EVENT_INTREGS + 16 * 9]
1270         stp     x20, x21, [x1, #SDEI_EVENT_INTREGS + 16 * 10]
1271         stp     x22, x23, [x1, #SDEI_EVENT_INTREGS + 16 * 11]
1272         stp     x24, x25, [x1, #SDEI_EVENT_INTREGS + 16 * 12]
1273         stp     x26, x27, [x1, #SDEI_EVENT_INTREGS + 16 * 13]
1274         stp     x28, x29, [x1, #SDEI_EVENT_INTREGS + 16 * 14]
1275         mov     x4, sp
1276         stp     lr, x4, [x1, #SDEI_EVENT_INTREGS + S_LR]
1278         mov     x19, x1
1280 #ifdef CONFIG_VMAP_STACK
1281         /*
1282          * entry.S may have been using sp as a scratch register, find whether
1283          * this is a normal or critical event and switch to the appropriate
1284          * stack for this CPU.
1285          */
1286         ldrb    w4, [x19, #SDEI_EVENT_PRIORITY]
1287         cbnz    w4, 1f
1288         ldr_this_cpu dst=x5, sym=sdei_stack_normal_ptr, tmp=x6
1289         b       2f
1290 1:      ldr_this_cpu dst=x5, sym=sdei_stack_critical_ptr, tmp=x6
1291 2:      mov     x6, #SDEI_STACK_SIZE
1292         add     x5, x5, x6
1293         mov     sp, x5
1294 #endif
1296         /*
1297          * We may have interrupted userspace, or a guest, or exit-from or
1298          * return-to either of these. We can't trust sp_el0, restore it.
1299          */
1300         mrs     x28, sp_el0
1301         ldr_this_cpu    dst=x0, sym=__entry_task, tmp=x1
1302         msr     sp_el0, x0
1304         /* If we interrupted the kernel point to the previous stack/frame. */
1305         and     x0, x3, #0xc
1306         mrs     x1, CurrentEL
1307         cmp     x0, x1
1308         csel    x29, x29, xzr, eq       // fp, or zero
1309         csel    x4, x2, xzr, eq         // elr, or zero
1311         stp     x29, x4, [sp, #-16]!
1312         mov     x29, sp
1314         add     x0, x19, #SDEI_EVENT_INTREGS
1315         mov     x1, x19
1316         bl      __sdei_handler
1318         msr     sp_el0, x28
1319         /* restore regs >x17 that we clobbered */
1320         mov     x4, x19         // keep x4 for __sdei_asm_exit_trampoline
1321         ldp     x28, x29, [x4, #SDEI_EVENT_INTREGS + 16 * 14]
1322         ldp     x18, x19, [x4, #SDEI_EVENT_INTREGS + 16 * 9]
1323         ldp     lr, x1, [x4, #SDEI_EVENT_INTREGS + S_LR]
1324         mov     sp, x1
1326         mov     x1, x0                  // address to complete_and_resume
1327         /* x0 = (x0 <= 1) ? EVENT_COMPLETE:EVENT_COMPLETE_AND_RESUME */
1328         cmp     x0, #1
1329         mov_q   x2, SDEI_1_0_FN_SDEI_EVENT_COMPLETE
1330         mov_q   x3, SDEI_1_0_FN_SDEI_EVENT_COMPLETE_AND_RESUME
1331         csel    x0, x2, x3, ls
1333         ldr_l   x2, sdei_exit_mode
1335 alternative_if_not ARM64_UNMAP_KERNEL_AT_EL0
1336         sdei_handler_exit exit_mode=x2
1337 alternative_else_nop_endif
1339 #ifdef CONFIG_UNMAP_KERNEL_AT_EL0
1340         tramp_alias     dst=x5, sym=__sdei_asm_exit_trampoline
1341         br      x5
1342 #endif
1343 ENDPROC(__sdei_asm_handler)
1344 NOKPROBE(__sdei_asm_handler)
1345 #endif /* CONFIG_ARM_SDE_INTERFACE */