[ORC] Add std::tuple support to SimplePackedSerialization.
[llvm-project.git] / llvm / test / CodeGen / X86 / callbr-asm-instr-scheduling.ll
blobc4cb4ada5dc7c361497b40f3d530ddedaa73a029
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc -mtriple=x86_64-unknown-linux-gnu -verify-machineinstrs -mcpu=znver2 -O2 -frame-pointer=none < %s | FileCheck %s
4 ; Make sure that instructions aren't scheduled after the "callbr". In the
5 ; example below, we don't want the "shrxq" through "leaq" instructions to be
6 ; moved after the "callbr".
8 %struct.cpuinfo_x86 = type { i8, i8, i8, i8, i32, [3 x i32], i8, i8, i8, i8, i32, i32, %union.anon.83, [16 x i8], [64 x i8], i32, i32, i32, i32, i32, i32, i64, i16, i16, i16, i16, i16, i16, i16, i16, i16, i16, i16, i32, i8, i8 }
9 %union.anon.83 = type { i64, [72 x i8] }
10 %struct.pgd_t = type { i64 }
11 %struct.p4d_t = type { i64 }
12 %struct.pud_t = type { i64 }
14 @boot_cpu_data = external dso_local global %struct.cpuinfo_x86, align 8
15 @page_offset_base = external dso_local local_unnamed_addr global i64, align 8
16 @pgdir_shift = external dso_local local_unnamed_addr global i32, align 4
17 @__force_order = external dso_local global i64, align 8
18 @ptrs_per_p4d = external dso_local local_unnamed_addr global i32, align 4
20 define i64 @early_ioremap_pmd(i64 %addr) {
21 ; CHECK-LABEL: early_ioremap_pmd:
22 ; CHECK:       # %bb.0: # %entry
23 ; CHECK-NEXT:    #APP
24 ; CHECK-NEXT:    movq %cr3, %rax
25 ; CHECK-EMPTY:
26 ; CHECK-NEXT:    #NO_APP
27 ; CHECK-NEXT:    movabsq $9223372036854771712, %rdx # imm = 0x7FFFFFFFFFFFF000
28 ; CHECK-NEXT:    andq %rax, %rdx
29 ; CHECK-NEXT:    movb pgdir_shift(%rip), %al
30 ; CHECK-NEXT:    movq page_offset_base(%rip), %rcx
31 ; CHECK-NEXT:    shrxq %rax, %rdi, %rax
32 ; CHECK-NEXT:    addq %rcx, %rdx
33 ; CHECK-NEXT:    andl $511, %eax # imm = 0x1FF
34 ; CHECK-NEXT:    leaq (%rdx,%rax,8), %rax
35 ; CHECK-NEXT:    #APP
36 ; CHECK-NEXT:  .Ltmp2:
37 ; CHECK-NEXT:    jmp .Ltmp3
38 ; CHECK-NEXT:  .Ltmp4:
39 ; CHECK-NEXT:    .zero (-(((.Ltmp5-.Ltmp6)-(.Ltmp4-.Ltmp2))>0))*((.Ltmp5-.Ltmp6)-(.Ltmp4-.Ltmp2)),144
40 ; CHECK-NEXT:  .Ltmp7:
41 entry:
42   %0 = tail call i64 asm sideeffect "mov %cr3,$0\0A\09", "=r,=*m,~{dirflag},~{fpsr},~{flags}"(i64* nonnull @__force_order)
43   %and.i = and i64 %0, 9223372036854771712
44   %1 = load i64, i64* @page_offset_base, align 8
45   %add = add i64 %and.i, %1
46   %2 = inttoptr i64 %add to %struct.pgd_t*
47   %3 = load i32, i32* @pgdir_shift, align 4
48   %sh_prom = zext i32 %3 to i64
49   %shr = lshr i64 %addr, %sh_prom
50   %and = and i64 %shr, 511
51   %arrayidx = getelementptr %struct.pgd_t, %struct.pgd_t* %2, i64 %and
52   callbr void asm sideeffect "1: jmp 6f\0A2:\0A.skip -(((5f-4f) - (2b-1b)) > 0) * ((5f-4f) - (2b-1b)),0x90\0A3:\0A.section .altinstructions,\22a\22\0A .long 1b - .\0A .long 4f - .\0A .word ${1:P}\0A .byte 3b - 1b\0A .byte 5f - 4f\0A .byte 3b - 2b\0A.previous\0A.section .altinstr_replacement,\22ax\22\0A4: jmp ${5:l}\0A5:\0A.previous\0A.section .altinstructions,\22a\22\0A .long 1b - .\0A .long 0\0A .word ${0:P}\0A .byte 3b - 1b\0A .byte 0\0A .byte 0\0A.previous\0A.section .altinstr_aux,\22ax\22\0A6:\0A testb $2,$3\0A jnz ${4:l}\0A jmp ${5:l}\0A.previous\0A", "i,i,i,*m,X,X,~{dirflag},~{fpsr},~{flags}"(i16 528, i32 117, i32 1, i8* getelementptr inbounds (%struct.cpuinfo_x86, %struct.cpuinfo_x86* @boot_cpu_data, i64 0, i32 12, i32 1, i64 58), i8* blockaddress(@early_ioremap_pmd, %if.end.i), i8* blockaddress(@early_ioremap_pmd, %if.then.i))
53           to label %_static_cpu_has.exit.thread.i [label %if.end.i, label %if.then.i]
55 _static_cpu_has.exit.thread.i:                    ; preds = %entry
56   br label %if.end.i
58 if.then.i:                                        ; preds = %entry
59   %4 = bitcast %struct.pgd_t* %arrayidx to %struct.p4d_t*
60   br label %p4d_offset.exit
62 if.end.i:                                         ; preds = %_static_cpu_has.exit.thread.i, %entry
63   %coerce.dive.i = getelementptr inbounds %struct.pgd_t, %struct.pgd_t* %arrayidx, i64 0, i32 0
64   %5 = load i64, i64* %coerce.dive.i, align 8
65   %6 = inttoptr i64 %5 to %struct.p4d_t*
66   %7 = load i32, i32* @ptrs_per_p4d, align 4
67   %sub.i.i = add i32 %7, 33554431
68   %8 = and i32 %sub.i.i, 33554431
69   %and.i1.i = zext i32 %8 to i64
70   %add.ptr.i = getelementptr %struct.p4d_t, %struct.p4d_t* %6, i64 %and.i1.i
71   br label %p4d_offset.exit
73 p4d_offset.exit:                                  ; preds = %if.end.i, %if.then.i
74   %retval.0.i = phi %struct.p4d_t* [ %add.ptr.i, %if.end.i ], [ %4, %if.then.i ]
75   %coerce.dive.i12 = getelementptr inbounds %struct.p4d_t, %struct.p4d_t* %retval.0.i, i64 0, i32 0
76   %9 = load i64, i64* %coerce.dive.i12, align 8
77   %and.i.i13 = and i64 %9, 4503599627366400
78   %add.i.i14 = add i64 %and.i.i13, %1
79   %10 = inttoptr i64 %add.i.i14 to %struct.pud_t*
80   %coerce.dive.i16 = getelementptr %struct.pud_t, %struct.pud_t* %10, i64 511, i32 0
81   %11 = load i64, i64* %coerce.dive.i16, align 8
82   %tobool.i.i.i = icmp slt i64 %11, 0
83   %..i.i.i = select i1 %tobool.i.i.i, i64 4503598553628672, i64 4503599627366400
84   ret i64 %..i.i.i