Run DCE after a LoopFlatten test to reduce spurious output [nfc]
[llvm-project.git] / llvm / test / CodeGen / AMDGPU / bug-sdag-emitcopyfromreg.ll
blob66ba818b400b6f024952089a4b8065f5cd2913bb
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; NOTE: Assertions have been autogenerated by utils/update_mir_test_checks.py
3 ; RUN: llc -march=amdgcn -mcpu=gfx1010 < %s | FileCheck %s -check-prefix=ISA
4 ; RUN: llc -march=amdgcn -mcpu=gfx1010 -stop-before=si-fix-sgpr-copies < %s | FileCheck %s -check-prefix=MIR
6 define void @f(i32 %arg, ptr %ptr) {
7 ; ISA-LABEL: f:
8 ; ISA:       ; %bb.0: ; %bb
9 ; ISA-NEXT:    s_waitcnt vmcnt(0) expcnt(0) lgkmcnt(0)
10 ; ISA-NEXT:    s_mov_b64 s[4:5], 0
11 ; ISA-NEXT:    v_cmp_gt_i32_e32 vcc_lo, 1, v0
12 ; ISA-NEXT:    s_load_dwordx2 s[4:5], s[4:5], 0x0
13 ; ISA-NEXT:    v_mov_b32_e32 v6, 0
14 ; ISA-NEXT:    s_waitcnt lgkmcnt(0)
15 ; ISA-NEXT:    s_lshr_b32 s6, s5, 1
16 ; ISA-NEXT:    s_lshr_b32 s7, 1, s4
17 ; ISA-NEXT:    s_cmp_lg_u32 s4, 0
18 ; ISA-NEXT:    s_cselect_b32 s4, -1, 0
19 ; ISA-NEXT:    v_cndmask_b32_e64 v0, 0, 1.0, s4
20 ; ISA-NEXT:    s_and_b32 s4, s4, exec_lo
21 ; ISA-NEXT:    s_cselect_b32 s4, s6, 0
22 ; ISA-NEXT:    s_cselect_b32 s6, s7, 0
23 ; ISA-NEXT:    s_cselect_b32 s5, s5, 0
24 ; ISA-NEXT:    v_cvt_f32_i32_e32 v3, s4
25 ; ISA-NEXT:    v_cvt_f32_ubyte0_e32 v4, s6
26 ; ISA-NEXT:    v_cvt_f32_i32_e32 v5, s5
27 ; ISA-NEXT:    s_mov_b32 s4, 0
28 ; ISA-NEXT:  .LBB0_1: ; %bb14
29 ; ISA-NEXT:    ; =>This Inner Loop Header: Depth=1
30 ; ISA-NEXT:    v_mov_b32_e32 v7, v6
31 ; ISA-NEXT:    s_and_b32 s5, exec_lo, vcc_lo
32 ; ISA-NEXT:    s_or_b32 s4, s5, s4
33 ; ISA-NEXT:    v_add_f32_e32 v6, v7, v0
34 ; ISA-NEXT:    v_add_f32_e64 v6, v6, |v3|
35 ; ISA-NEXT:    v_add_f32_e32 v6, v6, v4
36 ; ISA-NEXT:    v_add_f32_e32 v6, v6, v5
37 ; ISA-NEXT:    s_andn2_b32 exec_lo, exec_lo, s4
38 ; ISA-NEXT:    s_cbranch_execnz .LBB0_1
39 ; ISA-NEXT:  ; %bb.2: ; %bb21
40 ; ISA-NEXT:    s_or_b32 exec_lo, exec_lo, s4
41 ; ISA-NEXT:    flat_store_dword v[1:2], v7
42 ; ISA-NEXT:    s_waitcnt lgkmcnt(0)
43 ; ISA-NEXT:    s_setpc_b64 s[30:31]
44   ; MIR-LABEL: name: f
45   ; MIR: bb.0.bb:
46   ; MIR-NEXT:   successors: %bb.1(0x80000000)
47   ; MIR-NEXT:   liveins: $vgpr0, $vgpr1, $vgpr2
48   ; MIR-NEXT: {{  $}}
49   ; MIR-NEXT:   [[COPY:%[0-9]+]]:vgpr_32 = COPY $vgpr2
50   ; MIR-NEXT:   [[COPY1:%[0-9]+]]:vgpr_32 = COPY $vgpr1
51   ; MIR-NEXT:   [[COPY2:%[0-9]+]]:vgpr_32 = COPY $vgpr0
52   ; MIR-NEXT:   [[REG_SEQUENCE:%[0-9]+]]:sreg_64 = REG_SEQUENCE [[COPY1]], %subreg.sub0, [[COPY]], %subreg.sub1
53   ; MIR-NEXT:   [[COPY3:%[0-9]+]]:vreg_64 = COPY [[REG_SEQUENCE]]
54   ; MIR-NEXT:   [[S_MOV_B64_:%[0-9]+]]:sreg_64 = S_MOV_B64 0
55   ; MIR-NEXT:   [[S_LOAD_DWORDX2_IMM:%[0-9]+]]:sreg_64_xexec = S_LOAD_DWORDX2_IMM killed [[S_MOV_B64_]], 0, 0 :: (invariant load (s64) from `ptr addrspace(4) null`, align 4294967296, addrspace 4)
56   ; MIR-NEXT:   [[COPY4:%[0-9]+]]:sreg_32 = COPY [[S_LOAD_DWORDX2_IMM]].sub1
57   ; MIR-NEXT:   [[COPY5:%[0-9]+]]:sreg_32 = COPY [[S_LOAD_DWORDX2_IMM]].sub0
58   ; MIR-NEXT:   [[S_MOV_B32_:%[0-9]+]]:sreg_32 = S_MOV_B32 1
59   ; MIR-NEXT:   [[S_LSHR_B32_:%[0-9]+]]:sreg_32 = S_LSHR_B32 [[COPY4]], [[S_MOV_B32_]], implicit-def dead $scc
60   ; MIR-NEXT:   [[S_LSHR_B32_1:%[0-9]+]]:sreg_32 = S_LSHR_B32 [[S_MOV_B32_]], [[COPY5]], implicit-def dead $scc
61   ; MIR-NEXT:   [[S_MOV_B32_1:%[0-9]+]]:sreg_32 = S_MOV_B32 0
62   ; MIR-NEXT:   S_CMP_LG_U32 [[COPY5]], [[S_MOV_B32_1]], implicit-def $scc
63   ; MIR-NEXT:   [[COPY6:%[0-9]+]]:sreg_32_xm0_xexec = COPY $scc
64   ; MIR-NEXT:   $scc = COPY [[COPY6]]
65   ; MIR-NEXT:   [[S_CSELECT_B32_:%[0-9]+]]:sreg_32 = S_CSELECT_B32 killed [[S_LSHR_B32_]], [[S_MOV_B32_1]], implicit $scc
66   ; MIR-NEXT:   [[V_CVT_F32_I32_e64_:%[0-9]+]]:vgpr_32 = V_CVT_F32_I32_e64 killed [[S_CSELECT_B32_]], 0, 0, implicit $mode, implicit $exec
67   ; MIR-NEXT:   [[COPY7:%[0-9]+]]:sgpr_32 = COPY [[V_CVT_F32_I32_e64_]]
68   ; MIR-NEXT:   [[S_MOV_B32_2:%[0-9]+]]:sgpr_32 = S_MOV_B32 1065353216
69   ; MIR-NEXT:   [[S_MOV_B32_3:%[0-9]+]]:sgpr_32 = S_MOV_B32 0
70   ; MIR-NEXT:   [[COPY8:%[0-9]+]]:vgpr_32 = COPY killed [[S_MOV_B32_2]]
71   ; MIR-NEXT:   [[V_CNDMASK_B32_e64_:%[0-9]+]]:vgpr_32 = V_CNDMASK_B32_e64 0, [[S_MOV_B32_3]], 0, [[COPY8]], [[COPY6]], implicit $exec
72   ; MIR-NEXT:   [[COPY9:%[0-9]+]]:sgpr_32 = COPY [[V_CNDMASK_B32_e64_]]
73   ; MIR-NEXT:   $scc = COPY [[COPY6]]
74   ; MIR-NEXT:   [[S_CSELECT_B32_1:%[0-9]+]]:sreg_32 = S_CSELECT_B32 killed [[S_LSHR_B32_1]], [[S_MOV_B32_1]], implicit $scc
75   ; MIR-NEXT:   [[V_CVT_F32_UBYTE0_e64_:%[0-9]+]]:vgpr_32 = V_CVT_F32_UBYTE0_e64 killed [[S_CSELECT_B32_1]], 0, 0, implicit $exec
76   ; MIR-NEXT:   [[COPY10:%[0-9]+]]:sgpr_32 = COPY [[V_CVT_F32_UBYTE0_e64_]]
77   ; MIR-NEXT:   $scc = COPY [[COPY6]]
78   ; MIR-NEXT:   [[S_CSELECT_B32_2:%[0-9]+]]:sreg_32 = S_CSELECT_B32 [[COPY4]], [[S_MOV_B32_1]], implicit $scc
79   ; MIR-NEXT:   [[V_CVT_F32_I32_e64_1:%[0-9]+]]:vgpr_32 = V_CVT_F32_I32_e64 killed [[S_CSELECT_B32_2]], 0, 0, implicit $mode, implicit $exec
80   ; MIR-NEXT:   [[COPY11:%[0-9]+]]:sgpr_32 = COPY [[V_CVT_F32_I32_e64_1]]
81   ; MIR-NEXT:   [[V_CMP_LT_I32_e64_:%[0-9]+]]:sreg_32 = V_CMP_LT_I32_e64 [[COPY2]], [[S_MOV_B32_]], implicit $exec
82   ; MIR-NEXT:   [[COPY12:%[0-9]+]]:vreg_1 = COPY [[V_CMP_LT_I32_e64_]]
83   ; MIR-NEXT: {{  $}}
84   ; MIR-NEXT: bb.1.bb14:
85   ; MIR-NEXT:   successors: %bb.2(0x04000000), %bb.1(0x7c000000)
86   ; MIR-NEXT: {{  $}}
87   ; MIR-NEXT:   [[PHI:%[0-9]+]]:sreg_32 = PHI [[S_MOV_B32_1]], %bb.0, %7, %bb.1
88   ; MIR-NEXT:   [[PHI1:%[0-9]+]]:sgpr_32 = PHI [[S_MOV_B32_3]], %bb.0, %8, %bb.1
89   ; MIR-NEXT:   [[COPY13:%[0-9]+]]:sreg_32 = COPY [[COPY12]]
90   ; MIR-NEXT:   [[SI_IF_BREAK:%[0-9]+]]:sreg_32 = SI_IF_BREAK [[COPY13]], [[PHI]], implicit-def dead $scc
91   ; MIR-NEXT:   [[V_ADD_F32_e64_:%[0-9]+]]:vgpr_32 = nofpexcept V_ADD_F32_e64 0, [[PHI1]], 0, [[COPY9]], 0, 0, implicit $mode, implicit $exec
92   ; MIR-NEXT:   [[V_ADD_F32_e64_1:%[0-9]+]]:vgpr_32 = nofpexcept V_ADD_F32_e64 0, killed [[V_ADD_F32_e64_]], 2, [[COPY7]], 0, 0, implicit $mode, implicit $exec
93   ; MIR-NEXT:   [[V_ADD_F32_e64_2:%[0-9]+]]:vgpr_32 = nofpexcept V_ADD_F32_e64 0, killed [[V_ADD_F32_e64_1]], 0, [[COPY10]], 0, 0, implicit $mode, implicit $exec
94   ; MIR-NEXT:   [[V_ADD_F32_e64_3:%[0-9]+]]:vgpr_32 = nofpexcept V_ADD_F32_e64 0, killed [[V_ADD_F32_e64_2]], 0, [[COPY11]], 0, 0, implicit $mode, implicit $exec
95   ; MIR-NEXT:   [[COPY14:%[0-9]+]]:sgpr_32 = COPY [[V_ADD_F32_e64_3]]
96   ; MIR-NEXT:   SI_LOOP [[SI_IF_BREAK]], %bb.1, implicit-def dead $exec, implicit-def dead $scc, implicit $exec
97   ; MIR-NEXT:   S_BRANCH %bb.2
98   ; MIR-NEXT: {{  $}}
99   ; MIR-NEXT: bb.2.bb21:
100   ; MIR-NEXT:   [[PHI2:%[0-9]+]]:vgpr_32 = PHI [[PHI1]], %bb.1
101   ; MIR-NEXT:   [[PHI3:%[0-9]+]]:sreg_32 = PHI [[SI_IF_BREAK]], %bb.1
102   ; MIR-NEXT:   SI_END_CF [[PHI3]], implicit-def dead $exec, implicit-def dead $scc, implicit $exec
103   ; MIR-NEXT:   FLAT_STORE_DWORD [[COPY3]], [[PHI2]], 0, 0, implicit $exec, implicit $flat_scr :: (store (s32) into %ir.ptr)
104   ; MIR-NEXT:   SI_RETURN
106   %i = load <2 x i32>, ptr addrspace(4) null, align 4294967296
107   %i1 = extractelement <2 x i32> %i, i64 1
108   %i2 = extractelement <2 x i32> %i, i64 0
109   %i3 = lshr i32 %i1, 1
110   %i4 = icmp ne i32 %i2, 0
111   %i5 = select i1 %i4, i32 %i3, i32 0
112   %i6 = sitofp i32 %i5 to float
113   %i7 = call float @llvm.fabs.f32(float %i6)
114   %i8 = uitofp i1 %i4 to float
115   %i9 = lshr i32 1, %i2
116   %i10 = select i1 %i4, i32 %i9, i32 0
117   %i11 = sitofp i32 %i10 to float
118   %i12 = select i1 %i4, i32 %i1, i32 0
119   %i13 = sitofp i32 %i12 to float
120   br label %bb14
122 bb14:
123   %i15 = phi float [ 0.0, %bb ], [ %i19, %bb14 ]
124   %i16 = fadd float %i15, %i8
125   %i17 = fadd float %i16, %i7
126   %i18 = fadd float %i17, %i11
127   %i19 = fadd float %i18, %i13
128   %i20 = icmp sgt i32 %arg, 0
129   br i1 %i20, label %bb14, label %bb21
131 bb21:
132   store float %i15, ptr %ptr, align 4
133   ret void
136 declare float @llvm.fabs.f32(float)