[MachineScheduler] Fix physreg dependencies of ExitSU (#123541)
[llvm-project.git] / llvm / test / CodeGen / AMDGPU / spill-vgpr-to-agpr-update-regscavenger.ll
blob4384d1e32cf53f29b6e15927749b8276aea566d0
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc -mtriple=amdgcn-amd-amdhsa -mcpu=gfx908 -O0 -verify-machineinstrs -o - %s | FileCheck %s
4 ; Regression test for `processFunctionBeforeFrameFinalized`:
5 ; Check that it correctly updates RegisterScavenger so we
6 ; don't end up with bad machine code due to using undefined
7 ; physical registers.
9 define void @test() {
10 ; CHECK-LABEL: test:
11 ; CHECK:       ; %bb.0: ; %bb.0
12 ; CHECK-NEXT:    s_waitcnt vmcnt(0) expcnt(0) lgkmcnt(0)
13 ; CHECK-NEXT:    s_xor_saveexec_b64 s[4:5], -1
14 ; CHECK-NEXT:    buffer_store_dword v1, off, s[0:3], s32 ; 4-byte Folded Spill
15 ; CHECK-NEXT:    s_mov_b64 exec, s[4:5]
16 ; CHECK-NEXT:  .LBB0_1: ; %bb.1
17 ; CHECK-NEXT:    ; =>This Inner Loop Header: Depth=1
18 ; CHECK-NEXT:    s_cbranch_scc1 .LBB0_3
19 ; CHECK-NEXT:  ; %bb.2: ; %bb.2
20 ; CHECK-NEXT:    ; in Loop: Header=BB0_1 Depth=1
21 ; CHECK-NEXT:  .LBB0_3: ; %bb.3
22 ; CHECK-NEXT:    ; in Loop: Header=BB0_1 Depth=1
23 ; CHECK-NEXT:    ; implicit-def: $sgpr4
24 ; CHECK-NEXT:    v_mov_b32_e32 v0, s4
25 ; CHECK-NEXT:    v_readfirstlane_b32 s6, v0
26 ; CHECK-NEXT:    s_mov_b64 s[4:5], -1
27 ; CHECK-NEXT:    s_mov_b32 s7, 0
28 ; CHECK-NEXT:    s_cmp_eq_u32 s6, s7
29 ; CHECK-NEXT:    ; implicit-def: $vgpr1 : SGPR spill to VGPR lane
30 ; CHECK-NEXT:    v_writelane_b32 v1, s4, 0
31 ; CHECK-NEXT:    v_writelane_b32 v1, s5, 1
32 ; CHECK-NEXT:    s_mov_b64 s[10:11], exec
33 ; CHECK-NEXT:    s_mov_b64 exec, -1
34 ; CHECK-NEXT:    v_accvgpr_write_b32 a0, v1 ; Reload Reuse
35 ; CHECK-NEXT:    s_mov_b64 exec, s[10:11]
36 ; CHECK-NEXT:    s_cbranch_scc1 .LBB0_5
37 ; CHECK-NEXT:  ; %bb.4: ; %bb.4
38 ; CHECK-NEXT:    ; in Loop: Header=BB0_1 Depth=1
39 ; CHECK-NEXT:    s_or_saveexec_b64 s[10:11], -1
40 ; CHECK-NEXT:    v_accvgpr_read_b32 v1, a0 ; Reload Reuse
41 ; CHECK-NEXT:    s_mov_b64 exec, s[10:11]
42 ; CHECK-NEXT:    s_mov_b64 s[4:5], 0
43 ; CHECK-NEXT:    v_writelane_b32 v1, s4, 0
44 ; CHECK-NEXT:    v_writelane_b32 v1, s5, 1
45 ; CHECK-NEXT:    s_or_saveexec_b64 s[10:11], -1
46 ; CHECK-NEXT:    s_nop 0
47 ; CHECK-NEXT:    v_accvgpr_write_b32 a0, v1 ; Reload Reuse
48 ; CHECK-NEXT:    s_mov_b64 exec, s[10:11]
49 ; CHECK-NEXT:  .LBB0_5: ; %Flow
50 ; CHECK-NEXT:    ; in Loop: Header=BB0_1 Depth=1
51 ; CHECK-NEXT:    s_or_saveexec_b64 s[10:11], -1
52 ; CHECK-NEXT:    s_nop 0
53 ; CHECK-NEXT:    v_accvgpr_read_b32 v1, a0 ; Reload Reuse
54 ; CHECK-NEXT:    s_mov_b64 exec, s[10:11]
55 ; CHECK-NEXT:    v_readlane_b32 s4, v1, 0
56 ; CHECK-NEXT:    v_readlane_b32 s5, v1, 1
57 ; CHECK-NEXT:    v_cndmask_b32_e64 v0, 0, 1, s[4:5]
58 ; CHECK-NEXT:    s_mov_b32 s4, 1
59 ; CHECK-NEXT:    ; implicit-def: $sgpr5
60 ; CHECK-NEXT:    v_cmp_ne_u32_e64 s[4:5], v0, s4
61 ; CHECK-NEXT:    s_and_b64 vcc, exec, s[4:5]
62 ; CHECK-NEXT:    s_cbranch_vccnz .LBB0_1
63 ; CHECK-NEXT:  ; %bb.6: ; %bb.5
64 ; CHECK-NEXT:    s_xor_saveexec_b64 s[4:5], -1
65 ; CHECK-NEXT:    buffer_load_dword v1, off, s[0:3], s32 ; 4-byte Folded Reload
66 ; CHECK-NEXT:    s_mov_b64 exec, s[4:5]
67 ; CHECK-NEXT:    s_waitcnt vmcnt(0)
68 ; CHECK-NEXT:    s_setpc_b64 s[30:31]
69 bb.0:
70   br label %bb.1
71 bb.1:                                                ; preds = %bb.4, %bb.0
72   br i1 poison, label %bb.2, label %bb.3
73 bb.2:                                                ; preds = %bb.1
74   br label %bb.3
75 bb.3:                                                ; preds = %bb.2, %bb.1
76   %call = tail call i32 @llvm.amdgcn.readfirstlane(i32 poison)
77   %cmp = icmp eq i32 %call, 0
78   br i1 %cmp, label %bb.5, label %bb.4
79 bb.4:                                                ; preds = %bb.3
80   br label %bb.1
81 bb.5:                                                ; preds = %bb.3
82   ret void
85 declare i32 @llvm.amdgcn.readfirstlane(i32)