Revert rGe6ccb57bb3f6b761f2310e97fd6ca99eff42f73e "[SLP] Add cost model for `llvm...
[llvm-project.git] / llvm / test / CodeGen / AMDGPU / llvm.amdgcn.ds.gws.barrier.ll
blob9faacc8ebde71d7c9ea97fae4ac72f59a84da4ac
1 ; RUN: llc -mtriple=amdgcn-mesa-mesa3d -mcpu=tahiti -o - -verify-machineinstrs < %s | FileCheck -enable-var-scope -check-prefixes=GCN,LOOP %s
2 ; RUN: llc -mtriple=amdgcn-mesa-mesa3d -mcpu=hawaii -o - -verify-machineinstrs < %s | FileCheck -enable-var-scope -check-prefixes=GCN,LOOP %s
3 ; RUN: llc -mtriple=amdgcn-mesa-mesa3d -mcpu=fiji -o - -verify-machineinstrs < %s | FileCheck -enable-var-scope -check-prefixes=GCN,LOOP %s
4 ; RUN: llc -mtriple=amdgcn-mesa-mesa3d -mcpu=gfx900 -o - -verify-machineinstrs < %s | FileCheck -enable-var-scope -check-prefixes=GCN,NOLOOP,NOLOOP-SDAG %s
5 ; RUN: llc -mtriple=amdgcn-mesa-mesa3d -mcpu=gfx1010 -asm-verbose=0 -o - -verify-machineinstrs < %s | FileCheck -enable-var-scope -check-prefixes=GCN,NOLOOP,NOLOOP-SDAG,GFX10 %s
7 ; Make sure the op is emitted bundled with a waitcnt with and without the retry loop, and the bundle is not removed by ExpandPostRAPseudos.
8 ; RUN: llc -mtriple=amdgcn-mesa-mesa3d -mcpu=tahiti -stop-after=postrapseudos -o - -verify-machineinstrs < %s | FileCheck -enable-var-scope -check-prefix=MIR %s
9 ; RUN: llc -mtriple=amdgcn-mesa-mesa3d -mcpu=gfx900 -stop-after=postrapseudos -o - -verify-machineinstrs < %s | FileCheck -enable-var-scope -check-prefix=MIR %s
12 ; Minimum offset
13 ; GCN-LABEL: {{^}}gws_barrier_offset0:
14 ; NOLOOP-DAG: s_load_dword [[BAR_NUM:s[0-9]+]]
15 ; NOLOOP-DAG: s_mov_b32 m0, 0{{$}}
16 ; NOLOOP: v_mov_b32_e32 v0, [[BAR_NUM]]
17 ; NOLOOP: ds_gws_barrier v0 gds{{$}}
19 ; LOOP: s_mov_b32 m0, 0{{$}}
20 ; LOOP: [[LOOP:.LBB[0-9]+_[0-9]+]]:
21 ; LOOP-NEXT: s_setreg_imm32_b32 hwreg(HW_REG_TRAPSTS, 8, 1), 0
22 ; LOOP-NEXT: ds_gws_barrier v0 gds
23 ; LOOP-NEXT: s_waitcnt vmcnt(0) expcnt(0) lgkmcnt(0)
24 ; LOOP-NEXT: s_getreg_b32 [[GETREG:s[0-9]+]], hwreg(HW_REG_TRAPSTS, 8, 1)
25 ; LOOP-NEXT: s_cmp_lg_u32 [[GETREG]], 0
26 ; LOOP-NEXT: s_cbranch_scc1 [[LOOP]]
28 ; MIR-LABEL: name: gws_barrier_offset0{{$}}
29 ; MIR: BUNDLE implicit{{( killed)?( renamable)?}} $vgpr0, implicit $m0, implicit $exec {
30 ; MIR-NEXT: DS_GWS_BARRIER renamable $vgpr0, 0, implicit $m0, implicit $exec :: (load (s32) from custom "GWSResource")
31 ; MIR-NEXT: S_WAITCNT 0
32 ; MIR-NEXT: }
33 define amdgpu_kernel void @gws_barrier_offset0(i32 %val) #0 {
34   call void @llvm.amdgcn.ds.gws.barrier(i32 %val, i32 0)
35   ret void
38 ; MIR-LABEL: name: gws_barrier_offset63{{$}}
40 ; Maximum offset
41 ; GCN-LABEL: {{^}}gws_barrier_offset63:
42 ; NOLOOP-DAG: s_load_dword [[BAR_NUM:s[0-9]+]]
43 ; NOLOOP-DAG: s_mov_b32 m0, 0{{$}}
44 ; NOLOOP-DAG: v_mov_b32_e32 v0, [[BAR_NUM]]
45 ; NOLOOP: ds_gws_barrier v0 offset:63 gds{{$}}
46 define amdgpu_kernel void @gws_barrier_offset63(i32 %val) #0 {
47   call void @llvm.amdgcn.ds.gws.barrier(i32 %val, i32 63)
48   ret void
51 ; FIXME: Should be able to shift directly into m0
52 ; GCN-LABEL: {{^}}gws_barrier_sgpr_offset:
53 ; NOLOOP-DAG: s_load_dwordx2 s[[[BAR_NUM:[0-9]+]]:[[OFFSET:[0-9]+]]]
55 ; NOLOOP-SDAG-DAG: s_lshl_b32 [[SHL:s[0-9]+]], s[[OFFSET]], 16
56 ; NOLOOP-SDAG-DAG: s_mov_b32 m0, [[SHL]]{{$}}
58 ; NOLOOP-GISEL-DAG: s_lshl_b32 m0, s[[OFFSET]], 16
61 ; NOLOOP-DAG: v_mov_b32_e32 [[GWS_VAL:v[0-9]+]], s[[BAR_NUM]]
62 ; NOLOOP: ds_gws_barrier [[GWS_VAL]] gds{{$}}
63 define amdgpu_kernel void @gws_barrier_sgpr_offset(i32 %val, i32 %offset) #0 {
64   call void @llvm.amdgcn.ds.gws.barrier(i32 %val, i32 %offset)
65   ret void
68 ; Variable offset in SGPR with constant add
69 ; GCN-LABEL: {{^}}gws_barrier_sgpr_offset_add1:
70 ; NOLOOP-DAG: s_load_dwordx2 s[[[BAR_NUM:[0-9]+]]:[[OFFSET:[0-9]+]]]
72 ; NOLOOP-SDAG-DAG: s_lshl_b32 [[SHL:s[0-9]+]], s[[OFFSET]], 16
73 ; NOLOOP-SDAG-DAG: s_mov_b32 m0, [[SHL]]{{$}}
75 ; NOLOOP-GISEL-DAG: s_lshl_b32 m0, s[[OFFSET]], 16
77 ; NOLOOP-DAG: v_mov_b32_e32 [[GWS_VAL:v[0-9]+]], s[[BAR_NUM]]
78 ; NOLOOP: ds_gws_barrier [[GWS_VAL]] offset:1 gds{{$}}
79 define amdgpu_kernel void @gws_barrier_sgpr_offset_add1(i32 %val, i32 %offset.base) #0 {
80   %offset = add i32 %offset.base, 1
81   call void @llvm.amdgcn.ds.gws.barrier(i32 %val, i32 %offset)
82   ret void
85 ; GCN-LABEL: {{^}}gws_barrier_vgpr_offset:
86 ; NOLOOP-DAG: s_load_dword [[BAR_NUM:s[0-9]+]]
87 ; NOLOOP-DAG: v_readfirstlane_b32 [[READLANE:s[0-9]+]], v0
89 ; NOLOOP-SDAG-DAG: s_lshl_b32 [[SHL:s[0-9]+]], [[READLANE]], 16
90 ; NOLOOP-SDAG-DAG: s_mov_b32 m0, [[SHL]]{{$}}
92 ; NOLOOP-GISEL-DAG: s_lshl_b32 m0, [[READLANE]], 16
94 ; NOLOOP-DAG: v_mov_b32_e32 [[GWS_VAL:v[0-9]+]], [[BAR_NUM]]
95 ; NOLOOP: ds_gws_barrier [[GWS_VAL]] gds{{$}}
96 define amdgpu_kernel void @gws_barrier_vgpr_offset(i32 %val) #0 {
97   %vgpr.offset = call i32 @llvm.amdgcn.workitem.id.x()
98   call void @llvm.amdgcn.ds.gws.barrier(i32 %val, i32 %vgpr.offset)
99   ret void
102 ; Variable offset in VGPR with constant add
103 ; GCN-LABEL: {{^}}gws_barrier_vgpr_offset_add:
104 ; NOLOOP-DAG: s_load_dword [[BAR_NUM:s[0-9]+]]
105 ; NOLOOP-DAG: v_readfirstlane_b32 [[READLANE:s[0-9]+]], v0
107 ; NOLOOP-SDAG-DAG: s_lshl_b32 [[SHL:s[0-9]+]], [[READLANE]], 16
108 ; NOLOOP-SDAG-DAG: s_mov_b32 m0, [[SHL]]{{$}}
110 ; NOLOOP-GISEL-DAG: s_lshl_b32 m0, [[READLANE]], 16
112 ; NOLOOP-DAG: v_mov_b32_e32 [[GWS_VAL:v[0-9]+]], [[BAR_NUM]]
113 ; NOLOOP: ds_gws_barrier [[GWS_VAL]] offset:3 gds{{$}}
114 define amdgpu_kernel void @gws_barrier_vgpr_offset_add(i32 %val) #0 {
115   %vgpr.offset.base = call i32 @llvm.amdgcn.workitem.id.x()
116   %vgpr.offset = add i32 %vgpr.offset.base, 3
117   call void @llvm.amdgcn.ds.gws.barrier(i32 %val, i32 %vgpr.offset)
118   ret void
121 @lds = internal unnamed_addr addrspace(3) global i32 undef
123 ; Check if m0 initialization is shared
124 ; GCN-LABEL: {{^}}gws_barrier_save_m0_barrier_constant_offset:
125 ; NOLOOP: s_mov_b32 m0, 0
126 ; NOLOOP: ds_gws_barrier v{{[0-9]+}} offset:10 gds
128 ; LOOP: s_mov_b32 m0, -1
129 ; LOOP: ds_write_b32
130 ; LOOP: s_mov_b32 m0, 0
131 ; LOOP: s_setreg_imm32_b32
132 ; LOOP: ds_gws_barrier v{{[0-9]+}} offset:10 gds
133 ; LOOP: s_cbranch_scc1
135 ; LOOP: s_mov_b32 m0, -1
136 ; LOOP: ds_write_b32
137 define amdgpu_kernel void @gws_barrier_save_m0_barrier_constant_offset(i32 %val) #0 {
138   store i32 1, i32 addrspace(3)* @lds
139   call void @llvm.amdgcn.ds.gws.barrier(i32 %val, i32 10)
140   store i32 2, i32 addrspace(3)* @lds
141   ret void
144 ; Make sure this increments lgkmcnt
145 ; GCN-LABEL: {{^}}gws_barrier_lgkmcnt:
146 ; NOLOOP: s_mov_b32 m0, 0{{$}}
147 ; NOLOOP: ds_gws_barrier v0 gds{{$}}
148 ; NOLOOP-NEXT: s_waitcnt vmcnt(0) expcnt(0) lgkmcnt(0)
149 ; NOLOOP-NEXT: s_setpc_b64
150 define void @gws_barrier_lgkmcnt(i32 %val) {
151   call void @llvm.amdgcn.ds.gws.barrier(i32 %val, i32 0)
152   ret void
155 ; Does not imply memory fence on its own
156 ; GCN-LABEL: {{^}}gws_barrier_wait_before:
157 ; NOLOOP: s_waitcnt
158 ; NOLOOP-NOT: s_waitcnt{{$}}
159 define amdgpu_kernel void @gws_barrier_wait_before(i32 %val, i32 addrspace(1)* %ptr) #0 {
160   store i32 0, i32 addrspace(1)* %ptr
161   call void @llvm.amdgcn.ds.gws.barrier(i32 %val, i32 7)
162   ret void
165 ; GCN-LABEL: {{^}}gws_barrier_wait_after:
166 ; NOLOOP: s_mov_b32 m0, 0{{$}}
167 ; NOLOOP: ds_gws_barrier v{{[0-9]+}} offset:7 gds
168 ; NOLOOP-NEXT: s_waitcnt vmcnt(0) expcnt(0) lgkmcnt(0)
169 ; NOLOOP: load_dword
170 define amdgpu_kernel void @gws_barrier_wait_after(i32 %val, i32 addrspace(1)* %ptr) #0 {
171   call void @llvm.amdgcn.ds.gws.barrier(i32 %val, i32 7)
172   %load = load volatile i32, i32 addrspace(1)* %ptr
173   ret void
176 ; Does not imply memory fence on its own
177 ; GCN-LABEL: {{^}}gws_barrier_fence_before:
178 ; NOLOOP: s_mov_b32 m0, 0{{$}}
179 ; NOLOOP: store_dword
180 ; NOLOOP: s_waitcnt vmcnt(0) lgkmcnt(0)
181 ; NOLOOP: ds_gws_barrier v{{[0-9]+}} offset:7 gds
182 ; NOLOOP-NEXT: s_waitcnt vmcnt(0) expcnt(0) lgkmcnt(0)
183 define amdgpu_kernel void @gws_barrier_fence_before(i32 %val, i32 addrspace(1)* %ptr) #0 {
184   store i32 0, i32 addrspace(1)* %ptr
185   fence release
186   call void @llvm.amdgcn.ds.gws.barrier(i32 %val, i32 7)
187   ret void
190 ; FIXME: Extra waitcnt
191 ; GCN-LABEL: {{^}}gws_barrier_fence_after:
192 ; NOLOOP: s_mov_b32 m0, 0{{$}}
193 ; NOLOOP: ds_gws_barrier v{{[0-9]+}} offset:7 gds
194 ; NOLOOP-NEXT: s_waitcnt vmcnt(0) expcnt(0) lgkmcnt(0)
195 ; GFX10-NEXT: s_waitcnt_vscnt null, 0x0
196 ; NOLOOP-NEXT: load_dword
197 define amdgpu_kernel void @gws_barrier_fence_after(i32 %val, i32 addrspace(1)* %ptr) #0 {
198   call void @llvm.amdgcn.ds.gws.barrier(i32 %val, i32 7)
199   fence release
200   %load = load volatile i32, i32 addrspace(1)* %ptr
201   ret void
204 ; FIXME: Should a wait be inserted here, or is an explicit fence needed?
205 ; GCN-LABEL: {{^}}gws_init_barrier:
206 ; NOLOOP: s_mov_b32 m0, 0
207 ; NOLOOP: ds_gws_init v0 offset:7 gds
208 ; NOLOOP-NEXT: s_waitcnt vmcnt(0) expcnt(0) lgkmcnt(0)
209 ; NOLOOP-NEXT: ds_gws_barrier v0 offset:7 gds
210 ; NOLOOP-NEXT: s_waitcnt vmcnt(0) expcnt(0) lgkmcnt(0)
211 define amdgpu_kernel void @gws_init_barrier(i32 %val) #0 {
212   call void @llvm.amdgcn.ds.gws.init(i32 %val, i32 7)
213   call void @llvm.amdgcn.ds.gws.barrier(i32 %val, i32 7)
214   ret void
217 ; FIXME: Why vmcnt, not expcnt?
218 ; GCN-LABEL: {{^}}gws_init_fence_barrier:
219 ; NOLOOP: s_mov_b32 m0, 0
220 ; NOLOOP: ds_gws_init v0 offset:7 gds
221 ; NOLOOP-NEXT: s_waitcnt vmcnt(0) expcnt(0) lgkmcnt(0)
222 ; GFX10-NEXT: s_waitcnt_vscnt null, 0x0
223 ; NOLOOP-NEXT: ds_gws_barrier v0 offset:7 gds
224 ; NOLOOP-NEXT: s_waitcnt vmcnt(0) expcnt(0) lgkmcnt(0)
225 define amdgpu_kernel void @gws_init_fence_barrier(i32 %val) #0 {
226   call void @llvm.amdgcn.ds.gws.init(i32 %val, i32 7)
227   fence release
228   call void @llvm.amdgcn.ds.gws.barrier(i32 %val, i32 7)
229   ret void
232 declare void @llvm.amdgcn.ds.gws.barrier(i32, i32) #1
233 declare void @llvm.amdgcn.ds.gws.init(i32, i32) #2
234 declare i32 @llvm.amdgcn.workitem.id.x() #3
236 attributes #0 = { nounwind }
237 attributes #1 = { convergent inaccessiblememonly nounwind }
238 attributes #2 = { convergent inaccessiblememonly nounwind writeonly }
239 attributes #3 = { nounwind readnone speculatable }