[ARM] Fixup the creation of VPT blocks
[llvm-core.git] / test / CodeGen / AMDGPU / local-memory.amdgcn.ll
bloba070488a4bc05f4f073112d9cc60dc16426e916d
1 ; RUN: llc -march=amdgcn -mcpu=verde -verify-machineinstrs < %s | FileCheck -check-prefix=SI -check-prefix=GCN %s
2 ; RUN: llc -march=amdgcn -mcpu=bonaire -verify-machineinstrs < %s | FileCheck -check-prefix=CI -check-prefix=GCN %s
4 @local_memory.local_mem = internal unnamed_addr addrspace(3) global [128 x i32] undef, align 4
6 ; GCN-LABEL: {{^}}local_memory:
8 ; GCN-NOT: s_wqm_b64
9 ; GCN: ds_write_b32
11 ; GCN: s_barrier
13 ; GCN: ds_read_b32 {{v[0-9]+}},
14 define amdgpu_kernel void @local_memory(i32 addrspace(1)* %out) #0 {
15 entry:
16   %y.i = call i32 @llvm.amdgcn.workitem.id.x() #1
17   %arrayidx = getelementptr inbounds [128 x i32], [128 x i32] addrspace(3)* @local_memory.local_mem, i32 0, i32 %y.i
18   store i32 %y.i, i32 addrspace(3)* %arrayidx, align 4
19   %add = add nsw i32 %y.i, 1
20   %cmp = icmp eq i32 %add, 16
21   %.add = select i1 %cmp, i32 0, i32 %add
22   call void @llvm.amdgcn.s.barrier()
23   %arrayidx1 = getelementptr inbounds [128 x i32], [128 x i32] addrspace(3)* @local_memory.local_mem, i32 0, i32 %.add
24   %tmp = load i32, i32 addrspace(3)* %arrayidx1, align 4
25   %arrayidx2 = getelementptr inbounds i32, i32 addrspace(1)* %out, i32 %y.i
26   store i32 %tmp, i32 addrspace(1)* %arrayidx2, align 4
27   ret void
30 @local_memory_two_objects.local_mem0 = internal unnamed_addr addrspace(3) global [4 x i32] undef, align 4
31 @local_memory_two_objects.local_mem1 = internal unnamed_addr addrspace(3) global [4 x i32] undef, align 4
33 ; Check that the LDS size emitted correctly
34 ; EG: .long 166120
35 ; EG-NEXT: .long 8
36 ; GCN: .long 47180
37 ; GCN-NEXT: .long 32900
39 ; GCN-LABEL: {{^}}local_memory_two_objects:
40 ; GCN: v_lshlrev_b32_e32 [[ADDRW:v[0-9]+]], 2, v0
41 ; CI-DAG: ds_write2_b32 [[ADDRW]], {{v[0-9]+}}, {{v[0-9]+}} offset1:4
42 ; SI-DAG: ds_write2_b32 [[ADDRW]], {{v[0-9]+}}, {{v[0-9]+}} offset1:4
44 ; GCN: s_barrier
46 ; SI-DAG: v_sub_i32_e32 [[SUB0:v[0-9]+]], vcc, 28, [[ADDRW]]
47 ; SI-DAG: v_sub_i32_e32 [[SUB1:v[0-9]+]], vcc, 12, [[ADDRW]]
49 ; SI-DAG: ds_read_b32 v{{[0-9]+}}, [[SUB0]]
50 ; SI-DAG: ds_read_b32 v{{[0-9]+}}, [[SUB1]]
52 ; CI: v_sub_i32_e32 [[SUB:v[0-9]+]], vcc, 0, [[ADDRW]]
53 ; CI: ds_read2_b32 {{v\[[0-9]+:[0-9]+\]}}, [[SUB]] offset0:3 offset1:7
55 define amdgpu_kernel void @local_memory_two_objects(i32 addrspace(1)* %out) #0 {
56 entry:
57   %x.i = call i32 @llvm.amdgcn.workitem.id.x()
58   %arrayidx = getelementptr inbounds [4 x i32], [4 x i32] addrspace(3)* @local_memory_two_objects.local_mem0, i32 0, i32 %x.i
59   store i32 %x.i, i32 addrspace(3)* %arrayidx, align 4
60   %mul = shl nsw i32 %x.i, 1
61   %arrayidx1 = getelementptr inbounds [4 x i32], [4 x i32] addrspace(3)* @local_memory_two_objects.local_mem1, i32 0, i32 %x.i
62   store i32 %mul, i32 addrspace(3)* %arrayidx1, align 4
63   %sub = sub nsw i32 3, %x.i
64   call void @llvm.amdgcn.s.barrier()
65   %arrayidx2 = getelementptr inbounds [4 x i32], [4 x i32] addrspace(3)* @local_memory_two_objects.local_mem0, i32 0, i32 %sub
66   %tmp = load i32, i32 addrspace(3)* %arrayidx2, align 4
67   %arrayidx3 = getelementptr inbounds i32, i32 addrspace(1)* %out, i32 %x.i
68   store i32 %tmp, i32 addrspace(1)* %arrayidx3, align 4
69   %arrayidx4 = getelementptr inbounds [4 x i32], [4 x i32] addrspace(3)* @local_memory_two_objects.local_mem1, i32 0, i32 %sub
70   %tmp1 = load i32, i32 addrspace(3)* %arrayidx4, align 4
71   %add = add nsw i32 %x.i, 4
72   %arrayidx5 = getelementptr inbounds i32, i32 addrspace(1)* %out, i32 %add
73   store i32 %tmp1, i32 addrspace(1)* %arrayidx5, align 4
74   ret void
77 declare i32 @llvm.amdgcn.workitem.id.x() #1
78 declare void @llvm.amdgcn.s.barrier() #2
80 attributes #0 = { nounwind }
81 attributes #1 = { nounwind readnone }
82 attributes #2 = { convergent nounwind }