Bump version to 19.1.0-rc3
[llvm-project.git] / llvm / test / CodeGen / AMDGPU / perfhint.ll
blob9cf7bd4edd20d8d34bf03d69a70a2b93d0be8923
1 ; RUN: llc -mtriple=amdgcn < %s | FileCheck -check-prefix=GCN %s
3 ; GCN-LABEL: {{^}}test_membound:
4 ; GCN: MemoryBound: 1
5 ; GCN: WaveLimiterHint : 1
6 define amdgpu_kernel void @test_membound(ptr addrspace(1) nocapture readonly %arg, ptr addrspace(1) nocapture %arg1) {
7 bb:
8   %tmp = tail call i32 @llvm.amdgcn.workitem.id.x()
9   %tmp2 = zext i32 %tmp to i64
10   %tmp3 = getelementptr inbounds <4 x i32>, ptr addrspace(1) %arg, i64 %tmp2
11   %tmp4 = load <4 x i32>, ptr addrspace(1) %tmp3, align 16
12   %tmp5 = getelementptr inbounds <4 x i32>, ptr addrspace(1) %arg1, i64 %tmp2
13   store <4 x i32> %tmp4, ptr addrspace(1) %tmp5, align 16
14   %tmp6 = add nuw nsw i64 %tmp2, 1
15   %tmp7 = getelementptr inbounds <4 x i32>, ptr addrspace(1) %arg, i64 %tmp6
16   %tmp8 = load <4 x i32>, ptr addrspace(1) %tmp7, align 16
17   %tmp9 = getelementptr inbounds <4 x i32>, ptr addrspace(1) %arg1, i64 %tmp6
18   store <4 x i32> %tmp8, ptr addrspace(1) %tmp9, align 16
19   ret void
22 ; GCN-LABEL: {{^}}test_membound_1:
23 ; GCN: MemoryBound: 1
24 define amdgpu_kernel void @test_membound_1(ptr addrspace(1) nocapture readonly %ptr.0,
25                                            ptr addrspace(1) nocapture %ptr.1,
26                                            <2 x double> %arg.0, i32 %arg.1, <4 x double> %arg.2) {
27 bb.entry:
28   %id.32 = tail call i32 @llvm.amdgcn.workitem.id.x()
29   %id.0 = zext i32 %id.32 to i64
30   %gep.0 = getelementptr inbounds <2 x double>, ptr addrspace(1) %ptr.0, i64 %id.0
31   %ld.0 = load <2 x double>, ptr addrspace(1) %gep.0, align 16
32   %add.0 = fadd <2 x double> %arg.0, %ld.0
34   %id.1 = add nuw nsw i64 %id.0, 1
35   %gep.1 = getelementptr inbounds <2 x double>, ptr addrspace(1) %ptr.0, i64 %id.1
36   %ld.1 = load <2 x double>, ptr addrspace(1) %gep.1, align 16
37   %add.1 = fadd <2 x double> %add.0, %ld.1
39   %id.2 = add nuw nsw i64 %id.0, 2
40   %gep.2 = getelementptr inbounds <2 x double>, ptr addrspace(1) %ptr.0, i64 %id.2
41   %ld.2 = load <2 x double>, ptr addrspace(1) %gep.2, align 16
42   %add.2 = fadd <2 x double> %add.1, %ld.2
44   %id.3 = add nuw nsw i64 %id.0, 3
45   %gep.3= getelementptr inbounds <2 x double>, ptr addrspace(1) %ptr.0, i64 %id.3
46   %ld.3 = load <2 x double>, ptr addrspace(1) %gep.3, align 16
47   %add.3 = fadd <2 x double> %add.2, %ld.3
49   %id.4 = add nuw nsw i64 %id.0, 4
50   %gep.4= getelementptr inbounds <2 x double>, ptr addrspace(1) %ptr.0, i64 %id.4
51   %ld.4 = load <2 x double>, ptr addrspace(1) %gep.4, align 16
52   %add.4 = fadd <2 x double> %add.3, %ld.4
54   store <2 x double> %add.4, ptr addrspace(1) %ptr.1, align 16
55   %cond = icmp eq i32 %arg.1, 0
56   br i1 %cond, label %bb.true, label %bb.ret
58 bb.true:
59   %i0.arg.0 = extractelement <2 x double> %arg.0, i32 0
60   %i1.arg.0 = extractelement <2 x double> %arg.0, i32 1
61   %add.1.0 = fadd double %i0.arg.0, %i1.arg.0
62   %i0.arg.2 = extractelement <4 x double> %arg.2, i32 0
63   %i1.arg.2 = extractelement <4 x double> %arg.2, i32 1
64   %add.1.1 = fadd double %i0.arg.2, %i1.arg.2
65   %add.1.2 = fadd double %add.1.0, %add.1.1
66   %i2.arg.2 = extractelement <4 x double> %arg.2, i32 2
67   %i3.arg.2 = extractelement <4 x double> %arg.2, i32 3
68   %add.1.3 = fadd double %i2.arg.2, %i3.arg.2
69   %add.1.4 = fadd double %add.1.2, %add.1.3
70   %i0.add.0 = extractelement <2 x double> %add.0, i32 0
71   %i1.add.0 = extractelement <2 x double> %add.0, i32 1
72   %add.1.5 = fadd double %i0.add.0, %i1.add.0
73   %add.1.6 = fadd double %add.1.4, %add.1.5
74   %i0.add.1 = extractelement <2 x double> %add.1, i32 0
75   %i1.add.1 = extractelement <2 x double> %add.1, i32 1
76   %add.1.7 = fadd double %i0.add.1, %i1.add.1
77   %add.1.8 = fadd double %add.1.6, %add.1.7
78   %i0.add.2 = extractelement <2 x double> %add.2, i32 0
79   %i1.add.2 = extractelement <2 x double> %add.2, i32 1
80   %add.1.9 = fadd double %i0.add.2, %i1.add.2
81   %add.1.10 = fadd double %add.1.8, %add.1.9
83   store double %add.1.8, ptr addrspace(1) %ptr.1, align 8
84   br label %bb.ret
86 bb.ret:
87   ret void
90 ; GCN-LABEL: {{^}}test_large_stride:
91 ; GCN: MemoryBound: 0
92 ; GCN: WaveLimiterHint : 1
93 define amdgpu_kernel void @test_large_stride(ptr addrspace(1) nocapture %arg) {
94 bb:
95   %tmp = getelementptr inbounds i32, ptr addrspace(1) %arg, i64 4096
96   %tmp1 = load i32, ptr addrspace(1) %tmp, align 4
97   %mul1 = mul i32 %tmp1, %tmp1
98   %tmp2 = getelementptr inbounds i32, ptr addrspace(1) %arg, i64 1
99   store i32 %mul1, ptr addrspace(1) %tmp2, align 4
100   %tmp3 = getelementptr inbounds i32, ptr addrspace(1) %arg, i64 8192
101   %tmp4 = load i32, ptr addrspace(1) %tmp3, align 4
102   %mul4 = mul i32 %tmp4, %tmp4
103   %tmp5 = getelementptr inbounds i32, ptr addrspace(1) %arg, i64 2
104   store i32 %mul4, ptr addrspace(1) %tmp5, align 4
105   %tmp6 = getelementptr inbounds i32, ptr addrspace(1) %arg, i64 12288
106   %tmp7 = load i32, ptr addrspace(1) %tmp6, align 4
107   %mul7 = mul i32 %tmp7, %tmp7
108   %tmp8 = getelementptr inbounds i32, ptr addrspace(1) %arg, i64 3
109   store i32 %mul7, ptr addrspace(1) %tmp8, align 4
110   ret void
113 ; GCN-LABEL: {{^}}test_indirect:
114 ; GCN: MemoryBound: 1
115 ; GCN: WaveLimiterHint : 1
116 define amdgpu_kernel void @test_indirect(ptr addrspace(1) nocapture %arg) {
118   %tmp = getelementptr inbounds i32, ptr addrspace(1) %arg, i64 1
119   %tmp1 = getelementptr inbounds i32, ptr addrspace(1) %arg, i64 2
120   %tmp2 = getelementptr inbounds i32, ptr addrspace(1) %arg, i64 3
121   %tmp4 = load <4 x i32>, ptr addrspace(1) %arg, align 4
122   %tmp5 = extractelement <4 x i32> %tmp4, i32 0
123   %tmp6 = sext i32 %tmp5 to i64
124   %tmp7 = getelementptr inbounds i32, ptr addrspace(1) %arg, i64 %tmp6
125   %tmp8 = load i32, ptr addrspace(1) %tmp7, align 4
126   store i32 %tmp8, ptr addrspace(1) %arg, align 4
127   %tmp9 = extractelement <4 x i32> %tmp4, i32 1
128   %tmp10 = sext i32 %tmp9 to i64
129   %tmp11 = getelementptr inbounds i32, ptr addrspace(1) %arg, i64 %tmp10
130   %tmp12 = load i32, ptr addrspace(1) %tmp11, align 4
131   store i32 %tmp12, ptr addrspace(1) %tmp, align 4
132   %tmp13 = extractelement <4 x i32> %tmp4, i32 2
133   %tmp14 = sext i32 %tmp13 to i64
134   %tmp15 = getelementptr inbounds i32, ptr addrspace(1) %arg, i64 %tmp14
135   %tmp16 = load i32, ptr addrspace(1) %tmp15, align 4
136   store i32 %tmp16, ptr addrspace(1) %tmp1, align 4
137   %tmp17 = extractelement <4 x i32> %tmp4, i32 3
138   %tmp18 = sext i32 %tmp17 to i64
139   %tmp19 = getelementptr inbounds i32, ptr addrspace(1) %arg, i64 %tmp18
140   %tmp20 = load i32, ptr addrspace(1) %tmp19, align 4
141   store i32 %tmp20, ptr addrspace(1) %tmp2, align 4
142   ret void
145 ; GCN-LABEL: {{^}}test_indirect_through_phi:
146 ; GCN: MemoryBound: 0
147 ; GCN: WaveLimiterHint : 0
148 define amdgpu_kernel void @test_indirect_through_phi(ptr addrspace(1) %arg) {
150   %load = load float, ptr addrspace(1) %arg, align 8
151   %load.f = bitcast float %load to i32
152   %n = tail call i32 @llvm.amdgcn.workitem.id.x()
153   br label %bb1
155 bb1:                                              ; preds = %bb1, %bb
156   %phi = phi i32 [ %load.f, %bb ], [ %and2, %bb1 ]
157   %ind = phi i32 [ 0, %bb ], [ %inc2, %bb1 ]
158   %and1 = and i32 %phi, %n
159   %gep = getelementptr inbounds float, ptr addrspace(1) %arg, i32 %and1
160   store float %load, ptr addrspace(1) %gep, align 4
161   %inc1 = add nsw i32 %phi, 1310720
162   %and2 = and i32 %inc1, %n
163   %inc2 = add nuw nsw i32 %ind, 1
164   %cmp = icmp eq i32 %inc2, 1024
165   br i1 %cmp, label %bb2, label %bb1
167 bb2:                                              ; preds = %bb1
168   ret void
171 declare i32 @llvm.amdgcn.workitem.id.x()