[RISCV] Support postRA vsetvl insertion pass (#70549)
[llvm-project.git] / llvm / test / CodeGen / RISCV / rvv / undef-vp-ops.ll
blob1bfc0f432eb55e64c1b9b352da6f988c585cba7f
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc -mtriple=riscv32 -mattr=+d,+zfh,+zvfh,+v -target-abi=ilp32d \
3 ; RUN:     -verify-machineinstrs < %s | FileCheck %s
4 ; RUN: llc -mtriple=riscv64 -mattr=+d,+zfh,+zvfh,+v -target-abi=lp64d \
5 ; RUN:     -verify-machineinstrs < %s | FileCheck %s
7 ; Test that we can remove trivially-undef VP operations of various kinds.
9 declare <4 x i32> @llvm.vp.load.v4i32.p0(ptr, <4 x i1>, i32)
11 define <4 x i32> @vload_v4i32_zero_evl(ptr %ptr, <4 x i1> %m) {
12 ; CHECK-LABEL: vload_v4i32_zero_evl:
13 ; CHECK:       # %bb.0:
14 ; CHECK-NEXT:    ret
15   %v = call <4 x i32> @llvm.vp.load.v4i32.p0(ptr %ptr, <4 x i1> %m, i32 0)
16   ret <4 x i32> %v
19 define <4 x i32> @vload_v4i32_false_mask(ptr %ptr, i32 %evl) {
20 ; CHECK-LABEL: vload_v4i32_false_mask:
21 ; CHECK:       # %bb.0:
22 ; CHECK-NEXT:    ret
23   %v = call <4 x i32> @llvm.vp.load.v4i32.p0(ptr %ptr, <4 x i1> zeroinitializer, i32 %evl)
24   ret <4 x i32> %v
27 declare <4 x i32> @llvm.vp.gather.v4i32.v4p0(<4 x ptr>, <4 x i1>, i32)
29 define <4 x i32> @vgather_v4i32_v4i32_zero_evl(<4 x ptr> %ptrs, <4 x i1> %m) {
30 ; CHECK-LABEL: vgather_v4i32_v4i32_zero_evl:
31 ; CHECK:       # %bb.0:
32 ; CHECK-NEXT:    ret
33   %v = call <4 x i32> @llvm.vp.gather.v4i32.v4p0(<4 x ptr> %ptrs, <4 x i1> %m, i32 0)
34   ret <4 x i32> %v
37 define <4 x i32> @vgather_v4i32_v4i32_false_mask(<4 x ptr> %ptrs, i32 %evl) {
38 ; CHECK-LABEL: vgather_v4i32_v4i32_false_mask:
39 ; CHECK:       # %bb.0:
40 ; CHECK-NEXT:    ret
41   %v = call <4 x i32> @llvm.vp.gather.v4i32.v4p0(<4 x ptr> %ptrs, <4 x i1> zeroinitializer, i32 %evl)
42   ret <4 x i32> %v
45 declare void @llvm.vp.store.v4i32.p0(<4 x i32>, ptr, <4 x i1>, i32)
47 define void @vstore_v4i32_zero_evl(<4 x i32> %val, ptr %ptr, <4 x i1> %m) {
48 ; CHECK-LABEL: vstore_v4i32_zero_evl:
49 ; CHECK:       # %bb.0:
50 ; CHECK-NEXT:    ret
51   call void @llvm.vp.store.v4i32.p0(<4 x i32> %val, ptr %ptr, <4 x i1> %m, i32 0)
52   ret void
55 define void @vstore_v4i32_false_mask(<4 x i32> %val, ptr %ptr, i32 %evl) {
56 ; CHECK-LABEL: vstore_v4i32_false_mask:
57 ; CHECK:       # %bb.0:
58 ; CHECK-NEXT:    ret
59   call void @llvm.vp.store.v4i32.p0(<4 x i32> %val, ptr %ptr, <4 x i1> zeroinitializer, i32 %evl)
60   ret void
63 declare void @llvm.vp.scatter.v4i32.v4p0(<4 x i32>, <4 x ptr>, <4 x i1>, i32)
65 define void @vscatter_v4i32_zero_evl(<4 x i32> %val, <4 x ptr> %ptrs, <4 x i1> %m) {
66 ; CHECK-LABEL: vscatter_v4i32_zero_evl:
67 ; CHECK:       # %bb.0:
68 ; CHECK-NEXT:    ret
69   call void @llvm.vp.scatter.v4i32.v4p0(<4 x i32> %val, <4 x ptr> %ptrs, <4 x i1> %m, i32 0)
70   ret void
73 define void @vscatter_v4i32_false_mask(<4 x i32> %val, <4 x ptr> %ptrs, i32 %evl) {
74 ; CHECK-LABEL: vscatter_v4i32_false_mask:
75 ; CHECK:       # %bb.0:
76 ; CHECK-NEXT:    ret
77   call void @llvm.vp.scatter.v4i32.v4p0(<4 x i32> %val, <4 x ptr> %ptrs, <4 x i1> zeroinitializer, i32 %evl)
78   ret void
81 declare <4 x i32> @llvm.vp.add.v4i32(<4 x i32>, <4 x i32>, <4 x i1>, i32)
83 define <4 x i32> @vadd_v4i32_zero_evl(<4 x i32> %va, <4 x i32> %vb, <4 x i1> %m) {
84 ; CHECK-LABEL: vadd_v4i32_zero_evl:
85 ; CHECK:       # %bb.0:
86 ; CHECK-NEXT:    ret
87   %s = call <4 x i32> @llvm.vp.add.v4i32(<4 x i32> %va, <4 x i32> %vb, <4 x i1> %m, i32 0)
88   ret <4 x i32> %s
91 define <4 x i32> @vadd_v4i32_false_mask(<4 x i32> %va, <4 x i32> %vb, i32 %evl) {
92 ; CHECK-LABEL: vadd_v4i32_false_mask:
93 ; CHECK:       # %bb.0:
94 ; CHECK-NEXT:    ret
95   %s = call <4 x i32> @llvm.vp.add.v4i32(<4 x i32> %va, <4 x i32> %vb, <4 x i1> zeroinitializer, i32 %evl)
96   ret <4 x i32> %s
99 declare <4 x i32> @llvm.vp.and.v4i32(<4 x i32>, <4 x i32>, <4 x i1>, i32)
101 define <4 x i32> @vand_v4i32_zero_evl(<4 x i32> %va, <4 x i32> %vb, <4 x i1> %m) {
102 ; CHECK-LABEL: vand_v4i32_zero_evl:
103 ; CHECK:       # %bb.0:
104 ; CHECK-NEXT:    ret
105   %s = call <4 x i32> @llvm.vp.and.v4i32(<4 x i32> %va, <4 x i32> %vb, <4 x i1> %m, i32 0)
106   ret <4 x i32> %s
109 define <4 x i32> @vand_v4i32_false_mask(<4 x i32> %va, <4 x i32> %vb, i32 %evl) {
110 ; CHECK-LABEL: vand_v4i32_false_mask:
111 ; CHECK:       # %bb.0:
112 ; CHECK-NEXT:    ret
113   %s = call <4 x i32> @llvm.vp.and.v4i32(<4 x i32> %va, <4 x i32> %vb, <4 x i1> zeroinitializer, i32 %evl)
114   ret <4 x i32> %s
117 declare <4 x i32> @llvm.vp.lshr.v4i32(<4 x i32>, <4 x i32>, <4 x i1>, i32)
119 define <4 x i32> @vlshr_v4i32_zero_evl(<4 x i32> %va, <4 x i32> %vb, <4 x i1> %m) {
120 ; CHECK-LABEL: vlshr_v4i32_zero_evl:
121 ; CHECK:       # %bb.0:
122 ; CHECK-NEXT:    ret
123   %s = call <4 x i32> @llvm.vp.lshr.v4i32(<4 x i32> %va, <4 x i32> %vb, <4 x i1> %m, i32 0)
124   ret <4 x i32> %s
127 define <4 x i32> @vlshr_v4i32_false_mask(<4 x i32> %va, <4 x i32> %vb, i32 %evl) {
128 ; CHECK-LABEL: vlshr_v4i32_false_mask:
129 ; CHECK:       # %bb.0:
130 ; CHECK-NEXT:    ret
131   %s = call <4 x i32> @llvm.vp.lshr.v4i32(<4 x i32> %va, <4 x i32> %vb, <4 x i1> zeroinitializer, i32 %evl)
132   ret <4 x i32> %s
135 declare <4 x i32> @llvm.vp.mul.v4i32(<4 x i32>, <4 x i32>, <4 x i1>, i32)
137 define <4 x i32> @vmul_v4i32_zero_evl(<4 x i32> %va, <4 x i32> %vb, <4 x i1> %m) {
138 ; CHECK-LABEL: vmul_v4i32_zero_evl:
139 ; CHECK:       # %bb.0:
140 ; CHECK-NEXT:    ret
141   %s = call <4 x i32> @llvm.vp.mul.v4i32(<4 x i32> %va, <4 x i32> %vb, <4 x i1> %m, i32 0)
142   ret <4 x i32> %s
145 define <4 x i32> @vmul_v4i32_false_mask(<4 x i32> %va, <4 x i32> %vb, i32 %evl) {
146 ; CHECK-LABEL: vmul_v4i32_false_mask:
147 ; CHECK:       # %bb.0:
148 ; CHECK-NEXT:    ret
149   %s = call <4 x i32> @llvm.vp.mul.v4i32(<4 x i32> %va, <4 x i32> %vb, <4 x i1> zeroinitializer, i32 %evl)
150   ret <4 x i32> %s
153 declare <4 x i32> @llvm.vp.or.v4i32(<4 x i32>, <4 x i32>, <4 x i1>, i32)
155 define <4 x i32> @vor_v4i32_zero_evl(<4 x i32> %va, <4 x i32> %vb, <4 x i1> %m) {
156 ; CHECK-LABEL: vor_v4i32_zero_evl:
157 ; CHECK:       # %bb.0:
158 ; CHECK-NEXT:    ret
159   %s = call <4 x i32> @llvm.vp.or.v4i32(<4 x i32> %va, <4 x i32> %vb, <4 x i1> %m, i32 0)
160   ret <4 x i32> %s
163 define <4 x i32> @vor_v4i32_false_mask(<4 x i32> %va, <4 x i32> %vb, i32 %evl) {
164 ; CHECK-LABEL: vor_v4i32_false_mask:
165 ; CHECK:       # %bb.0:
166 ; CHECK-NEXT:    ret
167   %s = call <4 x i32> @llvm.vp.or.v4i32(<4 x i32> %va, <4 x i32> %vb, <4 x i1> zeroinitializer, i32 %evl)
168   ret <4 x i32> %s
171 declare <4 x i32> @llvm.vp.sdiv.v4i32(<4 x i32>, <4 x i32>, <4 x i1>, i32)
173 define <4 x i32> @vsdiv_v4i32_zero_evl(<4 x i32> %va, <4 x i32> %vb, <4 x i1> %m) {
174 ; CHECK-LABEL: vsdiv_v4i32_zero_evl:
175 ; CHECK:       # %bb.0:
176 ; CHECK-NEXT:    ret
177   %s = call <4 x i32> @llvm.vp.sdiv.v4i32(<4 x i32> %va, <4 x i32> %vb, <4 x i1> %m, i32 0)
178   ret <4 x i32> %s
181 define <4 x i32> @vsdiv_v4i32_false_mask(<4 x i32> %va, <4 x i32> %vb, i32 %evl) {
182 ; CHECK-LABEL: vsdiv_v4i32_false_mask:
183 ; CHECK:       # %bb.0:
184 ; CHECK-NEXT:    ret
185   %s = call <4 x i32> @llvm.vp.sdiv.v4i32(<4 x i32> %va, <4 x i32> %vb, <4 x i1> zeroinitializer, i32 %evl)
186   ret <4 x i32> %s
189 declare <4 x i32> @llvm.vp.srem.v4i32(<4 x i32>, <4 x i32>, <4 x i1>, i32)
191 define <4 x i32> @vsrem_v4i32_zero_evl(<4 x i32> %va, <4 x i32> %vb, <4 x i1> %m) {
192 ; CHECK-LABEL: vsrem_v4i32_zero_evl:
193 ; CHECK:       # %bb.0:
194 ; CHECK-NEXT:    ret
195   %s = call <4 x i32> @llvm.vp.srem.v4i32(<4 x i32> %va, <4 x i32> %vb, <4 x i1> %m, i32 0)
196   ret <4 x i32> %s
199 define <4 x i32> @vsrem_v4i32_false_mask(<4 x i32> %va, <4 x i32> %vb, i32 %evl) {
200 ; CHECK-LABEL: vsrem_v4i32_false_mask:
201 ; CHECK:       # %bb.0:
202 ; CHECK-NEXT:    ret
203   %s = call <4 x i32> @llvm.vp.srem.v4i32(<4 x i32> %va, <4 x i32> %vb, <4 x i1> zeroinitializer, i32 %evl)
204   ret <4 x i32> %s
207 declare <4 x i32> @llvm.vp.sub.v4i32(<4 x i32>, <4 x i32>, <4 x i1>, i32)
209 define <4 x i32> @vsub_v4i32_zero_evl(<4 x i32> %va, <4 x i32> %vb, <4 x i1> %m) {
210 ; CHECK-LABEL: vsub_v4i32_zero_evl:
211 ; CHECK:       # %bb.0:
212 ; CHECK-NEXT:    ret
213   %s = call <4 x i32> @llvm.vp.sub.v4i32(<4 x i32> %va, <4 x i32> %vb, <4 x i1> %m, i32 0)
214   ret <4 x i32> %s
217 define <4 x i32> @vsub_v4i32_false_mask(<4 x i32> %va, <4 x i32> %vb, i32 %evl) {
218 ; CHECK-LABEL: vsub_v4i32_false_mask:
219 ; CHECK:       # %bb.0:
220 ; CHECK-NEXT:    ret
221   %s = call <4 x i32> @llvm.vp.sub.v4i32(<4 x i32> %va, <4 x i32> %vb, <4 x i1> zeroinitializer, i32 %evl)
222   ret <4 x i32> %s
225 declare <4 x i32> @llvm.vp.udiv.v4i32(<4 x i32>, <4 x i32>, <4 x i1>, i32)
227 define <4 x i32> @vudiv_v4i32_zero_evl(<4 x i32> %va, <4 x i32> %vb, <4 x i1> %m) {
228 ; CHECK-LABEL: vudiv_v4i32_zero_evl:
229 ; CHECK:       # %bb.0:
230 ; CHECK-NEXT:    ret
231   %s = call <4 x i32> @llvm.vp.udiv.v4i32(<4 x i32> %va, <4 x i32> %vb, <4 x i1> %m, i32 0)
232   ret <4 x i32> %s
235 define <4 x i32> @vudiv_v4i32_false_mask(<4 x i32> %va, <4 x i32> %vb, i32 %evl) {
236 ; CHECK-LABEL: vudiv_v4i32_false_mask:
237 ; CHECK:       # %bb.0:
238 ; CHECK-NEXT:    ret
239   %s = call <4 x i32> @llvm.vp.udiv.v4i32(<4 x i32> %va, <4 x i32> %vb, <4 x i1> zeroinitializer, i32 %evl)
240   ret <4 x i32> %s
243 declare <4 x i32> @llvm.vp.urem.v4i32(<4 x i32>, <4 x i32>, <4 x i1>, i32)
245 define <4 x i32> @vurem_v4i32_zero_evl(<4 x i32> %va, <4 x i32> %vb, <4 x i1> %m) {
246 ; CHECK-LABEL: vurem_v4i32_zero_evl:
247 ; CHECK:       # %bb.0:
248 ; CHECK-NEXT:    ret
249   %s = call <4 x i32> @llvm.vp.urem.v4i32(<4 x i32> %va, <4 x i32> %vb, <4 x i1> %m, i32 0)
250   ret <4 x i32> %s
253 define <4 x i32> @vurem_v4i32_false_mask(<4 x i32> %va, <4 x i32> %vb, i32 %evl) {
254 ; CHECK-LABEL: vurem_v4i32_false_mask:
255 ; CHECK:       # %bb.0:
256 ; CHECK-NEXT:    ret
257   %s = call <4 x i32> @llvm.vp.urem.v4i32(<4 x i32> %va, <4 x i32> %vb, <4 x i1> zeroinitializer, i32 %evl)
258   ret <4 x i32> %s
261 declare <4 x i32> @llvm.vp.xor.v4i32(<4 x i32>, <4 x i32>, <4 x i1>, i32)
263 define <4 x i32> @vxor_v4i32_zero_evl(<4 x i32> %va, <4 x i32> %vb, <4 x i1> %m) {
264 ; CHECK-LABEL: vxor_v4i32_zero_evl:
265 ; CHECK:       # %bb.0:
266 ; CHECK-NEXT:    ret
267   %s = call <4 x i32> @llvm.vp.xor.v4i32(<4 x i32> %va, <4 x i32> %vb, <4 x i1> %m, i32 0)
268   ret <4 x i32> %s
271 define <4 x i32> @vxor_v4i32_false_mask(<4 x i32> %va, <4 x i32> %vb, i32 %evl) {
272 ; CHECK-LABEL: vxor_v4i32_false_mask:
273 ; CHECK:       # %bb.0:
274 ; CHECK-NEXT:    ret
275   %s = call <4 x i32> @llvm.vp.xor.v4i32(<4 x i32> %va, <4 x i32> %vb, <4 x i1> zeroinitializer, i32 %evl)
276   ret <4 x i32> %s
279 declare <4 x float> @llvm.vp.fadd.v4f32(<4 x float>, <4 x float>, <4 x i1>, i32)
281 define <4 x float> @vfadd_v4f32_zero_evl(<4 x float> %va, <4 x float> %vb, <4 x i1> %m) {
282 ; CHECK-LABEL: vfadd_v4f32_zero_evl:
283 ; CHECK:       # %bb.0:
284 ; CHECK-NEXT:    ret
285   %s = call <4 x float> @llvm.vp.fadd.v4f32(<4 x float> %va, <4 x float> %vb, <4 x i1> %m, i32 0)
286   ret <4 x float> %s
289 define <4 x float> @vfadd_v4f32_false_mask(<4 x float> %va, <4 x float> %vb, i32 %evl) {
290 ; CHECK-LABEL: vfadd_v4f32_false_mask:
291 ; CHECK:       # %bb.0:
292 ; CHECK-NEXT:    ret
293   %s = call <4 x float> @llvm.vp.fadd.v4f32(<4 x float> %va, <4 x float> %vb, <4 x i1> zeroinitializer, i32 %evl)
294   ret <4 x float> %s
297 declare <4 x float> @llvm.vp.fsub.v4f32(<4 x float>, <4 x float>, <4 x i1>, i32)
299 define <4 x float> @vfsub_v4f32_zero_evl(<4 x float> %va, <4 x float> %vb, <4 x i1> %m) {
300 ; CHECK-LABEL: vfsub_v4f32_zero_evl:
301 ; CHECK:       # %bb.0:
302 ; CHECK-NEXT:    ret
303   %s = call <4 x float> @llvm.vp.fsub.v4f32(<4 x float> %va, <4 x float> %vb, <4 x i1> %m, i32 0)
304   ret <4 x float> %s
307 define <4 x float> @vfsub_v4f32_false_mask(<4 x float> %va, <4 x float> %vb, i32 %evl) {
308 ; CHECK-LABEL: vfsub_v4f32_false_mask:
309 ; CHECK:       # %bb.0:
310 ; CHECK-NEXT:    ret
311   %s = call <4 x float> @llvm.vp.fsub.v4f32(<4 x float> %va, <4 x float> %vb, <4 x i1> zeroinitializer, i32 %evl)
312   ret <4 x float> %s
315 declare <4 x float> @llvm.vp.fmul.v4f32(<4 x float>, <4 x float>, <4 x i1>, i32)
317 define <4 x float> @vfmul_v4f32_zero_evl(<4 x float> %va, <4 x float> %vb, <4 x i1> %m) {
318 ; CHECK-LABEL: vfmul_v4f32_zero_evl:
319 ; CHECK:       # %bb.0:
320 ; CHECK-NEXT:    ret
321   %s = call <4 x float> @llvm.vp.fmul.v4f32(<4 x float> %va, <4 x float> %vb, <4 x i1> %m, i32 0)
322   ret <4 x float> %s
325 define <4 x float> @vfmul_v4f32_false_mask(<4 x float> %va, <4 x float> %vb, i32 %evl) {
326 ; CHECK-LABEL: vfmul_v4f32_false_mask:
327 ; CHECK:       # %bb.0:
328 ; CHECK-NEXT:    ret
329   %s = call <4 x float> @llvm.vp.fmul.v4f32(<4 x float> %va, <4 x float> %vb, <4 x i1> zeroinitializer, i32 %evl)
330   ret <4 x float> %s
333 declare <4 x float> @llvm.vp.fdiv.v4f32(<4 x float>, <4 x float>, <4 x i1>, i32)
335 define <4 x float> @vfdiv_v4f32_zero_evl(<4 x float> %va, <4 x float> %vb, <4 x i1> %m) {
336 ; CHECK-LABEL: vfdiv_v4f32_zero_evl:
337 ; CHECK:       # %bb.0:
338 ; CHECK-NEXT:    ret
339   %s = call <4 x float> @llvm.vp.fdiv.v4f32(<4 x float> %va, <4 x float> %vb, <4 x i1> %m, i32 0)
340   ret <4 x float> %s
343 define <4 x float> @vfdiv_v4f32_false_mask(<4 x float> %va, <4 x float> %vb, i32 %evl) {
344 ; CHECK-LABEL: vfdiv_v4f32_false_mask:
345 ; CHECK:       # %bb.0:
346 ; CHECK-NEXT:    ret
347   %s = call <4 x float> @llvm.vp.fdiv.v4f32(<4 x float> %va, <4 x float> %vb, <4 x i1> zeroinitializer, i32 %evl)
348   ret <4 x float> %s
351 declare <4 x float> @llvm.vp.frem.v4f32(<4 x float>, <4 x float>, <4 x i1>, i32)
353 define <4 x float> @vfrem_v4f32_zero_evl(<4 x float> %va, <4 x float> %vb, <4 x i1> %m) {
354 ; CHECK-LABEL: vfrem_v4f32_zero_evl:
355 ; CHECK:       # %bb.0:
356 ; CHECK-NEXT:    ret
357   %s = call <4 x float> @llvm.vp.frem.v4f32(<4 x float> %va, <4 x float> %vb, <4 x i1> %m, i32 0)
358   ret <4 x float> %s
361 define <4 x float> @vfrem_v4f32_false_mask(<4 x float> %va, <4 x float> %vb, i32 %evl) {
362 ; CHECK-LABEL: vfrem_v4f32_false_mask:
363 ; CHECK:       # %bb.0:
364 ; CHECK-NEXT:    ret
365   %s = call <4 x float> @llvm.vp.frem.v4f32(<4 x float> %va, <4 x float> %vb, <4 x i1> zeroinitializer, i32 %evl)
366   ret <4 x float> %s
369 declare i32 @llvm.vp.reduce.add.v4i32(i32, <4 x i32>, <4 x i1>, i32)
371 define i32 @vreduce_add_v4i32_zero_evl(i32 %start, <4 x i32> %val, <4 x i1> %m) {
372 ; CHECK-LABEL: vreduce_add_v4i32_zero_evl:
373 ; CHECK:       # %bb.0:
374 ; CHECK-NEXT:    ret
375   %s = call i32 @llvm.vp.reduce.add.v4i32(i32 %start, <4 x i32> %val, <4 x i1> %m, i32 0)
376   ret i32 %s
379 define i32 @vreduce_add_v4i32_false_mask(i32 %start, <4 x i32> %val, i32 %evl) {
380 ; CHECK-LABEL: vreduce_add_v4i32_false_mask:
381 ; CHECK:       # %bb.0:
382 ; CHECK-NEXT:    ret
383   %s = call i32 @llvm.vp.reduce.add.v4i32(i32 %start, <4 x i32> %val, <4 x i1> zeroinitializer, i32 %evl)
384   ret i32 %s
387 declare i32 @llvm.vp.reduce.mul.v4i32(i32, <4 x i32>, <4 x i1>, i32)
389 define i32 @vreduce_mul_v4i32_zero_evl(i32 %start, <4 x i32> %val, <4 x i1> %m) {
390 ; CHECK-LABEL: vreduce_mul_v4i32_zero_evl:
391 ; CHECK:       # %bb.0:
392 ; CHECK-NEXT:    ret
393   %s = call i32 @llvm.vp.reduce.mul.v4i32(i32 %start, <4 x i32> %val, <4 x i1> %m, i32 0)
394   ret i32 %s
397 define i32 @vreduce_mul_v4i32_false_mask(i32 %start, <4 x i32> %val, i32 %evl) {
398 ; CHECK-LABEL: vreduce_mul_v4i32_false_mask:
399 ; CHECK:       # %bb.0:
400 ; CHECK-NEXT:    ret
401   %s = call i32 @llvm.vp.reduce.mul.v4i32(i32 %start, <4 x i32> %val, <4 x i1> zeroinitializer, i32 %evl)
402   ret i32 %s
405 declare i32 @llvm.vp.reduce.and.v4i32(i32, <4 x i32>, <4 x i1>, i32)
407 define i32 @vreduce_and_v4i32_zero_evl(i32 %start, <4 x i32> %val, <4 x i1> %m) {
408 ; CHECK-LABEL: vreduce_and_v4i32_zero_evl:
409 ; CHECK:       # %bb.0:
410 ; CHECK-NEXT:    ret
411   %s = call i32 @llvm.vp.reduce.and.v4i32(i32 %start, <4 x i32> %val, <4 x i1> %m, i32 0)
412   ret i32 %s
415 define i32 @vreduce_and_v4i32_false_mask(i32 %start, <4 x i32> %val, i32 %evl) {
416 ; CHECK-LABEL: vreduce_and_v4i32_false_mask:
417 ; CHECK:       # %bb.0:
418 ; CHECK-NEXT:    ret
419   %s = call i32 @llvm.vp.reduce.and.v4i32(i32 %start, <4 x i32> %val, <4 x i1> zeroinitializer, i32 %evl)
420   ret i32 %s
423 declare i32 @llvm.vp.reduce.or.v4i32(i32, <4 x i32>, <4 x i1>, i32)
425 define i32 @vreduce_or_v4i32_zero_evl(i32 %start, <4 x i32> %val, <4 x i1> %m) {
426 ; CHECK-LABEL: vreduce_or_v4i32_zero_evl:
427 ; CHECK:       # %bb.0:
428 ; CHECK-NEXT:    ret
429   %s = call i32 @llvm.vp.reduce.or.v4i32(i32 %start, <4 x i32> %val, <4 x i1> %m, i32 0)
430   ret i32 %s
433 define i32 @vreduce_or_v4i32_false_mask(i32 %start, <4 x i32> %val, i32 %evl) {
434 ; CHECK-LABEL: vreduce_or_v4i32_false_mask:
435 ; CHECK:       # %bb.0:
436 ; CHECK-NEXT:    ret
437   %s = call i32 @llvm.vp.reduce.or.v4i32(i32 %start, <4 x i32> %val, <4 x i1> zeroinitializer, i32 %evl)
438   ret i32 %s
441 declare i32 @llvm.vp.reduce.xor.v4i32(i32, <4 x i32>, <4 x i1>, i32)
443 define i32 @vreduce_xor_v4i32_zero_evl(i32 %start, <4 x i32> %val, <4 x i1> %m) {
444 ; CHECK-LABEL: vreduce_xor_v4i32_zero_evl:
445 ; CHECK:       # %bb.0:
446 ; CHECK-NEXT:    ret
447   %s = call i32 @llvm.vp.reduce.xor.v4i32(i32 %start, <4 x i32> %val, <4 x i1> %m, i32 0)
448   ret i32 %s
451 define i32 @vreduce_xor_v4i32_false_mask(i32 %start, <4 x i32> %val, i32 %evl) {
452 ; CHECK-LABEL: vreduce_xor_v4i32_false_mask:
453 ; CHECK:       # %bb.0:
454 ; CHECK-NEXT:    ret
455   %s = call i32 @llvm.vp.reduce.xor.v4i32(i32 %start, <4 x i32> %val, <4 x i1> zeroinitializer, i32 %evl)
456   ret i32 %s
459 declare i32 @llvm.vp.reduce.smax.v4i32(i32, <4 x i32>, <4 x i1>, i32)
461 define i32 @vreduce_smax_v4i32_zero_evl(i32 %start, <4 x i32> %val, <4 x i1> %m) {
462 ; CHECK-LABEL: vreduce_smax_v4i32_zero_evl:
463 ; CHECK:       # %bb.0:
464 ; CHECK-NEXT:    ret
465   %s = call i32 @llvm.vp.reduce.smax.v4i32(i32 %start, <4 x i32> %val, <4 x i1> %m, i32 0)
466   ret i32 %s
469 define i32 @vreduce_smax_v4i32_false_mask(i32 %start, <4 x i32> %val, i32 %evl) {
470 ; CHECK-LABEL: vreduce_smax_v4i32_false_mask:
471 ; CHECK:       # %bb.0:
472 ; CHECK-NEXT:    ret
473   %s = call i32 @llvm.vp.reduce.smax.v4i32(i32 %start, <4 x i32> %val, <4 x i1> zeroinitializer, i32 %evl)
474   ret i32 %s
477 declare i32 @llvm.vp.reduce.smin.v4i32(i32, <4 x i32>, <4 x i1>, i32)
479 define i32 @vreduce_smin_v4i32_zero_evl(i32 %start, <4 x i32> %val, <4 x i1> %m) {
480 ; CHECK-LABEL: vreduce_smin_v4i32_zero_evl:
481 ; CHECK:       # %bb.0:
482 ; CHECK-NEXT:    ret
483   %s = call i32 @llvm.vp.reduce.smin.v4i32(i32 %start, <4 x i32> %val, <4 x i1> %m, i32 0)
484   ret i32 %s
487 define i32 @vreduce_smin_v4i32_false_mask(i32 %start, <4 x i32> %val, i32 %evl) {
488 ; CHECK-LABEL: vreduce_smin_v4i32_false_mask:
489 ; CHECK:       # %bb.0:
490 ; CHECK-NEXT:    ret
491   %s = call i32 @llvm.vp.reduce.smin.v4i32(i32 %start, <4 x i32> %val, <4 x i1> zeroinitializer, i32 %evl)
492   ret i32 %s
495 declare i32 @llvm.vp.reduce.umax.v4i32(i32, <4 x i32>, <4 x i1>, i32)
497 define i32 @vreduce_umax_v4i32_zero_evl(i32 %start, <4 x i32> %val, <4 x i1> %m) {
498 ; CHECK-LABEL: vreduce_umax_v4i32_zero_evl:
499 ; CHECK:       # %bb.0:
500 ; CHECK-NEXT:    ret
501   %s = call i32 @llvm.vp.reduce.umax.v4i32(i32 %start, <4 x i32> %val, <4 x i1> %m, i32 0)
502   ret i32 %s
505 define i32 @vreduce_umax_v4i32_false_mask(i32 %start, <4 x i32> %val, i32 %evl) {
506 ; CHECK-LABEL: vreduce_umax_v4i32_false_mask:
507 ; CHECK:       # %bb.0:
508 ; CHECK-NEXT:    ret
509   %s = call i32 @llvm.vp.reduce.umax.v4i32(i32 %start, <4 x i32> %val, <4 x i1> zeroinitializer, i32 %evl)
510   ret i32 %s
513 declare i32 @llvm.vp.reduce.umin.v4i32(i32, <4 x i32>, <4 x i1>, i32)
515 define i32 @vreduce_umin_v4i32_zero_evl(i32 %start, <4 x i32> %val, <4 x i1> %m) {
516 ; CHECK-LABEL: vreduce_umin_v4i32_zero_evl:
517 ; CHECK:       # %bb.0:
518 ; CHECK-NEXT:    ret
519   %s = call i32 @llvm.vp.reduce.umin.v4i32(i32 %start, <4 x i32> %val, <4 x i1> %m, i32 0)
520   ret i32 %s
523 define i32 @vreduce_umin_v4i32_false_mask(i32 %start, <4 x i32> %val, i32 %evl) {
524 ; CHECK-LABEL: vreduce_umin_v4i32_false_mask:
525 ; CHECK:       # %bb.0:
526 ; CHECK-NEXT:    ret
527   %s = call i32 @llvm.vp.reduce.umin.v4i32(i32 %start, <4 x i32> %val, <4 x i1> zeroinitializer, i32 %evl)
528   ret i32 %s
531 declare float @llvm.vp.reduce.fadd.v4f32(float, <4 x float>, <4 x i1>, i32)
533 define float @vreduce_seq_fadd_v4f32_zero_evl(float %start, <4 x float> %val, <4 x i1> %m) {
534 ; CHECK-LABEL: vreduce_seq_fadd_v4f32_zero_evl:
535 ; CHECK:       # %bb.0:
536 ; CHECK-NEXT:    ret
537   %s = call float @llvm.vp.reduce.fadd.v4f32(float %start, <4 x float> %val, <4 x i1> %m, i32 0)
538   ret float %s
541 define float @vreduce_seq_fadd_v4f32_false_mask(float %start, <4 x float> %val, i32 %evl) {
542 ; CHECK-LABEL: vreduce_seq_fadd_v4f32_false_mask:
543 ; CHECK:       # %bb.0:
544 ; CHECK-NEXT:    ret
545   %s = call float @llvm.vp.reduce.fadd.v4f32(float %start, <4 x float> %val, <4 x i1> zeroinitializer, i32 %evl)
546   ret float %s
549 define float @vreduce_fadd_v4f32_zero_evl(float %start, <4 x float> %val, <4 x i1> %m) {
550 ; CHECK-LABEL: vreduce_fadd_v4f32_zero_evl:
551 ; CHECK:       # %bb.0:
552 ; CHECK-NEXT:    ret
553   %s = call reassoc float @llvm.vp.reduce.fadd.v4f32(float %start, <4 x float> %val, <4 x i1> %m, i32 0)
554   ret float %s
557 define float @vreduce_fadd_v4f32_false_mask(float %start, <4 x float> %val, i32 %evl) {
558 ; CHECK-LABEL: vreduce_fadd_v4f32_false_mask:
559 ; CHECK:       # %bb.0:
560 ; CHECK-NEXT:    ret
561   %s = call reassoc float @llvm.vp.reduce.fadd.v4f32(float %start, <4 x float> %val, <4 x i1> zeroinitializer, i32 %evl)
562   ret float %s
565 declare float @llvm.vp.reduce.fmul.v4f32(float, <4 x float>, <4 x i1>, i32)
567 define float @vreduce_seq_fmul_v4f32_zero_evl(float %start, <4 x float> %val, <4 x i1> %m) {
568 ; CHECK-LABEL: vreduce_seq_fmul_v4f32_zero_evl:
569 ; CHECK:       # %bb.0:
570 ; CHECK-NEXT:    ret
571   %s = call float @llvm.vp.reduce.fmul.v4f32(float %start, <4 x float> %val, <4 x i1> %m, i32 0)
572   ret float %s
575 define float @vreduce_seq_fmul_v4f32_false_mask(float %start, <4 x float> %val, i32 %evl) {
576 ; CHECK-LABEL: vreduce_seq_fmul_v4f32_false_mask:
577 ; CHECK:       # %bb.0:
578 ; CHECK-NEXT:    ret
579   %s = call float @llvm.vp.reduce.fmul.v4f32(float %start, <4 x float> %val, <4 x i1> zeroinitializer, i32 %evl)
580   ret float %s
583 define float @vreduce_fmul_v4f32_zero_evl(float %start, <4 x float> %val, <4 x i1> %m) {
584 ; CHECK-LABEL: vreduce_fmul_v4f32_zero_evl:
585 ; CHECK:       # %bb.0:
586 ; CHECK-NEXT:    ret
587   %s = call reassoc float @llvm.vp.reduce.fmul.v4f32(float %start, <4 x float> %val, <4 x i1> %m, i32 0)
588   ret float %s
591 define float @vreduce_fmul_v4f32_false_mask(float %start, <4 x float> %val, i32 %evl) {
592 ; CHECK-LABEL: vreduce_fmul_v4f32_false_mask:
593 ; CHECK:       # %bb.0:
594 ; CHECK-NEXT:    ret
595   %s = call reassoc float @llvm.vp.reduce.fmul.v4f32(float %start, <4 x float> %val, <4 x i1> zeroinitializer, i32 %evl)
596   ret float %s
599 declare float @llvm.vp.reduce.fmin.v4f32(float, <4 x float>, <4 x i1>, i32)
601 define float @vreduce_fmin_v4f32_zero_evl(float %start, <4 x float> %val, <4 x i1> %m) {
602 ; CHECK-LABEL: vreduce_fmin_v4f32_zero_evl:
603 ; CHECK:       # %bb.0:
604 ; CHECK-NEXT:    ret
605   %s = call float @llvm.vp.reduce.fmin.v4f32(float %start, <4 x float> %val, <4 x i1> %m, i32 0)
606   ret float %s
609 define float @vreduce_fmin_v4f32_false_mask(float %start, <4 x float> %val, i32 %evl) {
610 ; CHECK-LABEL: vreduce_fmin_v4f32_false_mask:
611 ; CHECK:       # %bb.0:
612 ; CHECK-NEXT:    ret
613   %s = call float @llvm.vp.reduce.fmin.v4f32(float %start, <4 x float> %val, <4 x i1> zeroinitializer, i32 %evl)
614   ret float %s
617 declare float @llvm.vp.reduce.fmax.v4f32(float, <4 x float>, <4 x i1>, i32)
619 define float @vreduce_fmax_v4f32_zero_evl(float %start, <4 x float> %val, <4 x i1> %m) {
620 ; CHECK-LABEL: vreduce_fmax_v4f32_zero_evl:
621 ; CHECK:       # %bb.0:
622 ; CHECK-NEXT:    ret
623   %s = call float @llvm.vp.reduce.fmax.v4f32(float %start, <4 x float> %val, <4 x i1> %m, i32 0)
624   ret float %s
627 define float @vreduce_fmax_v4f32_false_mask(float %start, <4 x float> %val, i32 %evl) {
628 ; CHECK-LABEL: vreduce_fmax_v4f32_false_mask:
629 ; CHECK:       # %bb.0:
630 ; CHECK-NEXT:    ret
631   %s = call float @llvm.vp.reduce.fmax.v4f32(float %start, <4 x float> %val, <4 x i1> zeroinitializer, i32 %evl)
632   ret float %s
635 define float @vreduce_fminimum_v4f32_zero_evl(float %start, <4 x float> %val, <4 x i1> %m) {
636 ; CHECK-LABEL: vreduce_fminimum_v4f32_zero_evl:
637 ; CHECK:       # %bb.0:
638 ; CHECK-NEXT:    ret
639   %s = call float @llvm.vp.reduce.fminimum.v4f32(float %start, <4 x float> %val, <4 x i1> %m, i32 0)
640   ret float %s
643 define float @vreduce_fminimum_v4f32_false_mask(float %start, <4 x float> %val, i32 %evl) {
644 ; CHECK-LABEL: vreduce_fminimum_v4f32_false_mask:
645 ; CHECK:       # %bb.0:
646 ; CHECK-NEXT:    ret
647   %s = call float @llvm.vp.reduce.fminimum.v4f32(float %start, <4 x float> %val, <4 x i1> zeroinitializer, i32 %evl)
648   ret float %s
651 define float @vreduce_fmaximum_v4f32_zero_evl(float %start, <4 x float> %val, <4 x i1> %m) {
652 ; CHECK-LABEL: vreduce_fmaximum_v4f32_zero_evl:
653 ; CHECK:       # %bb.0:
654 ; CHECK-NEXT:    ret
655   %s = call float @llvm.vp.reduce.fmaximum.v4f32(float %start, <4 x float> %val, <4 x i1> %m, i32 0)
656   ret float %s
659 define float @vreduce_fmaximum_v4f32_false_mask(float %start, <4 x float> %val, i32 %evl) {
660 ; CHECK-LABEL: vreduce_fmaximum_v4f32_false_mask:
661 ; CHECK:       # %bb.0:
662 ; CHECK-NEXT:    ret
663   %s = call float @llvm.vp.reduce.fmaximum.v4f32(float %start, <4 x float> %val, <4 x i1> zeroinitializer, i32 %evl)
664   ret float %s