Re-land [openmp] Fix warnings when building on Windows with latest MSVC or Clang...
[llvm-project.git] / llvm / test / CodeGen / RISCV / rvv / vfncvt-rtz-xu-f.ll
blobcafffa0d51f56ac6ec969be7852dcdd4de85d68b
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: sed 's/iXLen/i32/g' %s | llc -mtriple=riscv32 -mattr=+v,+zfh,+zvfh \
3 ; RUN:   -verify-machineinstrs -target-abi=ilp32d | FileCheck %s
4 ; RUN: sed 's/iXLen/i64/g' %s | llc -mtriple=riscv64 -mattr=+v,+zfh,+zvfh \
5 ; RUN:   -verify-machineinstrs -target-abi=lp64d | FileCheck %s
7 declare <vscale x 1 x i8> @llvm.riscv.vfncvt.rtz.xu.f.w.nxv1i8.nxv1f16(
8   <vscale x 1 x i8>,
9   <vscale x 1 x half>,
10   iXLen);
12 define <vscale x 1 x i8> @intrinsic_vfncvt_rtz.xu.f.w_nxv1i8_nxv1f16(<vscale x 1 x half> %0, iXLen %1) nounwind {
13 ; CHECK-LABEL: intrinsic_vfncvt_rtz.xu.f.w_nxv1i8_nxv1f16:
14 ; CHECK:       # %bb.0: # %entry
15 ; CHECK-NEXT:    vsetvli zero, a0, e8, mf8, ta, ma
16 ; CHECK-NEXT:    vfncvt.rtz.xu.f.w v9, v8
17 ; CHECK-NEXT:    vmv1r.v v8, v9
18 ; CHECK-NEXT:    ret
19 entry:
20   %a = call <vscale x 1 x i8> @llvm.riscv.vfncvt.rtz.xu.f.w.nxv1i8.nxv1f16(
21     <vscale x 1 x i8> undef,
22     <vscale x 1 x half> %0,
23     iXLen %1)
25   ret <vscale x 1 x i8> %a
28 declare <vscale x 1 x i8> @llvm.riscv.vfncvt.rtz.xu.f.w.mask.nxv1i8.nxv1f16(
29   <vscale x 1 x i8>,
30   <vscale x 1 x half>,
31   <vscale x 1 x i1>,
32   iXLen,
33   iXLen);
35 define <vscale x 1 x i8> @intrinsic_vfncvt_mask_rtz.xu.f.w_nxv1i8_nxv1f16(<vscale x 1 x i8> %0, <vscale x 1 x half> %1, <vscale x 1 x i1> %2, iXLen %3) nounwind {
36 ; CHECK-LABEL: intrinsic_vfncvt_mask_rtz.xu.f.w_nxv1i8_nxv1f16:
37 ; CHECK:       # %bb.0: # %entry
38 ; CHECK-NEXT:    vsetvli zero, a0, e8, mf8, ta, mu
39 ; CHECK-NEXT:    vfncvt.rtz.xu.f.w v8, v9, v0.t
40 ; CHECK-NEXT:    ret
41 entry:
42   %a = call <vscale x 1 x i8> @llvm.riscv.vfncvt.rtz.xu.f.w.mask.nxv1i8.nxv1f16(
43     <vscale x 1 x i8> %0,
44     <vscale x 1 x half> %1,
45     <vscale x 1 x i1> %2,
46     iXLen %3, iXLen 1)
48   ret <vscale x 1 x i8> %a
51 declare <vscale x 2 x i8> @llvm.riscv.vfncvt.rtz.xu.f.w.nxv2i8.nxv2f16(
52   <vscale x 2 x i8>,
53   <vscale x 2 x half>,
54   iXLen);
56 define <vscale x 2 x i8> @intrinsic_vfncvt_rtz.xu.f.w_nxv2i8_nxv2f16(<vscale x 2 x half> %0, iXLen %1) nounwind {
57 ; CHECK-LABEL: intrinsic_vfncvt_rtz.xu.f.w_nxv2i8_nxv2f16:
58 ; CHECK:       # %bb.0: # %entry
59 ; CHECK-NEXT:    vsetvli zero, a0, e8, mf4, ta, ma
60 ; CHECK-NEXT:    vfncvt.rtz.xu.f.w v9, v8
61 ; CHECK-NEXT:    vmv1r.v v8, v9
62 ; CHECK-NEXT:    ret
63 entry:
64   %a = call <vscale x 2 x i8> @llvm.riscv.vfncvt.rtz.xu.f.w.nxv2i8.nxv2f16(
65     <vscale x 2 x i8> undef,
66     <vscale x 2 x half> %0,
67     iXLen %1)
69   ret <vscale x 2 x i8> %a
72 declare <vscale x 2 x i8> @llvm.riscv.vfncvt.rtz.xu.f.w.mask.nxv2i8.nxv2f16(
73   <vscale x 2 x i8>,
74   <vscale x 2 x half>,
75   <vscale x 2 x i1>,
76   iXLen,
77   iXLen);
79 define <vscale x 2 x i8> @intrinsic_vfncvt_mask_rtz.xu.f.w_nxv2i8_nxv2f16(<vscale x 2 x i8> %0, <vscale x 2 x half> %1, <vscale x 2 x i1> %2, iXLen %3) nounwind {
80 ; CHECK-LABEL: intrinsic_vfncvt_mask_rtz.xu.f.w_nxv2i8_nxv2f16:
81 ; CHECK:       # %bb.0: # %entry
82 ; CHECK-NEXT:    vsetvli zero, a0, e8, mf4, ta, mu
83 ; CHECK-NEXT:    vfncvt.rtz.xu.f.w v8, v9, v0.t
84 ; CHECK-NEXT:    ret
85 entry:
86   %a = call <vscale x 2 x i8> @llvm.riscv.vfncvt.rtz.xu.f.w.mask.nxv2i8.nxv2f16(
87     <vscale x 2 x i8> %0,
88     <vscale x 2 x half> %1,
89     <vscale x 2 x i1> %2,
90     iXLen %3, iXLen 1)
92   ret <vscale x 2 x i8> %a
95 declare <vscale x 4 x i8> @llvm.riscv.vfncvt.rtz.xu.f.w.nxv4i8.nxv4f16(
96   <vscale x 4 x i8>,
97   <vscale x 4 x half>,
98   iXLen);
100 define <vscale x 4 x i8> @intrinsic_vfncvt_rtz.xu.f.w_nxv4i8_nxv4f16(<vscale x 4 x half> %0, iXLen %1) nounwind {
101 ; CHECK-LABEL: intrinsic_vfncvt_rtz.xu.f.w_nxv4i8_nxv4f16:
102 ; CHECK:       # %bb.0: # %entry
103 ; CHECK-NEXT:    vsetvli zero, a0, e8, mf2, ta, ma
104 ; CHECK-NEXT:    vfncvt.rtz.xu.f.w v9, v8
105 ; CHECK-NEXT:    vmv1r.v v8, v9
106 ; CHECK-NEXT:    ret
107 entry:
108   %a = call <vscale x 4 x i8> @llvm.riscv.vfncvt.rtz.xu.f.w.nxv4i8.nxv4f16(
109     <vscale x 4 x i8> undef,
110     <vscale x 4 x half> %0,
111     iXLen %1)
113   ret <vscale x 4 x i8> %a
116 declare <vscale x 4 x i8> @llvm.riscv.vfncvt.rtz.xu.f.w.mask.nxv4i8.nxv4f16(
117   <vscale x 4 x i8>,
118   <vscale x 4 x half>,
119   <vscale x 4 x i1>,
120   iXLen,
121   iXLen);
123 define <vscale x 4 x i8> @intrinsic_vfncvt_mask_rtz.xu.f.w_nxv4i8_nxv4f16(<vscale x 4 x i8> %0, <vscale x 4 x half> %1, <vscale x 4 x i1> %2, iXLen %3) nounwind {
124 ; CHECK-LABEL: intrinsic_vfncvt_mask_rtz.xu.f.w_nxv4i8_nxv4f16:
125 ; CHECK:       # %bb.0: # %entry
126 ; CHECK-NEXT:    vsetvli zero, a0, e8, mf2, ta, mu
127 ; CHECK-NEXT:    vfncvt.rtz.xu.f.w v8, v9, v0.t
128 ; CHECK-NEXT:    ret
129 entry:
130   %a = call <vscale x 4 x i8> @llvm.riscv.vfncvt.rtz.xu.f.w.mask.nxv4i8.nxv4f16(
131     <vscale x 4 x i8> %0,
132     <vscale x 4 x half> %1,
133     <vscale x 4 x i1> %2,
134     iXLen %3, iXLen 1)
136   ret <vscale x 4 x i8> %a
139 declare <vscale x 8 x i8> @llvm.riscv.vfncvt.rtz.xu.f.w.nxv8i8.nxv8f16(
140   <vscale x 8 x i8>,
141   <vscale x 8 x half>,
142   iXLen);
144 define <vscale x 8 x i8> @intrinsic_vfncvt_rtz.xu.f.w_nxv8i8_nxv8f16(<vscale x 8 x half> %0, iXLen %1) nounwind {
145 ; CHECK-LABEL: intrinsic_vfncvt_rtz.xu.f.w_nxv8i8_nxv8f16:
146 ; CHECK:       # %bb.0: # %entry
147 ; CHECK-NEXT:    vsetvli zero, a0, e8, m1, ta, ma
148 ; CHECK-NEXT:    vfncvt.rtz.xu.f.w v10, v8
149 ; CHECK-NEXT:    vmv.v.v v8, v10
150 ; CHECK-NEXT:    ret
151 entry:
152   %a = call <vscale x 8 x i8> @llvm.riscv.vfncvt.rtz.xu.f.w.nxv8i8.nxv8f16(
153     <vscale x 8 x i8> undef,
154     <vscale x 8 x half> %0,
155     iXLen %1)
157   ret <vscale x 8 x i8> %a
160 declare <vscale x 8 x i8> @llvm.riscv.vfncvt.rtz.xu.f.w.mask.nxv8i8.nxv8f16(
161   <vscale x 8 x i8>,
162   <vscale x 8 x half>,
163   <vscale x 8 x i1>,
164   iXLen,
165   iXLen);
167 define <vscale x 8 x i8> @intrinsic_vfncvt_mask_rtz.xu.f.w_nxv8i8_nxv8f16(<vscale x 8 x i8> %0, <vscale x 8 x half> %1, <vscale x 8 x i1> %2, iXLen %3) nounwind {
168 ; CHECK-LABEL: intrinsic_vfncvt_mask_rtz.xu.f.w_nxv8i8_nxv8f16:
169 ; CHECK:       # %bb.0: # %entry
170 ; CHECK-NEXT:    vsetvli zero, a0, e8, m1, ta, mu
171 ; CHECK-NEXT:    vfncvt.rtz.xu.f.w v8, v10, v0.t
172 ; CHECK-NEXT:    ret
173 entry:
174   %a = call <vscale x 8 x i8> @llvm.riscv.vfncvt.rtz.xu.f.w.mask.nxv8i8.nxv8f16(
175     <vscale x 8 x i8> %0,
176     <vscale x 8 x half> %1,
177     <vscale x 8 x i1> %2,
178     iXLen %3, iXLen 1)
180   ret <vscale x 8 x i8> %a
183 declare <vscale x 16 x i8> @llvm.riscv.vfncvt.rtz.xu.f.w.nxv16i8.nxv16f16(
184   <vscale x 16 x i8>,
185   <vscale x 16 x half>,
186   iXLen);
188 define <vscale x 16 x i8> @intrinsic_vfncvt_rtz.xu.f.w_nxv16i8_nxv16f16(<vscale x 16 x half> %0, iXLen %1) nounwind {
189 ; CHECK-LABEL: intrinsic_vfncvt_rtz.xu.f.w_nxv16i8_nxv16f16:
190 ; CHECK:       # %bb.0: # %entry
191 ; CHECK-NEXT:    vsetvli zero, a0, e8, m2, ta, ma
192 ; CHECK-NEXT:    vfncvt.rtz.xu.f.w v12, v8
193 ; CHECK-NEXT:    vmv.v.v v8, v12
194 ; CHECK-NEXT:    ret
195 entry:
196   %a = call <vscale x 16 x i8> @llvm.riscv.vfncvt.rtz.xu.f.w.nxv16i8.nxv16f16(
197     <vscale x 16 x i8> undef,
198     <vscale x 16 x half> %0,
199     iXLen %1)
201   ret <vscale x 16 x i8> %a
204 declare <vscale x 16 x i8> @llvm.riscv.vfncvt.rtz.xu.f.w.mask.nxv16i8.nxv16f16(
205   <vscale x 16 x i8>,
206   <vscale x 16 x half>,
207   <vscale x 16 x i1>,
208   iXLen,
209   iXLen);
211 define <vscale x 16 x i8> @intrinsic_vfncvt_mask_rtz.xu.f.w_nxv16i8_nxv16f16(<vscale x 16 x i8> %0, <vscale x 16 x half> %1, <vscale x 16 x i1> %2, iXLen %3) nounwind {
212 ; CHECK-LABEL: intrinsic_vfncvt_mask_rtz.xu.f.w_nxv16i8_nxv16f16:
213 ; CHECK:       # %bb.0: # %entry
214 ; CHECK-NEXT:    vsetvli zero, a0, e8, m2, ta, mu
215 ; CHECK-NEXT:    vfncvt.rtz.xu.f.w v8, v12, v0.t
216 ; CHECK-NEXT:    ret
217 entry:
218   %a = call <vscale x 16 x i8> @llvm.riscv.vfncvt.rtz.xu.f.w.mask.nxv16i8.nxv16f16(
219     <vscale x 16 x i8> %0,
220     <vscale x 16 x half> %1,
221     <vscale x 16 x i1> %2,
222     iXLen %3, iXLen 1)
224   ret <vscale x 16 x i8> %a
227 declare <vscale x 32 x i8> @llvm.riscv.vfncvt.rtz.xu.f.w.nxv32i8.nxv32f16(
228   <vscale x 32 x i8>,
229   <vscale x 32 x half>,
230   iXLen);
232 define <vscale x 32 x i8> @intrinsic_vfncvt_rtz.xu.f.w_nxv32i8_nxv32f16(<vscale x 32 x half> %0, iXLen %1) nounwind {
233 ; CHECK-LABEL: intrinsic_vfncvt_rtz.xu.f.w_nxv32i8_nxv32f16:
234 ; CHECK:       # %bb.0: # %entry
235 ; CHECK-NEXT:    vsetvli zero, a0, e8, m4, ta, ma
236 ; CHECK-NEXT:    vfncvt.rtz.xu.f.w v16, v8
237 ; CHECK-NEXT:    vmv.v.v v8, v16
238 ; CHECK-NEXT:    ret
239 entry:
240   %a = call <vscale x 32 x i8> @llvm.riscv.vfncvt.rtz.xu.f.w.nxv32i8.nxv32f16(
241     <vscale x 32 x i8> undef,
242     <vscale x 32 x half> %0,
243     iXLen %1)
245   ret <vscale x 32 x i8> %a
248 declare <vscale x 32 x i8> @llvm.riscv.vfncvt.rtz.xu.f.w.mask.nxv32i8.nxv32f16(
249   <vscale x 32 x i8>,
250   <vscale x 32 x half>,
251   <vscale x 32 x i1>,
252   iXLen,
253   iXLen);
255 define <vscale x 32 x i8> @intrinsic_vfncvt_mask_rtz.xu.f.w_nxv32i8_nxv32f16(<vscale x 32 x i8> %0, <vscale x 32 x half> %1, <vscale x 32 x i1> %2, iXLen %3) nounwind {
256 ; CHECK-LABEL: intrinsic_vfncvt_mask_rtz.xu.f.w_nxv32i8_nxv32f16:
257 ; CHECK:       # %bb.0: # %entry
258 ; CHECK-NEXT:    vsetvli zero, a0, e8, m4, ta, mu
259 ; CHECK-NEXT:    vfncvt.rtz.xu.f.w v8, v16, v0.t
260 ; CHECK-NEXT:    ret
261 entry:
262   %a = call <vscale x 32 x i8> @llvm.riscv.vfncvt.rtz.xu.f.w.mask.nxv32i8.nxv32f16(
263     <vscale x 32 x i8> %0,
264     <vscale x 32 x half> %1,
265     <vscale x 32 x i1> %2,
266     iXLen %3, iXLen 1)
268   ret <vscale x 32 x i8> %a
271 declare <vscale x 1 x i16> @llvm.riscv.vfncvt.rtz.xu.f.w.nxv1i16.nxv1f32(
272   <vscale x 1 x i16>,
273   <vscale x 1 x float>,
274   iXLen);
276 define <vscale x 1 x i16> @intrinsic_vfncvt_rtz.xu.f.w_nxv1i16_nxv1f32(<vscale x 1 x float> %0, iXLen %1) nounwind {
277 ; CHECK-LABEL: intrinsic_vfncvt_rtz.xu.f.w_nxv1i16_nxv1f32:
278 ; CHECK:       # %bb.0: # %entry
279 ; CHECK-NEXT:    vsetvli zero, a0, e16, mf4, ta, ma
280 ; CHECK-NEXT:    vfncvt.rtz.xu.f.w v9, v8
281 ; CHECK-NEXT:    vmv1r.v v8, v9
282 ; CHECK-NEXT:    ret
283 entry:
284   %a = call <vscale x 1 x i16> @llvm.riscv.vfncvt.rtz.xu.f.w.nxv1i16.nxv1f32(
285     <vscale x 1 x i16> undef,
286     <vscale x 1 x float> %0,
287     iXLen %1)
289   ret <vscale x 1 x i16> %a
292 declare <vscale x 1 x i16> @llvm.riscv.vfncvt.rtz.xu.f.w.mask.nxv1i16.nxv1f32(
293   <vscale x 1 x i16>,
294   <vscale x 1 x float>,
295   <vscale x 1 x i1>,
296   iXLen,
297   iXLen);
299 define <vscale x 1 x i16> @intrinsic_vfncvt_mask_rtz.xu.f.w_nxv1i16_nxv1f32(<vscale x 1 x i16> %0, <vscale x 1 x float> %1, <vscale x 1 x i1> %2, iXLen %3) nounwind {
300 ; CHECK-LABEL: intrinsic_vfncvt_mask_rtz.xu.f.w_nxv1i16_nxv1f32:
301 ; CHECK:       # %bb.0: # %entry
302 ; CHECK-NEXT:    vsetvli zero, a0, e16, mf4, ta, mu
303 ; CHECK-NEXT:    vfncvt.rtz.xu.f.w v8, v9, v0.t
304 ; CHECK-NEXT:    ret
305 entry:
306   %a = call <vscale x 1 x i16> @llvm.riscv.vfncvt.rtz.xu.f.w.mask.nxv1i16.nxv1f32(
307     <vscale x 1 x i16> %0,
308     <vscale x 1 x float> %1,
309     <vscale x 1 x i1> %2,
310     iXLen %3, iXLen 1)
312   ret <vscale x 1 x i16> %a
315 declare <vscale x 2 x i16> @llvm.riscv.vfncvt.rtz.xu.f.w.nxv2i16.nxv2f32(
316   <vscale x 2 x i16>,
317   <vscale x 2 x float>,
318   iXLen);
320 define <vscale x 2 x i16> @intrinsic_vfncvt_rtz.xu.f.w_nxv2i16_nxv2f32(<vscale x 2 x float> %0, iXLen %1) nounwind {
321 ; CHECK-LABEL: intrinsic_vfncvt_rtz.xu.f.w_nxv2i16_nxv2f32:
322 ; CHECK:       # %bb.0: # %entry
323 ; CHECK-NEXT:    vsetvli zero, a0, e16, mf2, ta, ma
324 ; CHECK-NEXT:    vfncvt.rtz.xu.f.w v9, v8
325 ; CHECK-NEXT:    vmv1r.v v8, v9
326 ; CHECK-NEXT:    ret
327 entry:
328   %a = call <vscale x 2 x i16> @llvm.riscv.vfncvt.rtz.xu.f.w.nxv2i16.nxv2f32(
329     <vscale x 2 x i16> undef,
330     <vscale x 2 x float> %0,
331     iXLen %1)
333   ret <vscale x 2 x i16> %a
336 declare <vscale x 2 x i16> @llvm.riscv.vfncvt.rtz.xu.f.w.mask.nxv2i16.nxv2f32(
337   <vscale x 2 x i16>,
338   <vscale x 2 x float>,
339   <vscale x 2 x i1>,
340   iXLen,
341   iXLen);
343 define <vscale x 2 x i16> @intrinsic_vfncvt_mask_rtz.xu.f.w_nxv2i16_nxv2f32(<vscale x 2 x i16> %0, <vscale x 2 x float> %1, <vscale x 2 x i1> %2, iXLen %3) nounwind {
344 ; CHECK-LABEL: intrinsic_vfncvt_mask_rtz.xu.f.w_nxv2i16_nxv2f32:
345 ; CHECK:       # %bb.0: # %entry
346 ; CHECK-NEXT:    vsetvli zero, a0, e16, mf2, ta, mu
347 ; CHECK-NEXT:    vfncvt.rtz.xu.f.w v8, v9, v0.t
348 ; CHECK-NEXT:    ret
349 entry:
350   %a = call <vscale x 2 x i16> @llvm.riscv.vfncvt.rtz.xu.f.w.mask.nxv2i16.nxv2f32(
351     <vscale x 2 x i16> %0,
352     <vscale x 2 x float> %1,
353     <vscale x 2 x i1> %2,
354     iXLen %3, iXLen 1)
356   ret <vscale x 2 x i16> %a
359 declare <vscale x 4 x i16> @llvm.riscv.vfncvt.rtz.xu.f.w.nxv4i16.nxv4f32(
360   <vscale x 4 x i16>,
361   <vscale x 4 x float>,
362   iXLen);
364 define <vscale x 4 x i16> @intrinsic_vfncvt_rtz.xu.f.w_nxv4i16_nxv4f32(<vscale x 4 x float> %0, iXLen %1) nounwind {
365 ; CHECK-LABEL: intrinsic_vfncvt_rtz.xu.f.w_nxv4i16_nxv4f32:
366 ; CHECK:       # %bb.0: # %entry
367 ; CHECK-NEXT:    vsetvli zero, a0, e16, m1, ta, ma
368 ; CHECK-NEXT:    vfncvt.rtz.xu.f.w v10, v8
369 ; CHECK-NEXT:    vmv.v.v v8, v10
370 ; CHECK-NEXT:    ret
371 entry:
372   %a = call <vscale x 4 x i16> @llvm.riscv.vfncvt.rtz.xu.f.w.nxv4i16.nxv4f32(
373     <vscale x 4 x i16> undef,
374     <vscale x 4 x float> %0,
375     iXLen %1)
377   ret <vscale x 4 x i16> %a
380 declare <vscale x 4 x i16> @llvm.riscv.vfncvt.rtz.xu.f.w.mask.nxv4i16.nxv4f32(
381   <vscale x 4 x i16>,
382   <vscale x 4 x float>,
383   <vscale x 4 x i1>,
384   iXLen,
385   iXLen);
387 define <vscale x 4 x i16> @intrinsic_vfncvt_mask_rtz.xu.f.w_nxv4i16_nxv4f32(<vscale x 4 x i16> %0, <vscale x 4 x float> %1, <vscale x 4 x i1> %2, iXLen %3) nounwind {
388 ; CHECK-LABEL: intrinsic_vfncvt_mask_rtz.xu.f.w_nxv4i16_nxv4f32:
389 ; CHECK:       # %bb.0: # %entry
390 ; CHECK-NEXT:    vsetvli zero, a0, e16, m1, ta, mu
391 ; CHECK-NEXT:    vfncvt.rtz.xu.f.w v8, v10, v0.t
392 ; CHECK-NEXT:    ret
393 entry:
394   %a = call <vscale x 4 x i16> @llvm.riscv.vfncvt.rtz.xu.f.w.mask.nxv4i16.nxv4f32(
395     <vscale x 4 x i16> %0,
396     <vscale x 4 x float> %1,
397     <vscale x 4 x i1> %2,
398     iXLen %3, iXLen 1)
400   ret <vscale x 4 x i16> %a
403 declare <vscale x 8 x i16> @llvm.riscv.vfncvt.rtz.xu.f.w.nxv8i16.nxv8f32(
404   <vscale x 8 x i16>,
405   <vscale x 8 x float>,
406   iXLen);
408 define <vscale x 8 x i16> @intrinsic_vfncvt_rtz.xu.f.w_nxv8i16_nxv8f32(<vscale x 8 x float> %0, iXLen %1) nounwind {
409 ; CHECK-LABEL: intrinsic_vfncvt_rtz.xu.f.w_nxv8i16_nxv8f32:
410 ; CHECK:       # %bb.0: # %entry
411 ; CHECK-NEXT:    vsetvli zero, a0, e16, m2, ta, ma
412 ; CHECK-NEXT:    vfncvt.rtz.xu.f.w v12, v8
413 ; CHECK-NEXT:    vmv.v.v v8, v12
414 ; CHECK-NEXT:    ret
415 entry:
416   %a = call <vscale x 8 x i16> @llvm.riscv.vfncvt.rtz.xu.f.w.nxv8i16.nxv8f32(
417     <vscale x 8 x i16> undef,
418     <vscale x 8 x float> %0,
419     iXLen %1)
421   ret <vscale x 8 x i16> %a
424 declare <vscale x 8 x i16> @llvm.riscv.vfncvt.rtz.xu.f.w.mask.nxv8i16.nxv8f32(
425   <vscale x 8 x i16>,
426   <vscale x 8 x float>,
427   <vscale x 8 x i1>,
428   iXLen,
429   iXLen);
431 define <vscale x 8 x i16> @intrinsic_vfncvt_mask_rtz.xu.f.w_nxv8i16_nxv8f32(<vscale x 8 x i16> %0, <vscale x 8 x float> %1, <vscale x 8 x i1> %2, iXLen %3) nounwind {
432 ; CHECK-LABEL: intrinsic_vfncvt_mask_rtz.xu.f.w_nxv8i16_nxv8f32:
433 ; CHECK:       # %bb.0: # %entry
434 ; CHECK-NEXT:    vsetvli zero, a0, e16, m2, ta, mu
435 ; CHECK-NEXT:    vfncvt.rtz.xu.f.w v8, v12, v0.t
436 ; CHECK-NEXT:    ret
437 entry:
438   %a = call <vscale x 8 x i16> @llvm.riscv.vfncvt.rtz.xu.f.w.mask.nxv8i16.nxv8f32(
439     <vscale x 8 x i16> %0,
440     <vscale x 8 x float> %1,
441     <vscale x 8 x i1> %2,
442     iXLen %3, iXLen 1)
444   ret <vscale x 8 x i16> %a
447 declare <vscale x 16 x i16> @llvm.riscv.vfncvt.rtz.xu.f.w.nxv16i16.nxv16f32(
448   <vscale x 16 x i16>,
449   <vscale x 16 x float>,
450   iXLen);
452 define <vscale x 16 x i16> @intrinsic_vfncvt_rtz.xu.f.w_nxv16i16_nxv16f32(<vscale x 16 x float> %0, iXLen %1) nounwind {
453 ; CHECK-LABEL: intrinsic_vfncvt_rtz.xu.f.w_nxv16i16_nxv16f32:
454 ; CHECK:       # %bb.0: # %entry
455 ; CHECK-NEXT:    vsetvli zero, a0, e16, m4, ta, ma
456 ; CHECK-NEXT:    vfncvt.rtz.xu.f.w v16, v8
457 ; CHECK-NEXT:    vmv.v.v v8, v16
458 ; CHECK-NEXT:    ret
459 entry:
460   %a = call <vscale x 16 x i16> @llvm.riscv.vfncvt.rtz.xu.f.w.nxv16i16.nxv16f32(
461     <vscale x 16 x i16> undef,
462     <vscale x 16 x float> %0,
463     iXLen %1)
465   ret <vscale x 16 x i16> %a
468 declare <vscale x 16 x i16> @llvm.riscv.vfncvt.rtz.xu.f.w.mask.nxv16i16.nxv16f32(
469   <vscale x 16 x i16>,
470   <vscale x 16 x float>,
471   <vscale x 16 x i1>,
472   iXLen,
473   iXLen);
475 define <vscale x 16 x i16> @intrinsic_vfncvt_mask_rtz.xu.f.w_nxv16i16_nxv16f32(<vscale x 16 x i16> %0, <vscale x 16 x float> %1, <vscale x 16 x i1> %2, iXLen %3) nounwind {
476 ; CHECK-LABEL: intrinsic_vfncvt_mask_rtz.xu.f.w_nxv16i16_nxv16f32:
477 ; CHECK:       # %bb.0: # %entry
478 ; CHECK-NEXT:    vsetvli zero, a0, e16, m4, ta, mu
479 ; CHECK-NEXT:    vfncvt.rtz.xu.f.w v8, v16, v0.t
480 ; CHECK-NEXT:    ret
481 entry:
482   %a = call <vscale x 16 x i16> @llvm.riscv.vfncvt.rtz.xu.f.w.mask.nxv16i16.nxv16f32(
483     <vscale x 16 x i16> %0,
484     <vscale x 16 x float> %1,
485     <vscale x 16 x i1> %2,
486     iXLen %3, iXLen 1)
488   ret <vscale x 16 x i16> %a
491 declare <vscale x 1 x i32> @llvm.riscv.vfncvt.rtz.xu.f.w.nxv1i32.nxv1f64(
492   <vscale x 1 x i32>,
493   <vscale x 1 x double>,
494   iXLen);
496 define <vscale x 1 x i32> @intrinsic_vfncvt_rtz.xu.f.w_nxv1i32_nxv1f64(<vscale x 1 x double> %0, iXLen %1) nounwind {
497 ; CHECK-LABEL: intrinsic_vfncvt_rtz.xu.f.w_nxv1i32_nxv1f64:
498 ; CHECK:       # %bb.0: # %entry
499 ; CHECK-NEXT:    vsetvli zero, a0, e32, mf2, ta, ma
500 ; CHECK-NEXT:    vfncvt.rtz.xu.f.w v9, v8
501 ; CHECK-NEXT:    vmv1r.v v8, v9
502 ; CHECK-NEXT:    ret
503 entry:
504   %a = call <vscale x 1 x i32> @llvm.riscv.vfncvt.rtz.xu.f.w.nxv1i32.nxv1f64(
505     <vscale x 1 x i32> undef,
506     <vscale x 1 x double> %0,
507     iXLen %1)
509   ret <vscale x 1 x i32> %a
512 declare <vscale x 1 x i32> @llvm.riscv.vfncvt.rtz.xu.f.w.mask.nxv1i32.nxv1f64(
513   <vscale x 1 x i32>,
514   <vscale x 1 x double>,
515   <vscale x 1 x i1>,
516   iXLen,
517   iXLen);
519 define <vscale x 1 x i32> @intrinsic_vfncvt_mask_rtz.xu.f.w_nxv1i32_nxv1f64(<vscale x 1 x i32> %0, <vscale x 1 x double> %1, <vscale x 1 x i1> %2, iXLen %3) nounwind {
520 ; CHECK-LABEL: intrinsic_vfncvt_mask_rtz.xu.f.w_nxv1i32_nxv1f64:
521 ; CHECK:       # %bb.0: # %entry
522 ; CHECK-NEXT:    vsetvli zero, a0, e32, mf2, ta, mu
523 ; CHECK-NEXT:    vfncvt.rtz.xu.f.w v8, v9, v0.t
524 ; CHECK-NEXT:    ret
525 entry:
526   %a = call <vscale x 1 x i32> @llvm.riscv.vfncvt.rtz.xu.f.w.mask.nxv1i32.nxv1f64(
527     <vscale x 1 x i32> %0,
528     <vscale x 1 x double> %1,
529     <vscale x 1 x i1> %2,
530     iXLen %3, iXLen 1)
532   ret <vscale x 1 x i32> %a
535 declare <vscale x 2 x i32> @llvm.riscv.vfncvt.rtz.xu.f.w.nxv2i32.nxv2f64(
536   <vscale x 2 x i32>,
537   <vscale x 2 x double>,
538   iXLen);
540 define <vscale x 2 x i32> @intrinsic_vfncvt_rtz.xu.f.w_nxv2i32_nxv2f64(<vscale x 2 x double> %0, iXLen %1) nounwind {
541 ; CHECK-LABEL: intrinsic_vfncvt_rtz.xu.f.w_nxv2i32_nxv2f64:
542 ; CHECK:       # %bb.0: # %entry
543 ; CHECK-NEXT:    vsetvli zero, a0, e32, m1, ta, ma
544 ; CHECK-NEXT:    vfncvt.rtz.xu.f.w v10, v8
545 ; CHECK-NEXT:    vmv.v.v v8, v10
546 ; CHECK-NEXT:    ret
547 entry:
548   %a = call <vscale x 2 x i32> @llvm.riscv.vfncvt.rtz.xu.f.w.nxv2i32.nxv2f64(
549     <vscale x 2 x i32> undef,
550     <vscale x 2 x double> %0,
551     iXLen %1)
553   ret <vscale x 2 x i32> %a
556 declare <vscale x 2 x i32> @llvm.riscv.vfncvt.rtz.xu.f.w.mask.nxv2i32.nxv2f64(
557   <vscale x 2 x i32>,
558   <vscale x 2 x double>,
559   <vscale x 2 x i1>,
560   iXLen,
561   iXLen);
563 define <vscale x 2 x i32> @intrinsic_vfncvt_mask_rtz.xu.f.w_nxv2i32_nxv2f64(<vscale x 2 x i32> %0, <vscale x 2 x double> %1, <vscale x 2 x i1> %2, iXLen %3) nounwind {
564 ; CHECK-LABEL: intrinsic_vfncvt_mask_rtz.xu.f.w_nxv2i32_nxv2f64:
565 ; CHECK:       # %bb.0: # %entry
566 ; CHECK-NEXT:    vsetvli zero, a0, e32, m1, ta, mu
567 ; CHECK-NEXT:    vfncvt.rtz.xu.f.w v8, v10, v0.t
568 ; CHECK-NEXT:    ret
569 entry:
570   %a = call <vscale x 2 x i32> @llvm.riscv.vfncvt.rtz.xu.f.w.mask.nxv2i32.nxv2f64(
571     <vscale x 2 x i32> %0,
572     <vscale x 2 x double> %1,
573     <vscale x 2 x i1> %2,
574     iXLen %3, iXLen 1)
576   ret <vscale x 2 x i32> %a
579 declare <vscale x 4 x i32> @llvm.riscv.vfncvt.rtz.xu.f.w.nxv4i32.nxv4f64(
580   <vscale x 4 x i32>,
581   <vscale x 4 x double>,
582   iXLen);
584 define <vscale x 4 x i32> @intrinsic_vfncvt_rtz.xu.f.w_nxv4i32_nxv4f64(<vscale x 4 x double> %0, iXLen %1) nounwind {
585 ; CHECK-LABEL: intrinsic_vfncvt_rtz.xu.f.w_nxv4i32_nxv4f64:
586 ; CHECK:       # %bb.0: # %entry
587 ; CHECK-NEXT:    vsetvli zero, a0, e32, m2, ta, ma
588 ; CHECK-NEXT:    vfncvt.rtz.xu.f.w v12, v8
589 ; CHECK-NEXT:    vmv.v.v v8, v12
590 ; CHECK-NEXT:    ret
591 entry:
592   %a = call <vscale x 4 x i32> @llvm.riscv.vfncvt.rtz.xu.f.w.nxv4i32.nxv4f64(
593     <vscale x 4 x i32> undef,
594     <vscale x 4 x double> %0,
595     iXLen %1)
597   ret <vscale x 4 x i32> %a
600 declare <vscale x 4 x i32> @llvm.riscv.vfncvt.rtz.xu.f.w.mask.nxv4i32.nxv4f64(
601   <vscale x 4 x i32>,
602   <vscale x 4 x double>,
603   <vscale x 4 x i1>,
604   iXLen,
605   iXLen);
607 define <vscale x 4 x i32> @intrinsic_vfncvt_mask_rtz.xu.f.w_nxv4i32_nxv4f64(<vscale x 4 x i32> %0, <vscale x 4 x double> %1, <vscale x 4 x i1> %2, iXLen %3) nounwind {
608 ; CHECK-LABEL: intrinsic_vfncvt_mask_rtz.xu.f.w_nxv4i32_nxv4f64:
609 ; CHECK:       # %bb.0: # %entry
610 ; CHECK-NEXT:    vsetvli zero, a0, e32, m2, ta, mu
611 ; CHECK-NEXT:    vfncvt.rtz.xu.f.w v8, v12, v0.t
612 ; CHECK-NEXT:    ret
613 entry:
614   %a = call <vscale x 4 x i32> @llvm.riscv.vfncvt.rtz.xu.f.w.mask.nxv4i32.nxv4f64(
615     <vscale x 4 x i32> %0,
616     <vscale x 4 x double> %1,
617     <vscale x 4 x i1> %2,
618     iXLen %3, iXLen 1)
620   ret <vscale x 4 x i32> %a
623 declare <vscale x 8 x i32> @llvm.riscv.vfncvt.rtz.xu.f.w.nxv8i32.nxv8f64(
624   <vscale x 8 x i32>,
625   <vscale x 8 x double>,
626   iXLen);
628 define <vscale x 8 x i32> @intrinsic_vfncvt_rtz.xu.f.w_nxv8i32_nxv8f64(<vscale x 8 x double> %0, iXLen %1) nounwind {
629 ; CHECK-LABEL: intrinsic_vfncvt_rtz.xu.f.w_nxv8i32_nxv8f64:
630 ; CHECK:       # %bb.0: # %entry
631 ; CHECK-NEXT:    vsetvli zero, a0, e32, m4, ta, ma
632 ; CHECK-NEXT:    vfncvt.rtz.xu.f.w v16, v8
633 ; CHECK-NEXT:    vmv.v.v v8, v16
634 ; CHECK-NEXT:    ret
635 entry:
636   %a = call <vscale x 8 x i32> @llvm.riscv.vfncvt.rtz.xu.f.w.nxv8i32.nxv8f64(
637     <vscale x 8 x i32> undef,
638     <vscale x 8 x double> %0,
639     iXLen %1)
641   ret <vscale x 8 x i32> %a
644 declare <vscale x 8 x i32> @llvm.riscv.vfncvt.rtz.xu.f.w.mask.nxv8i32.nxv8f64(
645   <vscale x 8 x i32>,
646   <vscale x 8 x double>,
647   <vscale x 8 x i1>,
648   iXLen,
649   iXLen);
651 define <vscale x 8 x i32> @intrinsic_vfncvt_mask_rtz.xu.f.w_nxv8i32_nxv8f64(<vscale x 8 x i32> %0, <vscale x 8 x double> %1, <vscale x 8 x i1> %2, iXLen %3) nounwind {
652 ; CHECK-LABEL: intrinsic_vfncvt_mask_rtz.xu.f.w_nxv8i32_nxv8f64:
653 ; CHECK:       # %bb.0: # %entry
654 ; CHECK-NEXT:    vsetvli zero, a0, e32, m4, ta, mu
655 ; CHECK-NEXT:    vfncvt.rtz.xu.f.w v8, v16, v0.t
656 ; CHECK-NEXT:    ret
657 entry:
658   %a = call <vscale x 8 x i32> @llvm.riscv.vfncvt.rtz.xu.f.w.mask.nxv8i32.nxv8f64(
659     <vscale x 8 x i32> %0,
660     <vscale x 8 x double> %1,
661     <vscale x 8 x i1> %2,
662     iXLen %3, iXLen 1)
664   ret <vscale x 8 x i32> %a