Bump version to 19.1.0-rc3
[llvm-project.git] / llvm / test / CodeGen / RISCV / rvv / fixed-vectors-round-vp.ll
blob0f587232680df670ada0a3c97625c09533774627
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc -mtriple=riscv32 -mattr=+d,+zfh,+zvfh,+v -target-abi=ilp32d \
3 ; RUN:   -verify-machineinstrs < %s | FileCheck %s --check-prefixes=CHECK,ZVFH
4 ; RUN: llc -mtriple=riscv64 -mattr=+d,+zfh,+zvfh,+v -target-abi=lp64d \
5 ; RUN:   -verify-machineinstrs < %s | FileCheck %s --check-prefixes=CHECK,ZVFH
6 ; RUN: llc -mtriple=riscv32 -mattr=+d,+zfh,+zvfhmin,+v -target-abi=ilp32d \
7 ; RUN:   -verify-machineinstrs < %s | FileCheck %s --check-prefixes=CHECK,ZVFHMIN
8 ; RUN: llc -mtriple=riscv64 -mattr=+d,+zfh,+zvfhmin,+v -target-abi=lp64d \
9 ; RUN:   -verify-machineinstrs < %s | FileCheck %s --check-prefixes=CHECK,ZVFHMIN
11 declare <2 x half> @llvm.vp.round.v2f16(<2 x half>, <2 x i1>, i32)
13 define <2 x half> @vp_round_v2f16(<2 x half> %va, <2 x i1> %m, i32 zeroext %evl) {
14 ; ZVFH-LABEL: vp_round_v2f16:
15 ; ZVFH:       # %bb.0:
16 ; ZVFH-NEXT:    lui a1, %hi(.LCPI0_0)
17 ; ZVFH-NEXT:    flh fa5, %lo(.LCPI0_0)(a1)
18 ; ZVFH-NEXT:    vsetvli zero, a0, e16, mf4, ta, ma
19 ; ZVFH-NEXT:    vfabs.v v9, v8, v0.t
20 ; ZVFH-NEXT:    vsetvli zero, zero, e16, mf4, ta, mu
21 ; ZVFH-NEXT:    vmflt.vf v0, v9, fa5, v0.t
22 ; ZVFH-NEXT:    fsrmi a0, 4
23 ; ZVFH-NEXT:    vsetvli zero, zero, e16, mf4, ta, ma
24 ; ZVFH-NEXT:    vfcvt.x.f.v v9, v8, v0.t
25 ; ZVFH-NEXT:    fsrm a0
26 ; ZVFH-NEXT:    vfcvt.f.x.v v9, v9, v0.t
27 ; ZVFH-NEXT:    vsetvli zero, zero, e16, mf4, ta, mu
28 ; ZVFH-NEXT:    vfsgnj.vv v8, v9, v8, v0.t
29 ; ZVFH-NEXT:    ret
31 ; ZVFHMIN-LABEL: vp_round_v2f16:
32 ; ZVFHMIN:       # %bb.0:
33 ; ZVFHMIN-NEXT:    vsetivli zero, 2, e16, mf4, ta, ma
34 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v9, v8
35 ; ZVFHMIN-NEXT:    vsetvli zero, a0, e32, mf2, ta, ma
36 ; ZVFHMIN-NEXT:    vfabs.v v8, v9, v0.t
37 ; ZVFHMIN-NEXT:    lui a0, 307200
38 ; ZVFHMIN-NEXT:    fmv.w.x fa5, a0
39 ; ZVFHMIN-NEXT:    vsetvli zero, zero, e32, mf2, ta, mu
40 ; ZVFHMIN-NEXT:    vmflt.vf v0, v8, fa5, v0.t
41 ; ZVFHMIN-NEXT:    fsrmi a0, 4
42 ; ZVFHMIN-NEXT:    vsetvli zero, zero, e32, mf2, ta, ma
43 ; ZVFHMIN-NEXT:    vfcvt.x.f.v v8, v9, v0.t
44 ; ZVFHMIN-NEXT:    fsrm a0
45 ; ZVFHMIN-NEXT:    vfcvt.f.x.v v8, v8, v0.t
46 ; ZVFHMIN-NEXT:    vsetvli zero, zero, e32, mf2, ta, mu
47 ; ZVFHMIN-NEXT:    vfsgnj.vv v9, v8, v9, v0.t
48 ; ZVFHMIN-NEXT:    vsetivli zero, 2, e16, mf4, ta, ma
49 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v8, v9
50 ; ZVFHMIN-NEXT:    ret
51   %v = call <2 x half> @llvm.vp.round.v2f16(<2 x half> %va, <2 x i1> %m, i32 %evl)
52   ret <2 x half> %v
55 define <2 x half> @vp_round_v2f16_unmasked(<2 x half> %va, i32 zeroext %evl) {
56 ; ZVFH-LABEL: vp_round_v2f16_unmasked:
57 ; ZVFH:       # %bb.0:
58 ; ZVFH-NEXT:    lui a1, %hi(.LCPI1_0)
59 ; ZVFH-NEXT:    flh fa5, %lo(.LCPI1_0)(a1)
60 ; ZVFH-NEXT:    vsetvli zero, a0, e16, mf4, ta, ma
61 ; ZVFH-NEXT:    vfabs.v v9, v8
62 ; ZVFH-NEXT:    vmflt.vf v0, v9, fa5
63 ; ZVFH-NEXT:    fsrmi a0, 4
64 ; ZVFH-NEXT:    vfcvt.x.f.v v9, v8, v0.t
65 ; ZVFH-NEXT:    fsrm a0
66 ; ZVFH-NEXT:    vfcvt.f.x.v v9, v9, v0.t
67 ; ZVFH-NEXT:    vsetvli zero, zero, e16, mf4, ta, mu
68 ; ZVFH-NEXT:    vfsgnj.vv v8, v9, v8, v0.t
69 ; ZVFH-NEXT:    ret
71 ; ZVFHMIN-LABEL: vp_round_v2f16_unmasked:
72 ; ZVFHMIN:       # %bb.0:
73 ; ZVFHMIN-NEXT:    vsetivli zero, 2, e16, mf4, ta, ma
74 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v9, v8
75 ; ZVFHMIN-NEXT:    vsetvli zero, a0, e32, mf2, ta, ma
76 ; ZVFHMIN-NEXT:    vfabs.v v8, v9
77 ; ZVFHMIN-NEXT:    lui a0, 307200
78 ; ZVFHMIN-NEXT:    fmv.w.x fa5, a0
79 ; ZVFHMIN-NEXT:    vmflt.vf v0, v8, fa5
80 ; ZVFHMIN-NEXT:    fsrmi a0, 4
81 ; ZVFHMIN-NEXT:    vfcvt.x.f.v v8, v9, v0.t
82 ; ZVFHMIN-NEXT:    fsrm a0
83 ; ZVFHMIN-NEXT:    vfcvt.f.x.v v8, v8, v0.t
84 ; ZVFHMIN-NEXT:    vsetvli zero, zero, e32, mf2, ta, mu
85 ; ZVFHMIN-NEXT:    vfsgnj.vv v9, v8, v9, v0.t
86 ; ZVFHMIN-NEXT:    vsetivli zero, 2, e16, mf4, ta, ma
87 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v8, v9
88 ; ZVFHMIN-NEXT:    ret
89   %v = call <2 x half> @llvm.vp.round.v2f16(<2 x half> %va, <2 x i1> splat (i1 true), i32 %evl)
90   ret <2 x half> %v
93 declare <4 x half> @llvm.vp.round.v4f16(<4 x half>, <4 x i1>, i32)
95 define <4 x half> @vp_round_v4f16(<4 x half> %va, <4 x i1> %m, i32 zeroext %evl) {
96 ; ZVFH-LABEL: vp_round_v4f16:
97 ; ZVFH:       # %bb.0:
98 ; ZVFH-NEXT:    lui a1, %hi(.LCPI2_0)
99 ; ZVFH-NEXT:    flh fa5, %lo(.LCPI2_0)(a1)
100 ; ZVFH-NEXT:    vsetvli zero, a0, e16, mf2, ta, ma
101 ; ZVFH-NEXT:    vfabs.v v9, v8, v0.t
102 ; ZVFH-NEXT:    vsetvli zero, zero, e16, mf2, ta, mu
103 ; ZVFH-NEXT:    vmflt.vf v0, v9, fa5, v0.t
104 ; ZVFH-NEXT:    fsrmi a0, 4
105 ; ZVFH-NEXT:    vsetvli zero, zero, e16, mf2, ta, ma
106 ; ZVFH-NEXT:    vfcvt.x.f.v v9, v8, v0.t
107 ; ZVFH-NEXT:    fsrm a0
108 ; ZVFH-NEXT:    vfcvt.f.x.v v9, v9, v0.t
109 ; ZVFH-NEXT:    vsetvli zero, zero, e16, mf2, ta, mu
110 ; ZVFH-NEXT:    vfsgnj.vv v8, v9, v8, v0.t
111 ; ZVFH-NEXT:    ret
113 ; ZVFHMIN-LABEL: vp_round_v4f16:
114 ; ZVFHMIN:       # %bb.0:
115 ; ZVFHMIN-NEXT:    vsetivli zero, 4, e16, mf2, ta, ma
116 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v9, v8
117 ; ZVFHMIN-NEXT:    vsetvli zero, a0, e32, m1, ta, ma
118 ; ZVFHMIN-NEXT:    vfabs.v v8, v9, v0.t
119 ; ZVFHMIN-NEXT:    lui a0, 307200
120 ; ZVFHMIN-NEXT:    fmv.w.x fa5, a0
121 ; ZVFHMIN-NEXT:    vsetvli zero, zero, e32, m1, ta, mu
122 ; ZVFHMIN-NEXT:    vmflt.vf v0, v8, fa5, v0.t
123 ; ZVFHMIN-NEXT:    fsrmi a0, 4
124 ; ZVFHMIN-NEXT:    vsetvli zero, zero, e32, m1, ta, ma
125 ; ZVFHMIN-NEXT:    vfcvt.x.f.v v8, v9, v0.t
126 ; ZVFHMIN-NEXT:    fsrm a0
127 ; ZVFHMIN-NEXT:    vfcvt.f.x.v v8, v8, v0.t
128 ; ZVFHMIN-NEXT:    vsetvli zero, zero, e32, m1, ta, mu
129 ; ZVFHMIN-NEXT:    vfsgnj.vv v9, v8, v9, v0.t
130 ; ZVFHMIN-NEXT:    vsetivli zero, 4, e16, mf2, ta, ma
131 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v8, v9
132 ; ZVFHMIN-NEXT:    ret
133   %v = call <4 x half> @llvm.vp.round.v4f16(<4 x half> %va, <4 x i1> %m, i32 %evl)
134   ret <4 x half> %v
137 define <4 x half> @vp_round_v4f16_unmasked(<4 x half> %va, i32 zeroext %evl) {
138 ; ZVFH-LABEL: vp_round_v4f16_unmasked:
139 ; ZVFH:       # %bb.0:
140 ; ZVFH-NEXT:    lui a1, %hi(.LCPI3_0)
141 ; ZVFH-NEXT:    flh fa5, %lo(.LCPI3_0)(a1)
142 ; ZVFH-NEXT:    vsetvli zero, a0, e16, mf2, ta, ma
143 ; ZVFH-NEXT:    vfabs.v v9, v8
144 ; ZVFH-NEXT:    vmflt.vf v0, v9, fa5
145 ; ZVFH-NEXT:    fsrmi a0, 4
146 ; ZVFH-NEXT:    vfcvt.x.f.v v9, v8, v0.t
147 ; ZVFH-NEXT:    fsrm a0
148 ; ZVFH-NEXT:    vfcvt.f.x.v v9, v9, v0.t
149 ; ZVFH-NEXT:    vsetvli zero, zero, e16, mf2, ta, mu
150 ; ZVFH-NEXT:    vfsgnj.vv v8, v9, v8, v0.t
151 ; ZVFH-NEXT:    ret
153 ; ZVFHMIN-LABEL: vp_round_v4f16_unmasked:
154 ; ZVFHMIN:       # %bb.0:
155 ; ZVFHMIN-NEXT:    vsetivli zero, 4, e16, mf2, ta, ma
156 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v9, v8
157 ; ZVFHMIN-NEXT:    vsetvli zero, a0, e32, m1, ta, ma
158 ; ZVFHMIN-NEXT:    vfabs.v v8, v9
159 ; ZVFHMIN-NEXT:    lui a0, 307200
160 ; ZVFHMIN-NEXT:    fmv.w.x fa5, a0
161 ; ZVFHMIN-NEXT:    vmflt.vf v0, v8, fa5
162 ; ZVFHMIN-NEXT:    fsrmi a0, 4
163 ; ZVFHMIN-NEXT:    vfcvt.x.f.v v8, v9, v0.t
164 ; ZVFHMIN-NEXT:    fsrm a0
165 ; ZVFHMIN-NEXT:    vfcvt.f.x.v v8, v8, v0.t
166 ; ZVFHMIN-NEXT:    vsetvli zero, zero, e32, m1, ta, mu
167 ; ZVFHMIN-NEXT:    vfsgnj.vv v9, v8, v9, v0.t
168 ; ZVFHMIN-NEXT:    vsetivli zero, 4, e16, mf2, ta, ma
169 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v8, v9
170 ; ZVFHMIN-NEXT:    ret
171   %v = call <4 x half> @llvm.vp.round.v4f16(<4 x half> %va, <4 x i1> splat (i1 true), i32 %evl)
172   ret <4 x half> %v
175 declare <8 x half> @llvm.vp.round.v8f16(<8 x half>, <8 x i1>, i32)
177 define <8 x half> @vp_round_v8f16(<8 x half> %va, <8 x i1> %m, i32 zeroext %evl) {
178 ; ZVFH-LABEL: vp_round_v8f16:
179 ; ZVFH:       # %bb.0:
180 ; ZVFH-NEXT:    lui a1, %hi(.LCPI4_0)
181 ; ZVFH-NEXT:    flh fa5, %lo(.LCPI4_0)(a1)
182 ; ZVFH-NEXT:    vsetvli zero, a0, e16, m1, ta, ma
183 ; ZVFH-NEXT:    vfabs.v v9, v8, v0.t
184 ; ZVFH-NEXT:    vsetvli zero, zero, e16, m1, ta, mu
185 ; ZVFH-NEXT:    vmflt.vf v0, v9, fa5, v0.t
186 ; ZVFH-NEXT:    fsrmi a0, 4
187 ; ZVFH-NEXT:    vsetvli zero, zero, e16, m1, ta, ma
188 ; ZVFH-NEXT:    vfcvt.x.f.v v9, v8, v0.t
189 ; ZVFH-NEXT:    fsrm a0
190 ; ZVFH-NEXT:    vfcvt.f.x.v v9, v9, v0.t
191 ; ZVFH-NEXT:    vsetvli zero, zero, e16, m1, ta, mu
192 ; ZVFH-NEXT:    vfsgnj.vv v8, v9, v8, v0.t
193 ; ZVFH-NEXT:    ret
195 ; ZVFHMIN-LABEL: vp_round_v8f16:
196 ; ZVFHMIN:       # %bb.0:
197 ; ZVFHMIN-NEXT:    vmv1r.v v9, v0
198 ; ZVFHMIN-NEXT:    vsetivli zero, 8, e16, m1, ta, ma
199 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v10, v8
200 ; ZVFHMIN-NEXT:    vsetvli zero, a0, e32, m2, ta, ma
201 ; ZVFHMIN-NEXT:    vfabs.v v12, v10, v0.t
202 ; ZVFHMIN-NEXT:    lui a0, 307200
203 ; ZVFHMIN-NEXT:    fmv.w.x fa5, a0
204 ; ZVFHMIN-NEXT:    vsetvli zero, zero, e32, m2, ta, mu
205 ; ZVFHMIN-NEXT:    vmflt.vf v9, v12, fa5, v0.t
206 ; ZVFHMIN-NEXT:    fsrmi a0, 4
207 ; ZVFHMIN-NEXT:    vmv1r.v v0, v9
208 ; ZVFHMIN-NEXT:    vsetvli zero, zero, e32, m2, ta, ma
209 ; ZVFHMIN-NEXT:    vfcvt.x.f.v v12, v10, v0.t
210 ; ZVFHMIN-NEXT:    fsrm a0
211 ; ZVFHMIN-NEXT:    vfcvt.f.x.v v12, v12, v0.t
212 ; ZVFHMIN-NEXT:    vsetvli zero, zero, e32, m2, ta, mu
213 ; ZVFHMIN-NEXT:    vfsgnj.vv v10, v12, v10, v0.t
214 ; ZVFHMIN-NEXT:    vsetivli zero, 8, e16, m1, ta, ma
215 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v8, v10
216 ; ZVFHMIN-NEXT:    ret
217   %v = call <8 x half> @llvm.vp.round.v8f16(<8 x half> %va, <8 x i1> %m, i32 %evl)
218   ret <8 x half> %v
221 define <8 x half> @vp_round_v8f16_unmasked(<8 x half> %va, i32 zeroext %evl) {
222 ; ZVFH-LABEL: vp_round_v8f16_unmasked:
223 ; ZVFH:       # %bb.0:
224 ; ZVFH-NEXT:    lui a1, %hi(.LCPI5_0)
225 ; ZVFH-NEXT:    flh fa5, %lo(.LCPI5_0)(a1)
226 ; ZVFH-NEXT:    vsetvli zero, a0, e16, m1, ta, ma
227 ; ZVFH-NEXT:    vfabs.v v9, v8
228 ; ZVFH-NEXT:    vmflt.vf v0, v9, fa5
229 ; ZVFH-NEXT:    fsrmi a0, 4
230 ; ZVFH-NEXT:    vfcvt.x.f.v v9, v8, v0.t
231 ; ZVFH-NEXT:    fsrm a0
232 ; ZVFH-NEXT:    vfcvt.f.x.v v9, v9, v0.t
233 ; ZVFH-NEXT:    vsetvli zero, zero, e16, m1, ta, mu
234 ; ZVFH-NEXT:    vfsgnj.vv v8, v9, v8, v0.t
235 ; ZVFH-NEXT:    ret
237 ; ZVFHMIN-LABEL: vp_round_v8f16_unmasked:
238 ; ZVFHMIN:       # %bb.0:
239 ; ZVFHMIN-NEXT:    vsetivli zero, 8, e16, m1, ta, ma
240 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v10, v8
241 ; ZVFHMIN-NEXT:    vsetvli zero, a0, e32, m2, ta, ma
242 ; ZVFHMIN-NEXT:    vfabs.v v8, v10
243 ; ZVFHMIN-NEXT:    lui a0, 307200
244 ; ZVFHMIN-NEXT:    fmv.w.x fa5, a0
245 ; ZVFHMIN-NEXT:    vmflt.vf v0, v8, fa5
246 ; ZVFHMIN-NEXT:    fsrmi a0, 4
247 ; ZVFHMIN-NEXT:    vfcvt.x.f.v v8, v10, v0.t
248 ; ZVFHMIN-NEXT:    fsrm a0
249 ; ZVFHMIN-NEXT:    vfcvt.f.x.v v8, v8, v0.t
250 ; ZVFHMIN-NEXT:    vsetvli zero, zero, e32, m2, ta, mu
251 ; ZVFHMIN-NEXT:    vfsgnj.vv v10, v8, v10, v0.t
252 ; ZVFHMIN-NEXT:    vsetivli zero, 8, e16, m1, ta, ma
253 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v8, v10
254 ; ZVFHMIN-NEXT:    ret
255   %v = call <8 x half> @llvm.vp.round.v8f16(<8 x half> %va, <8 x i1> splat (i1 true), i32 %evl)
256   ret <8 x half> %v
259 declare <16 x half> @llvm.vp.round.v16f16(<16 x half>, <16 x i1>, i32)
261 define <16 x half> @vp_round_v16f16(<16 x half> %va, <16 x i1> %m, i32 zeroext %evl) {
262 ; ZVFH-LABEL: vp_round_v16f16:
263 ; ZVFH:       # %bb.0:
264 ; ZVFH-NEXT:    lui a1, %hi(.LCPI6_0)
265 ; ZVFH-NEXT:    flh fa5, %lo(.LCPI6_0)(a1)
266 ; ZVFH-NEXT:    vmv1r.v v10, v0
267 ; ZVFH-NEXT:    vsetvli zero, a0, e16, m2, ta, ma
268 ; ZVFH-NEXT:    vfabs.v v12, v8, v0.t
269 ; ZVFH-NEXT:    vsetvli zero, zero, e16, m2, ta, mu
270 ; ZVFH-NEXT:    vmflt.vf v10, v12, fa5, v0.t
271 ; ZVFH-NEXT:    fsrmi a0, 4
272 ; ZVFH-NEXT:    vmv1r.v v0, v10
273 ; ZVFH-NEXT:    vsetvli zero, zero, e16, m2, ta, ma
274 ; ZVFH-NEXT:    vfcvt.x.f.v v12, v8, v0.t
275 ; ZVFH-NEXT:    fsrm a0
276 ; ZVFH-NEXT:    vfcvt.f.x.v v12, v12, v0.t
277 ; ZVFH-NEXT:    vsetvli zero, zero, e16, m2, ta, mu
278 ; ZVFH-NEXT:    vfsgnj.vv v8, v12, v8, v0.t
279 ; ZVFH-NEXT:    ret
281 ; ZVFHMIN-LABEL: vp_round_v16f16:
282 ; ZVFHMIN:       # %bb.0:
283 ; ZVFHMIN-NEXT:    vmv1r.v v10, v0
284 ; ZVFHMIN-NEXT:    vsetivli zero, 16, e16, m2, ta, ma
285 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v12, v8
286 ; ZVFHMIN-NEXT:    vsetvli zero, a0, e32, m4, ta, ma
287 ; ZVFHMIN-NEXT:    vfabs.v v16, v12, v0.t
288 ; ZVFHMIN-NEXT:    lui a0, 307200
289 ; ZVFHMIN-NEXT:    fmv.w.x fa5, a0
290 ; ZVFHMIN-NEXT:    vsetvli zero, zero, e32, m4, ta, mu
291 ; ZVFHMIN-NEXT:    vmflt.vf v10, v16, fa5, v0.t
292 ; ZVFHMIN-NEXT:    fsrmi a0, 4
293 ; ZVFHMIN-NEXT:    vmv1r.v v0, v10
294 ; ZVFHMIN-NEXT:    vsetvli zero, zero, e32, m4, ta, ma
295 ; ZVFHMIN-NEXT:    vfcvt.x.f.v v16, v12, v0.t
296 ; ZVFHMIN-NEXT:    fsrm a0
297 ; ZVFHMIN-NEXT:    vfcvt.f.x.v v16, v16, v0.t
298 ; ZVFHMIN-NEXT:    vsetvli zero, zero, e32, m4, ta, mu
299 ; ZVFHMIN-NEXT:    vfsgnj.vv v12, v16, v12, v0.t
300 ; ZVFHMIN-NEXT:    vsetivli zero, 16, e16, m2, ta, ma
301 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v8, v12
302 ; ZVFHMIN-NEXT:    ret
303   %v = call <16 x half> @llvm.vp.round.v16f16(<16 x half> %va, <16 x i1> %m, i32 %evl)
304   ret <16 x half> %v
307 define <16 x half> @vp_round_v16f16_unmasked(<16 x half> %va, i32 zeroext %evl) {
308 ; ZVFH-LABEL: vp_round_v16f16_unmasked:
309 ; ZVFH:       # %bb.0:
310 ; ZVFH-NEXT:    lui a1, %hi(.LCPI7_0)
311 ; ZVFH-NEXT:    flh fa5, %lo(.LCPI7_0)(a1)
312 ; ZVFH-NEXT:    vsetvli zero, a0, e16, m2, ta, ma
313 ; ZVFH-NEXT:    vfabs.v v10, v8
314 ; ZVFH-NEXT:    vmflt.vf v0, v10, fa5
315 ; ZVFH-NEXT:    fsrmi a0, 4
316 ; ZVFH-NEXT:    vfcvt.x.f.v v10, v8, v0.t
317 ; ZVFH-NEXT:    fsrm a0
318 ; ZVFH-NEXT:    vfcvt.f.x.v v10, v10, v0.t
319 ; ZVFH-NEXT:    vsetvli zero, zero, e16, m2, ta, mu
320 ; ZVFH-NEXT:    vfsgnj.vv v8, v10, v8, v0.t
321 ; ZVFH-NEXT:    ret
323 ; ZVFHMIN-LABEL: vp_round_v16f16_unmasked:
324 ; ZVFHMIN:       # %bb.0:
325 ; ZVFHMIN-NEXT:    vsetivli zero, 16, e16, m2, ta, ma
326 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v12, v8
327 ; ZVFHMIN-NEXT:    vsetvli zero, a0, e32, m4, ta, ma
328 ; ZVFHMIN-NEXT:    vfabs.v v8, v12
329 ; ZVFHMIN-NEXT:    lui a0, 307200
330 ; ZVFHMIN-NEXT:    fmv.w.x fa5, a0
331 ; ZVFHMIN-NEXT:    vmflt.vf v0, v8, fa5
332 ; ZVFHMIN-NEXT:    fsrmi a0, 4
333 ; ZVFHMIN-NEXT:    vfcvt.x.f.v v8, v12, v0.t
334 ; ZVFHMIN-NEXT:    fsrm a0
335 ; ZVFHMIN-NEXT:    vfcvt.f.x.v v8, v8, v0.t
336 ; ZVFHMIN-NEXT:    vsetvli zero, zero, e32, m4, ta, mu
337 ; ZVFHMIN-NEXT:    vfsgnj.vv v12, v8, v12, v0.t
338 ; ZVFHMIN-NEXT:    vsetivli zero, 16, e16, m2, ta, ma
339 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v8, v12
340 ; ZVFHMIN-NEXT:    ret
341   %v = call <16 x half> @llvm.vp.round.v16f16(<16 x half> %va, <16 x i1> splat (i1 true), i32 %evl)
342   ret <16 x half> %v
345 declare <2 x float> @llvm.vp.round.v2f32(<2 x float>, <2 x i1>, i32)
347 define <2 x float> @vp_round_v2f32(<2 x float> %va, <2 x i1> %m, i32 zeroext %evl) {
348 ; CHECK-LABEL: vp_round_v2f32:
349 ; CHECK:       # %bb.0:
350 ; CHECK-NEXT:    vsetvli zero, a0, e32, mf2, ta, ma
351 ; CHECK-NEXT:    vfabs.v v9, v8, v0.t
352 ; CHECK-NEXT:    lui a0, 307200
353 ; CHECK-NEXT:    fmv.w.x fa5, a0
354 ; CHECK-NEXT:    vsetvli zero, zero, e32, mf2, ta, mu
355 ; CHECK-NEXT:    vmflt.vf v0, v9, fa5, v0.t
356 ; CHECK-NEXT:    fsrmi a0, 4
357 ; CHECK-NEXT:    vsetvli zero, zero, e32, mf2, ta, ma
358 ; CHECK-NEXT:    vfcvt.x.f.v v9, v8, v0.t
359 ; CHECK-NEXT:    fsrm a0
360 ; CHECK-NEXT:    vfcvt.f.x.v v9, v9, v0.t
361 ; CHECK-NEXT:    vsetvli zero, zero, e32, mf2, ta, mu
362 ; CHECK-NEXT:    vfsgnj.vv v8, v9, v8, v0.t
363 ; CHECK-NEXT:    ret
364   %v = call <2 x float> @llvm.vp.round.v2f32(<2 x float> %va, <2 x i1> %m, i32 %evl)
365   ret <2 x float> %v
368 define <2 x float> @vp_round_v2f32_unmasked(<2 x float> %va, i32 zeroext %evl) {
369 ; CHECK-LABEL: vp_round_v2f32_unmasked:
370 ; CHECK:       # %bb.0:
371 ; CHECK-NEXT:    vsetvli zero, a0, e32, mf2, ta, ma
372 ; CHECK-NEXT:    vfabs.v v9, v8
373 ; CHECK-NEXT:    lui a0, 307200
374 ; CHECK-NEXT:    fmv.w.x fa5, a0
375 ; CHECK-NEXT:    vmflt.vf v0, v9, fa5
376 ; CHECK-NEXT:    fsrmi a0, 4
377 ; CHECK-NEXT:    vfcvt.x.f.v v9, v8, v0.t
378 ; CHECK-NEXT:    fsrm a0
379 ; CHECK-NEXT:    vfcvt.f.x.v v9, v9, v0.t
380 ; CHECK-NEXT:    vsetvli zero, zero, e32, mf2, ta, mu
381 ; CHECK-NEXT:    vfsgnj.vv v8, v9, v8, v0.t
382 ; CHECK-NEXT:    ret
383   %v = call <2 x float> @llvm.vp.round.v2f32(<2 x float> %va, <2 x i1> splat (i1 true), i32 %evl)
384   ret <2 x float> %v
387 declare <4 x float> @llvm.vp.round.v4f32(<4 x float>, <4 x i1>, i32)
389 define <4 x float> @vp_round_v4f32(<4 x float> %va, <4 x i1> %m, i32 zeroext %evl) {
390 ; CHECK-LABEL: vp_round_v4f32:
391 ; CHECK:       # %bb.0:
392 ; CHECK-NEXT:    vsetvli zero, a0, e32, m1, ta, ma
393 ; CHECK-NEXT:    vfabs.v v9, v8, v0.t
394 ; CHECK-NEXT:    lui a0, 307200
395 ; CHECK-NEXT:    fmv.w.x fa5, a0
396 ; CHECK-NEXT:    vsetvli zero, zero, e32, m1, ta, mu
397 ; CHECK-NEXT:    vmflt.vf v0, v9, fa5, v0.t
398 ; CHECK-NEXT:    fsrmi a0, 4
399 ; CHECK-NEXT:    vsetvli zero, zero, e32, m1, ta, ma
400 ; CHECK-NEXT:    vfcvt.x.f.v v9, v8, v0.t
401 ; CHECK-NEXT:    fsrm a0
402 ; CHECK-NEXT:    vfcvt.f.x.v v9, v9, v0.t
403 ; CHECK-NEXT:    vsetvli zero, zero, e32, m1, ta, mu
404 ; CHECK-NEXT:    vfsgnj.vv v8, v9, v8, v0.t
405 ; CHECK-NEXT:    ret
406   %v = call <4 x float> @llvm.vp.round.v4f32(<4 x float> %va, <4 x i1> %m, i32 %evl)
407   ret <4 x float> %v
410 define <4 x float> @vp_round_v4f32_unmasked(<4 x float> %va, i32 zeroext %evl) {
411 ; CHECK-LABEL: vp_round_v4f32_unmasked:
412 ; CHECK:       # %bb.0:
413 ; CHECK-NEXT:    vsetvli zero, a0, e32, m1, ta, ma
414 ; CHECK-NEXT:    vfabs.v v9, v8
415 ; CHECK-NEXT:    lui a0, 307200
416 ; CHECK-NEXT:    fmv.w.x fa5, a0
417 ; CHECK-NEXT:    vmflt.vf v0, v9, fa5
418 ; CHECK-NEXT:    fsrmi a0, 4
419 ; CHECK-NEXT:    vfcvt.x.f.v v9, v8, v0.t
420 ; CHECK-NEXT:    fsrm a0
421 ; CHECK-NEXT:    vfcvt.f.x.v v9, v9, v0.t
422 ; CHECK-NEXT:    vsetvli zero, zero, e32, m1, ta, mu
423 ; CHECK-NEXT:    vfsgnj.vv v8, v9, v8, v0.t
424 ; CHECK-NEXT:    ret
425   %v = call <4 x float> @llvm.vp.round.v4f32(<4 x float> %va, <4 x i1> splat (i1 true), i32 %evl)
426   ret <4 x float> %v
429 declare <8 x float> @llvm.vp.round.v8f32(<8 x float>, <8 x i1>, i32)
431 define <8 x float> @vp_round_v8f32(<8 x float> %va, <8 x i1> %m, i32 zeroext %evl) {
432 ; CHECK-LABEL: vp_round_v8f32:
433 ; CHECK:       # %bb.0:
434 ; CHECK-NEXT:    vmv1r.v v10, v0
435 ; CHECK-NEXT:    vsetvli zero, a0, e32, m2, ta, ma
436 ; CHECK-NEXT:    vfabs.v v12, v8, v0.t
437 ; CHECK-NEXT:    lui a0, 307200
438 ; CHECK-NEXT:    fmv.w.x fa5, a0
439 ; CHECK-NEXT:    vsetvli zero, zero, e32, m2, ta, mu
440 ; CHECK-NEXT:    vmflt.vf v10, v12, fa5, v0.t
441 ; CHECK-NEXT:    fsrmi a0, 4
442 ; CHECK-NEXT:    vmv1r.v v0, v10
443 ; CHECK-NEXT:    vsetvli zero, zero, e32, m2, ta, ma
444 ; CHECK-NEXT:    vfcvt.x.f.v v12, v8, v0.t
445 ; CHECK-NEXT:    fsrm a0
446 ; CHECK-NEXT:    vfcvt.f.x.v v12, v12, v0.t
447 ; CHECK-NEXT:    vsetvli zero, zero, e32, m2, ta, mu
448 ; CHECK-NEXT:    vfsgnj.vv v8, v12, v8, v0.t
449 ; CHECK-NEXT:    ret
450   %v = call <8 x float> @llvm.vp.round.v8f32(<8 x float> %va, <8 x i1> %m, i32 %evl)
451   ret <8 x float> %v
454 define <8 x float> @vp_round_v8f32_unmasked(<8 x float> %va, i32 zeroext %evl) {
455 ; CHECK-LABEL: vp_round_v8f32_unmasked:
456 ; CHECK:       # %bb.0:
457 ; CHECK-NEXT:    vsetvli zero, a0, e32, m2, ta, ma
458 ; CHECK-NEXT:    vfabs.v v10, v8
459 ; CHECK-NEXT:    lui a0, 307200
460 ; CHECK-NEXT:    fmv.w.x fa5, a0
461 ; CHECK-NEXT:    vmflt.vf v0, v10, fa5
462 ; CHECK-NEXT:    fsrmi a0, 4
463 ; CHECK-NEXT:    vfcvt.x.f.v v10, v8, v0.t
464 ; CHECK-NEXT:    fsrm a0
465 ; CHECK-NEXT:    vfcvt.f.x.v v10, v10, v0.t
466 ; CHECK-NEXT:    vsetvli zero, zero, e32, m2, ta, mu
467 ; CHECK-NEXT:    vfsgnj.vv v8, v10, v8, v0.t
468 ; CHECK-NEXT:    ret
469   %v = call <8 x float> @llvm.vp.round.v8f32(<8 x float> %va, <8 x i1> splat (i1 true), i32 %evl)
470   ret <8 x float> %v
473 declare <16 x float> @llvm.vp.round.v16f32(<16 x float>, <16 x i1>, i32)
475 define <16 x float> @vp_round_v16f32(<16 x float> %va, <16 x i1> %m, i32 zeroext %evl) {
476 ; CHECK-LABEL: vp_round_v16f32:
477 ; CHECK:       # %bb.0:
478 ; CHECK-NEXT:    vmv1r.v v12, v0
479 ; CHECK-NEXT:    vsetvli zero, a0, e32, m4, ta, ma
480 ; CHECK-NEXT:    vfabs.v v16, v8, v0.t
481 ; CHECK-NEXT:    lui a0, 307200
482 ; CHECK-NEXT:    fmv.w.x fa5, a0
483 ; CHECK-NEXT:    vsetvli zero, zero, e32, m4, ta, mu
484 ; CHECK-NEXT:    vmflt.vf v12, v16, fa5, v0.t
485 ; CHECK-NEXT:    fsrmi a0, 4
486 ; CHECK-NEXT:    vmv1r.v v0, v12
487 ; CHECK-NEXT:    vsetvli zero, zero, e32, m4, ta, ma
488 ; CHECK-NEXT:    vfcvt.x.f.v v16, v8, v0.t
489 ; CHECK-NEXT:    fsrm a0
490 ; CHECK-NEXT:    vfcvt.f.x.v v16, v16, v0.t
491 ; CHECK-NEXT:    vsetvli zero, zero, e32, m4, ta, mu
492 ; CHECK-NEXT:    vfsgnj.vv v8, v16, v8, v0.t
493 ; CHECK-NEXT:    ret
494   %v = call <16 x float> @llvm.vp.round.v16f32(<16 x float> %va, <16 x i1> %m, i32 %evl)
495   ret <16 x float> %v
498 define <16 x float> @vp_round_v16f32_unmasked(<16 x float> %va, i32 zeroext %evl) {
499 ; CHECK-LABEL: vp_round_v16f32_unmasked:
500 ; CHECK:       # %bb.0:
501 ; CHECK-NEXT:    vsetvli zero, a0, e32, m4, ta, ma
502 ; CHECK-NEXT:    vfabs.v v12, v8
503 ; CHECK-NEXT:    lui a0, 307200
504 ; CHECK-NEXT:    fmv.w.x fa5, a0
505 ; CHECK-NEXT:    vmflt.vf v0, v12, fa5
506 ; CHECK-NEXT:    fsrmi a0, 4
507 ; CHECK-NEXT:    vfcvt.x.f.v v12, v8, v0.t
508 ; CHECK-NEXT:    fsrm a0
509 ; CHECK-NEXT:    vfcvt.f.x.v v12, v12, v0.t
510 ; CHECK-NEXT:    vsetvli zero, zero, e32, m4, ta, mu
511 ; CHECK-NEXT:    vfsgnj.vv v8, v12, v8, v0.t
512 ; CHECK-NEXT:    ret
513   %v = call <16 x float> @llvm.vp.round.v16f32(<16 x float> %va, <16 x i1> splat (i1 true), i32 %evl)
514   ret <16 x float> %v
517 declare <2 x double> @llvm.vp.round.v2f64(<2 x double>, <2 x i1>, i32)
519 define <2 x double> @vp_round_v2f64(<2 x double> %va, <2 x i1> %m, i32 zeroext %evl) {
520 ; CHECK-LABEL: vp_round_v2f64:
521 ; CHECK:       # %bb.0:
522 ; CHECK-NEXT:    lui a1, %hi(.LCPI16_0)
523 ; CHECK-NEXT:    fld fa5, %lo(.LCPI16_0)(a1)
524 ; CHECK-NEXT:    vsetvli zero, a0, e64, m1, ta, ma
525 ; CHECK-NEXT:    vfabs.v v9, v8, v0.t
526 ; CHECK-NEXT:    vsetvli zero, zero, e64, m1, ta, mu
527 ; CHECK-NEXT:    vmflt.vf v0, v9, fa5, v0.t
528 ; CHECK-NEXT:    fsrmi a0, 4
529 ; CHECK-NEXT:    vsetvli zero, zero, e64, m1, ta, ma
530 ; CHECK-NEXT:    vfcvt.x.f.v v9, v8, v0.t
531 ; CHECK-NEXT:    fsrm a0
532 ; CHECK-NEXT:    vfcvt.f.x.v v9, v9, v0.t
533 ; CHECK-NEXT:    vsetvli zero, zero, e64, m1, ta, mu
534 ; CHECK-NEXT:    vfsgnj.vv v8, v9, v8, v0.t
535 ; CHECK-NEXT:    ret
536   %v = call <2 x double> @llvm.vp.round.v2f64(<2 x double> %va, <2 x i1> %m, i32 %evl)
537   ret <2 x double> %v
540 define <2 x double> @vp_round_v2f64_unmasked(<2 x double> %va, i32 zeroext %evl) {
541 ; CHECK-LABEL: vp_round_v2f64_unmasked:
542 ; CHECK:       # %bb.0:
543 ; CHECK-NEXT:    lui a1, %hi(.LCPI17_0)
544 ; CHECK-NEXT:    fld fa5, %lo(.LCPI17_0)(a1)
545 ; CHECK-NEXT:    vsetvli zero, a0, e64, m1, ta, ma
546 ; CHECK-NEXT:    vfabs.v v9, v8
547 ; CHECK-NEXT:    vmflt.vf v0, v9, fa5
548 ; CHECK-NEXT:    fsrmi a0, 4
549 ; CHECK-NEXT:    vfcvt.x.f.v v9, v8, v0.t
550 ; CHECK-NEXT:    fsrm a0
551 ; CHECK-NEXT:    vfcvt.f.x.v v9, v9, v0.t
552 ; CHECK-NEXT:    vsetvli zero, zero, e64, m1, ta, mu
553 ; CHECK-NEXT:    vfsgnj.vv v8, v9, v8, v0.t
554 ; CHECK-NEXT:    ret
555   %v = call <2 x double> @llvm.vp.round.v2f64(<2 x double> %va, <2 x i1> splat (i1 true), i32 %evl)
556   ret <2 x double> %v
559 declare <4 x double> @llvm.vp.round.v4f64(<4 x double>, <4 x i1>, i32)
561 define <4 x double> @vp_round_v4f64(<4 x double> %va, <4 x i1> %m, i32 zeroext %evl) {
562 ; CHECK-LABEL: vp_round_v4f64:
563 ; CHECK:       # %bb.0:
564 ; CHECK-NEXT:    lui a1, %hi(.LCPI18_0)
565 ; CHECK-NEXT:    fld fa5, %lo(.LCPI18_0)(a1)
566 ; CHECK-NEXT:    vmv1r.v v10, v0
567 ; CHECK-NEXT:    vsetvli zero, a0, e64, m2, ta, ma
568 ; CHECK-NEXT:    vfabs.v v12, v8, v0.t
569 ; CHECK-NEXT:    vsetvli zero, zero, e64, m2, ta, mu
570 ; CHECK-NEXT:    vmflt.vf v10, v12, fa5, v0.t
571 ; CHECK-NEXT:    fsrmi a0, 4
572 ; CHECK-NEXT:    vmv1r.v v0, v10
573 ; CHECK-NEXT:    vsetvli zero, zero, e64, m2, ta, ma
574 ; CHECK-NEXT:    vfcvt.x.f.v v12, v8, v0.t
575 ; CHECK-NEXT:    fsrm a0
576 ; CHECK-NEXT:    vfcvt.f.x.v v12, v12, v0.t
577 ; CHECK-NEXT:    vsetvli zero, zero, e64, m2, ta, mu
578 ; CHECK-NEXT:    vfsgnj.vv v8, v12, v8, v0.t
579 ; CHECK-NEXT:    ret
580   %v = call <4 x double> @llvm.vp.round.v4f64(<4 x double> %va, <4 x i1> %m, i32 %evl)
581   ret <4 x double> %v
584 define <4 x double> @vp_round_v4f64_unmasked(<4 x double> %va, i32 zeroext %evl) {
585 ; CHECK-LABEL: vp_round_v4f64_unmasked:
586 ; CHECK:       # %bb.0:
587 ; CHECK-NEXT:    lui a1, %hi(.LCPI19_0)
588 ; CHECK-NEXT:    fld fa5, %lo(.LCPI19_0)(a1)
589 ; CHECK-NEXT:    vsetvli zero, a0, e64, m2, ta, ma
590 ; CHECK-NEXT:    vfabs.v v10, v8
591 ; CHECK-NEXT:    vmflt.vf v0, v10, fa5
592 ; CHECK-NEXT:    fsrmi a0, 4
593 ; CHECK-NEXT:    vfcvt.x.f.v v10, v8, v0.t
594 ; CHECK-NEXT:    fsrm a0
595 ; CHECK-NEXT:    vfcvt.f.x.v v10, v10, v0.t
596 ; CHECK-NEXT:    vsetvli zero, zero, e64, m2, ta, mu
597 ; CHECK-NEXT:    vfsgnj.vv v8, v10, v8, v0.t
598 ; CHECK-NEXT:    ret
599   %v = call <4 x double> @llvm.vp.round.v4f64(<4 x double> %va, <4 x i1> splat (i1 true), i32 %evl)
600   ret <4 x double> %v
603 declare <8 x double> @llvm.vp.round.v8f64(<8 x double>, <8 x i1>, i32)
605 define <8 x double> @vp_round_v8f64(<8 x double> %va, <8 x i1> %m, i32 zeroext %evl) {
606 ; CHECK-LABEL: vp_round_v8f64:
607 ; CHECK:       # %bb.0:
608 ; CHECK-NEXT:    lui a1, %hi(.LCPI20_0)
609 ; CHECK-NEXT:    fld fa5, %lo(.LCPI20_0)(a1)
610 ; CHECK-NEXT:    vmv1r.v v12, v0
611 ; CHECK-NEXT:    vsetvli zero, a0, e64, m4, ta, ma
612 ; CHECK-NEXT:    vfabs.v v16, v8, v0.t
613 ; CHECK-NEXT:    vsetvli zero, zero, e64, m4, ta, mu
614 ; CHECK-NEXT:    vmflt.vf v12, v16, fa5, v0.t
615 ; CHECK-NEXT:    fsrmi a0, 4
616 ; CHECK-NEXT:    vmv1r.v v0, v12
617 ; CHECK-NEXT:    vsetvli zero, zero, e64, m4, ta, ma
618 ; CHECK-NEXT:    vfcvt.x.f.v v16, v8, v0.t
619 ; CHECK-NEXT:    fsrm a0
620 ; CHECK-NEXT:    vfcvt.f.x.v v16, v16, v0.t
621 ; CHECK-NEXT:    vsetvli zero, zero, e64, m4, ta, mu
622 ; CHECK-NEXT:    vfsgnj.vv v8, v16, v8, v0.t
623 ; CHECK-NEXT:    ret
624   %v = call <8 x double> @llvm.vp.round.v8f64(<8 x double> %va, <8 x i1> %m, i32 %evl)
625   ret <8 x double> %v
628 define <8 x double> @vp_round_v8f64_unmasked(<8 x double> %va, i32 zeroext %evl) {
629 ; CHECK-LABEL: vp_round_v8f64_unmasked:
630 ; CHECK:       # %bb.0:
631 ; CHECK-NEXT:    lui a1, %hi(.LCPI21_0)
632 ; CHECK-NEXT:    fld fa5, %lo(.LCPI21_0)(a1)
633 ; CHECK-NEXT:    vsetvli zero, a0, e64, m4, ta, ma
634 ; CHECK-NEXT:    vfabs.v v12, v8
635 ; CHECK-NEXT:    vmflt.vf v0, v12, fa5
636 ; CHECK-NEXT:    fsrmi a0, 4
637 ; CHECK-NEXT:    vfcvt.x.f.v v12, v8, v0.t
638 ; CHECK-NEXT:    fsrm a0
639 ; CHECK-NEXT:    vfcvt.f.x.v v12, v12, v0.t
640 ; CHECK-NEXT:    vsetvli zero, zero, e64, m4, ta, mu
641 ; CHECK-NEXT:    vfsgnj.vv v8, v12, v8, v0.t
642 ; CHECK-NEXT:    ret
643   %v = call <8 x double> @llvm.vp.round.v8f64(<8 x double> %va, <8 x i1> splat (i1 true), i32 %evl)
644   ret <8 x double> %v
647 declare <15 x double> @llvm.vp.round.v15f64(<15 x double>, <15 x i1>, i32)
649 define <15 x double> @vp_round_v15f64(<15 x double> %va, <15 x i1> %m, i32 zeroext %evl) {
650 ; CHECK-LABEL: vp_round_v15f64:
651 ; CHECK:       # %bb.0:
652 ; CHECK-NEXT:    lui a1, %hi(.LCPI22_0)
653 ; CHECK-NEXT:    fld fa5, %lo(.LCPI22_0)(a1)
654 ; CHECK-NEXT:    vmv1r.v v16, v0
655 ; CHECK-NEXT:    vsetvli zero, a0, e64, m8, ta, ma
656 ; CHECK-NEXT:    vfabs.v v24, v8, v0.t
657 ; CHECK-NEXT:    vsetvli zero, zero, e64, m8, ta, mu
658 ; CHECK-NEXT:    vmflt.vf v16, v24, fa5, v0.t
659 ; CHECK-NEXT:    fsrmi a0, 4
660 ; CHECK-NEXT:    vmv1r.v v0, v16
661 ; CHECK-NEXT:    vsetvli zero, zero, e64, m8, ta, ma
662 ; CHECK-NEXT:    vfcvt.x.f.v v24, v8, v0.t
663 ; CHECK-NEXT:    fsrm a0
664 ; CHECK-NEXT:    vfcvt.f.x.v v24, v24, v0.t
665 ; CHECK-NEXT:    vsetvli zero, zero, e64, m8, ta, mu
666 ; CHECK-NEXT:    vfsgnj.vv v8, v24, v8, v0.t
667 ; CHECK-NEXT:    ret
668   %v = call <15 x double> @llvm.vp.round.v15f64(<15 x double> %va, <15 x i1> %m, i32 %evl)
669   ret <15 x double> %v
672 define <15 x double> @vp_round_v15f64_unmasked(<15 x double> %va, i32 zeroext %evl) {
673 ; CHECK-LABEL: vp_round_v15f64_unmasked:
674 ; CHECK:       # %bb.0:
675 ; CHECK-NEXT:    lui a1, %hi(.LCPI23_0)
676 ; CHECK-NEXT:    fld fa5, %lo(.LCPI23_0)(a1)
677 ; CHECK-NEXT:    vsetvli zero, a0, e64, m8, ta, ma
678 ; CHECK-NEXT:    vfabs.v v16, v8
679 ; CHECK-NEXT:    vmflt.vf v0, v16, fa5
680 ; CHECK-NEXT:    fsrmi a0, 4
681 ; CHECK-NEXT:    vfcvt.x.f.v v16, v8, v0.t
682 ; CHECK-NEXT:    fsrm a0
683 ; CHECK-NEXT:    vfcvt.f.x.v v16, v16, v0.t
684 ; CHECK-NEXT:    vsetvli zero, zero, e64, m8, ta, mu
685 ; CHECK-NEXT:    vfsgnj.vv v8, v16, v8, v0.t
686 ; CHECK-NEXT:    ret
687   %v = call <15 x double> @llvm.vp.round.v15f64(<15 x double> %va, <15 x i1> splat (i1 true), i32 %evl)
688   ret <15 x double> %v
691 declare <16 x double> @llvm.vp.round.v16f64(<16 x double>, <16 x i1>, i32)
693 define <16 x double> @vp_round_v16f64(<16 x double> %va, <16 x i1> %m, i32 zeroext %evl) {
694 ; CHECK-LABEL: vp_round_v16f64:
695 ; CHECK:       # %bb.0:
696 ; CHECK-NEXT:    lui a1, %hi(.LCPI24_0)
697 ; CHECK-NEXT:    fld fa5, %lo(.LCPI24_0)(a1)
698 ; CHECK-NEXT:    vmv1r.v v16, v0
699 ; CHECK-NEXT:    vsetvli zero, a0, e64, m8, ta, ma
700 ; CHECK-NEXT:    vfabs.v v24, v8, v0.t
701 ; CHECK-NEXT:    vsetvli zero, zero, e64, m8, ta, mu
702 ; CHECK-NEXT:    vmflt.vf v16, v24, fa5, v0.t
703 ; CHECK-NEXT:    fsrmi a0, 4
704 ; CHECK-NEXT:    vmv1r.v v0, v16
705 ; CHECK-NEXT:    vsetvli zero, zero, e64, m8, ta, ma
706 ; CHECK-NEXT:    vfcvt.x.f.v v24, v8, v0.t
707 ; CHECK-NEXT:    fsrm a0
708 ; CHECK-NEXT:    vfcvt.f.x.v v24, v24, v0.t
709 ; CHECK-NEXT:    vsetvli zero, zero, e64, m8, ta, mu
710 ; CHECK-NEXT:    vfsgnj.vv v8, v24, v8, v0.t
711 ; CHECK-NEXT:    ret
712   %v = call <16 x double> @llvm.vp.round.v16f64(<16 x double> %va, <16 x i1> %m, i32 %evl)
713   ret <16 x double> %v
716 define <16 x double> @vp_round_v16f64_unmasked(<16 x double> %va, i32 zeroext %evl) {
717 ; CHECK-LABEL: vp_round_v16f64_unmasked:
718 ; CHECK:       # %bb.0:
719 ; CHECK-NEXT:    lui a1, %hi(.LCPI25_0)
720 ; CHECK-NEXT:    fld fa5, %lo(.LCPI25_0)(a1)
721 ; CHECK-NEXT:    vsetvli zero, a0, e64, m8, ta, ma
722 ; CHECK-NEXT:    vfabs.v v16, v8
723 ; CHECK-NEXT:    vmflt.vf v0, v16, fa5
724 ; CHECK-NEXT:    fsrmi a0, 4
725 ; CHECK-NEXT:    vfcvt.x.f.v v16, v8, v0.t
726 ; CHECK-NEXT:    fsrm a0
727 ; CHECK-NEXT:    vfcvt.f.x.v v16, v16, v0.t
728 ; CHECK-NEXT:    vsetvli zero, zero, e64, m8, ta, mu
729 ; CHECK-NEXT:    vfsgnj.vv v8, v16, v8, v0.t
730 ; CHECK-NEXT:    ret
731   %v = call <16 x double> @llvm.vp.round.v16f64(<16 x double> %va, <16 x i1> splat (i1 true), i32 %evl)
732   ret <16 x double> %v
735 declare <32 x double> @llvm.vp.round.v32f64(<32 x double>, <32 x i1>, i32)
737 define <32 x double> @vp_round_v32f64(<32 x double> %va, <32 x i1> %m, i32 zeroext %evl) {
738 ; CHECK-LABEL: vp_round_v32f64:
739 ; CHECK:       # %bb.0:
740 ; CHECK-NEXT:    vmv1r.v v6, v0
741 ; CHECK-NEXT:    li a2, 16
742 ; CHECK-NEXT:    vsetivli zero, 2, e8, mf4, ta, ma
743 ; CHECK-NEXT:    vslidedown.vi v7, v0, 2
744 ; CHECK-NEXT:    mv a1, a0
745 ; CHECK-NEXT:    bltu a0, a2, .LBB26_2
746 ; CHECK-NEXT:  # %bb.1:
747 ; CHECK-NEXT:    li a1, 16
748 ; CHECK-NEXT:  .LBB26_2:
749 ; CHECK-NEXT:    addi sp, sp, -16
750 ; CHECK-NEXT:    .cfi_def_cfa_offset 16
751 ; CHECK-NEXT:    csrr a2, vlenb
752 ; CHECK-NEXT:    slli a2, a2, 3
753 ; CHECK-NEXT:    sub sp, sp, a2
754 ; CHECK-NEXT:    .cfi_escape 0x0f, 0x0d, 0x72, 0x00, 0x11, 0x10, 0x22, 0x11, 0x08, 0x92, 0xa2, 0x38, 0x00, 0x1e, 0x22 # sp + 16 + 8 * vlenb
755 ; CHECK-NEXT:    lui a2, %hi(.LCPI26_0)
756 ; CHECK-NEXT:    fld fa5, %lo(.LCPI26_0)(a2)
757 ; CHECK-NEXT:    vmv1r.v v0, v6
758 ; CHECK-NEXT:    vsetvli zero, a1, e64, m8, ta, ma
759 ; CHECK-NEXT:    vfabs.v v24, v8, v0.t
760 ; CHECK-NEXT:    vsetvli zero, zero, e64, m8, ta, mu
761 ; CHECK-NEXT:    vmflt.vf v6, v24, fa5, v0.t
762 ; CHECK-NEXT:    fsrmi a1, 4
763 ; CHECK-NEXT:    vmv1r.v v0, v6
764 ; CHECK-NEXT:    vsetvli zero, zero, e64, m8, ta, ma
765 ; CHECK-NEXT:    vfcvt.x.f.v v24, v8, v0.t
766 ; CHECK-NEXT:    addi a2, sp, 16
767 ; CHECK-NEXT:    vs8r.v v24, (a2) # Unknown-size Folded Spill
768 ; CHECK-NEXT:    fsrm a1
769 ; CHECK-NEXT:    addi a1, sp, 16
770 ; CHECK-NEXT:    vl8r.v v24, (a1) # Unknown-size Folded Reload
771 ; CHECK-NEXT:    vfcvt.f.x.v v24, v24, v0.t
772 ; CHECK-NEXT:    vsetvli zero, zero, e64, m8, ta, mu
773 ; CHECK-NEXT:    vfsgnj.vv v8, v24, v8, v0.t
774 ; CHECK-NEXT:    addi a1, a0, -16
775 ; CHECK-NEXT:    sltu a0, a0, a1
776 ; CHECK-NEXT:    addi a0, a0, -1
777 ; CHECK-NEXT:    and a0, a0, a1
778 ; CHECK-NEXT:    vmv1r.v v0, v7
779 ; CHECK-NEXT:    vsetvli zero, a0, e64, m8, ta, ma
780 ; CHECK-NEXT:    vfabs.v v24, v16, v0.t
781 ; CHECK-NEXT:    vsetvli zero, zero, e64, m8, ta, mu
782 ; CHECK-NEXT:    vmflt.vf v7, v24, fa5, v0.t
783 ; CHECK-NEXT:    fsrmi a0, 4
784 ; CHECK-NEXT:    vmv1r.v v0, v7
785 ; CHECK-NEXT:    vsetvli zero, zero, e64, m8, ta, ma
786 ; CHECK-NEXT:    vfcvt.x.f.v v24, v16, v0.t
787 ; CHECK-NEXT:    fsrm a0
788 ; CHECK-NEXT:    vfcvt.f.x.v v24, v24, v0.t
789 ; CHECK-NEXT:    vsetvli zero, zero, e64, m8, ta, mu
790 ; CHECK-NEXT:    vfsgnj.vv v16, v24, v16, v0.t
791 ; CHECK-NEXT:    csrr a0, vlenb
792 ; CHECK-NEXT:    slli a0, a0, 3
793 ; CHECK-NEXT:    add sp, sp, a0
794 ; CHECK-NEXT:    addi sp, sp, 16
795 ; CHECK-NEXT:    ret
796   %v = call <32 x double> @llvm.vp.round.v32f64(<32 x double> %va, <32 x i1> %m, i32 %evl)
797   ret <32 x double> %v
800 define <32 x double> @vp_round_v32f64_unmasked(<32 x double> %va, i32 zeroext %evl) {
801 ; CHECK-LABEL: vp_round_v32f64_unmasked:
802 ; CHECK:       # %bb.0:
803 ; CHECK-NEXT:    li a2, 16
804 ; CHECK-NEXT:    mv a1, a0
805 ; CHECK-NEXT:    bltu a0, a2, .LBB27_2
806 ; CHECK-NEXT:  # %bb.1:
807 ; CHECK-NEXT:    li a1, 16
808 ; CHECK-NEXT:  .LBB27_2:
809 ; CHECK-NEXT:    lui a2, %hi(.LCPI27_0)
810 ; CHECK-NEXT:    fld fa5, %lo(.LCPI27_0)(a2)
811 ; CHECK-NEXT:    vsetvli zero, a1, e64, m8, ta, ma
812 ; CHECK-NEXT:    vfabs.v v24, v8
813 ; CHECK-NEXT:    vmflt.vf v0, v24, fa5
814 ; CHECK-NEXT:    fsrmi a1, 4
815 ; CHECK-NEXT:    vfcvt.x.f.v v24, v8, v0.t
816 ; CHECK-NEXT:    fsrm a1
817 ; CHECK-NEXT:    vfcvt.f.x.v v24, v24, v0.t
818 ; CHECK-NEXT:    vsetvli zero, zero, e64, m8, ta, mu
819 ; CHECK-NEXT:    vfsgnj.vv v8, v24, v8, v0.t
820 ; CHECK-NEXT:    addi a1, a0, -16
821 ; CHECK-NEXT:    sltu a0, a0, a1
822 ; CHECK-NEXT:    addi a0, a0, -1
823 ; CHECK-NEXT:    and a0, a0, a1
824 ; CHECK-NEXT:    vsetvli zero, a0, e64, m8, ta, ma
825 ; CHECK-NEXT:    vfabs.v v24, v16
826 ; CHECK-NEXT:    vmflt.vf v0, v24, fa5
827 ; CHECK-NEXT:    fsrmi a0, 4
828 ; CHECK-NEXT:    vfcvt.x.f.v v24, v16, v0.t
829 ; CHECK-NEXT:    fsrm a0
830 ; CHECK-NEXT:    vfcvt.f.x.v v24, v24, v0.t
831 ; CHECK-NEXT:    vsetvli zero, zero, e64, m8, ta, mu
832 ; CHECK-NEXT:    vfsgnj.vv v16, v24, v16, v0.t
833 ; CHECK-NEXT:    ret
834   %v = call <32 x double> @llvm.vp.round.v32f64(<32 x double> %va, <32 x i1> splat (i1 true), i32 %evl)
835   ret <32 x double> %v