Bump version to 19.1.0-rc3
[llvm-project.git] / llvm / test / CodeGen / RISCV / rvv / fixed-vectors-vfmul-vp.ll
blob64ce0a12de8cfb5a3d402a55f8d15704ef416cd4
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc -mtriple=riscv32 -mattr=+d,+zfh,+zvfh,+v -target-abi=ilp32d \
3 ; RUN:   -verify-machineinstrs < %s | FileCheck %s --check-prefixes=CHECK,ZVFH
4 ; RUN: llc -mtriple=riscv64 -mattr=+d,+zfh,+zvfh,+v -target-abi=lp64d \
5 ; RUN:   -verify-machineinstrs < %s | FileCheck %s --check-prefixes=CHECK,ZVFH
6 ; RUN: llc -mtriple=riscv32 -mattr=+d,+zfh,+zvfhmin,+v -target-abi=ilp32d \
7 ; RUN:   -verify-machineinstrs < %s | FileCheck %s --check-prefixes=CHECK,ZVFHMIN
8 ; RUN: llc -mtriple=riscv64 -mattr=+d,+zfh,+zvfhmin,+v -target-abi=lp64d \
9 ; RUN:   -verify-machineinstrs < %s | FileCheck %s --check-prefixes=CHECK,ZVFHMIN
11 declare <2 x half> @llvm.vp.fmul.v2f16(<2 x half>, <2 x half>, <2 x i1>, i32)
13 define <2 x half> @vfmul_vv_v2f16(<2 x half> %va, <2 x half> %b, <2 x i1> %m, i32 zeroext %evl) {
14 ; ZVFH-LABEL: vfmul_vv_v2f16:
15 ; ZVFH:       # %bb.0:
16 ; ZVFH-NEXT:    vsetvli zero, a0, e16, mf4, ta, ma
17 ; ZVFH-NEXT:    vfmul.vv v8, v8, v9, v0.t
18 ; ZVFH-NEXT:    ret
20 ; ZVFHMIN-LABEL: vfmul_vv_v2f16:
21 ; ZVFHMIN:       # %bb.0:
22 ; ZVFHMIN-NEXT:    vsetivli zero, 2, e16, mf4, ta, ma
23 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v10, v9
24 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v9, v8
25 ; ZVFHMIN-NEXT:    vsetvli zero, a0, e32, mf2, ta, ma
26 ; ZVFHMIN-NEXT:    vfmul.vv v9, v9, v10, v0.t
27 ; ZVFHMIN-NEXT:    vsetivli zero, 2, e16, mf4, ta, ma
28 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v8, v9
29 ; ZVFHMIN-NEXT:    ret
30   %v = call <2 x half> @llvm.vp.fmul.v2f16(<2 x half> %va, <2 x half> %b, <2 x i1> %m, i32 %evl)
31   ret <2 x half> %v
34 define <2 x half> @vfmul_vv_v2f16_unmasked(<2 x half> %va, <2 x half> %b, i32 zeroext %evl) {
35 ; ZVFH-LABEL: vfmul_vv_v2f16_unmasked:
36 ; ZVFH:       # %bb.0:
37 ; ZVFH-NEXT:    vsetvli zero, a0, e16, mf4, ta, ma
38 ; ZVFH-NEXT:    vfmul.vv v8, v8, v9
39 ; ZVFH-NEXT:    ret
41 ; ZVFHMIN-LABEL: vfmul_vv_v2f16_unmasked:
42 ; ZVFHMIN:       # %bb.0:
43 ; ZVFHMIN-NEXT:    vsetivli zero, 2, e16, mf4, ta, ma
44 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v10, v9
45 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v9, v8
46 ; ZVFHMIN-NEXT:    vsetvli zero, a0, e32, mf2, ta, ma
47 ; ZVFHMIN-NEXT:    vfmul.vv v9, v9, v10
48 ; ZVFHMIN-NEXT:    vsetivli zero, 2, e16, mf4, ta, ma
49 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v8, v9
50 ; ZVFHMIN-NEXT:    ret
51   %v = call <2 x half> @llvm.vp.fmul.v2f16(<2 x half> %va, <2 x half> %b, <2 x i1> splat (i1 true), i32 %evl)
52   ret <2 x half> %v
55 define <2 x half> @vfmul_vf_v2f16(<2 x half> %va, half %b, <2 x i1> %m, i32 zeroext %evl) {
56 ; ZVFH-LABEL: vfmul_vf_v2f16:
57 ; ZVFH:       # %bb.0:
58 ; ZVFH-NEXT:    vsetvli zero, a0, e16, mf4, ta, ma
59 ; ZVFH-NEXT:    vfmul.vf v8, v8, fa0, v0.t
60 ; ZVFH-NEXT:    ret
62 ; ZVFHMIN-LABEL: vfmul_vf_v2f16:
63 ; ZVFHMIN:       # %bb.0:
64 ; ZVFHMIN-NEXT:    fcvt.s.h fa5, fa0
65 ; ZVFHMIN-NEXT:    vsetvli a1, zero, e32, mf2, ta, ma
66 ; ZVFHMIN-NEXT:    vfmv.v.f v9, fa5
67 ; ZVFHMIN-NEXT:    vsetvli zero, zero, e16, mf4, ta, ma
68 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v10, v9
69 ; ZVFHMIN-NEXT:    vsetivli zero, 2, e16, mf4, ta, ma
70 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v9, v8
71 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v8, v10
72 ; ZVFHMIN-NEXT:    vsetvli zero, a0, e32, mf2, ta, ma
73 ; ZVFHMIN-NEXT:    vfmul.vv v9, v9, v8, v0.t
74 ; ZVFHMIN-NEXT:    vsetivli zero, 2, e16, mf4, ta, ma
75 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v8, v9
76 ; ZVFHMIN-NEXT:    ret
77   %elt.head = insertelement <2 x half> poison, half %b, i32 0
78   %vb = shufflevector <2 x half> %elt.head, <2 x half> poison, <2 x i32> zeroinitializer
79   %v = call <2 x half> @llvm.vp.fmul.v2f16(<2 x half> %va, <2 x half> %vb, <2 x i1> %m, i32 %evl)
80   ret <2 x half> %v
83 define <2 x half> @vfmul_vf_v2f16_unmasked(<2 x half> %va, half %b, i32 zeroext %evl) {
84 ; ZVFH-LABEL: vfmul_vf_v2f16_unmasked:
85 ; ZVFH:       # %bb.0:
86 ; ZVFH-NEXT:    vsetvli zero, a0, e16, mf4, ta, ma
87 ; ZVFH-NEXT:    vfmul.vf v8, v8, fa0
88 ; ZVFH-NEXT:    ret
90 ; ZVFHMIN-LABEL: vfmul_vf_v2f16_unmasked:
91 ; ZVFHMIN:       # %bb.0:
92 ; ZVFHMIN-NEXT:    fcvt.s.h fa5, fa0
93 ; ZVFHMIN-NEXT:    vsetvli a1, zero, e32, mf2, ta, ma
94 ; ZVFHMIN-NEXT:    vfmv.v.f v9, fa5
95 ; ZVFHMIN-NEXT:    vsetvli zero, zero, e16, mf4, ta, ma
96 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v10, v9
97 ; ZVFHMIN-NEXT:    vsetivli zero, 2, e16, mf4, ta, ma
98 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v9, v8
99 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v8, v10
100 ; ZVFHMIN-NEXT:    vsetvli zero, a0, e32, mf2, ta, ma
101 ; ZVFHMIN-NEXT:    vfmul.vv v9, v9, v8
102 ; ZVFHMIN-NEXT:    vsetivli zero, 2, e16, mf4, ta, ma
103 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v8, v9
104 ; ZVFHMIN-NEXT:    ret
105   %elt.head = insertelement <2 x half> poison, half %b, i32 0
106   %vb = shufflevector <2 x half> %elt.head, <2 x half> poison, <2 x i32> zeroinitializer
107   %v = call <2 x half> @llvm.vp.fmul.v2f16(<2 x half> %va, <2 x half> %vb, <2 x i1> splat (i1 true), i32 %evl)
108   ret <2 x half> %v
111 declare <3 x half> @llvm.vp.fmul.v3f16(<3 x half>, <3 x half>, <3 x i1>, i32)
113 define <3 x half> @vfmul_vv_v3f16(<3 x half> %va, <3 x half> %b, <3 x i1> %m, i32 zeroext %evl) {
114 ; ZVFH-LABEL: vfmul_vv_v3f16:
115 ; ZVFH:       # %bb.0:
116 ; ZVFH-NEXT:    vsetvli zero, a0, e16, mf2, ta, ma
117 ; ZVFH-NEXT:    vfmul.vv v8, v8, v9, v0.t
118 ; ZVFH-NEXT:    ret
120 ; ZVFHMIN-LABEL: vfmul_vv_v3f16:
121 ; ZVFHMIN:       # %bb.0:
122 ; ZVFHMIN-NEXT:    vsetivli zero, 4, e16, mf2, ta, ma
123 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v10, v9
124 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v9, v8
125 ; ZVFHMIN-NEXT:    vsetvli zero, a0, e32, m1, ta, ma
126 ; ZVFHMIN-NEXT:    vfmul.vv v9, v9, v10, v0.t
127 ; ZVFHMIN-NEXT:    vsetivli zero, 4, e16, mf2, ta, ma
128 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v8, v9
129 ; ZVFHMIN-NEXT:    ret
130   %v = call <3 x half> @llvm.vp.fmul.v3f16(<3 x half> %va, <3 x half> %b, <3 x i1> %m, i32 %evl)
131   ret <3 x half> %v
134 declare <4 x half> @llvm.vp.fmul.v4f16(<4 x half>, <4 x half>, <4 x i1>, i32)
136 define <4 x half> @vfmul_vv_v4f16(<4 x half> %va, <4 x half> %b, <4 x i1> %m, i32 zeroext %evl) {
137 ; ZVFH-LABEL: vfmul_vv_v4f16:
138 ; ZVFH:       # %bb.0:
139 ; ZVFH-NEXT:    vsetvli zero, a0, e16, mf2, ta, ma
140 ; ZVFH-NEXT:    vfmul.vv v8, v8, v9, v0.t
141 ; ZVFH-NEXT:    ret
143 ; ZVFHMIN-LABEL: vfmul_vv_v4f16:
144 ; ZVFHMIN:       # %bb.0:
145 ; ZVFHMIN-NEXT:    vsetivli zero, 4, e16, mf2, ta, ma
146 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v10, v9
147 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v9, v8
148 ; ZVFHMIN-NEXT:    vsetvli zero, a0, e32, m1, ta, ma
149 ; ZVFHMIN-NEXT:    vfmul.vv v9, v9, v10, v0.t
150 ; ZVFHMIN-NEXT:    vsetivli zero, 4, e16, mf2, ta, ma
151 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v8, v9
152 ; ZVFHMIN-NEXT:    ret
153   %v = call <4 x half> @llvm.vp.fmul.v4f16(<4 x half> %va, <4 x half> %b, <4 x i1> %m, i32 %evl)
154   ret <4 x half> %v
157 define <4 x half> @vfmul_vv_v4f16_unmasked(<4 x half> %va, <4 x half> %b, i32 zeroext %evl) {
158 ; ZVFH-LABEL: vfmul_vv_v4f16_unmasked:
159 ; ZVFH:       # %bb.0:
160 ; ZVFH-NEXT:    vsetvli zero, a0, e16, mf2, ta, ma
161 ; ZVFH-NEXT:    vfmul.vv v8, v8, v9
162 ; ZVFH-NEXT:    ret
164 ; ZVFHMIN-LABEL: vfmul_vv_v4f16_unmasked:
165 ; ZVFHMIN:       # %bb.0:
166 ; ZVFHMIN-NEXT:    vsetivli zero, 4, e16, mf2, ta, ma
167 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v10, v9
168 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v9, v8
169 ; ZVFHMIN-NEXT:    vsetvli zero, a0, e32, m1, ta, ma
170 ; ZVFHMIN-NEXT:    vfmul.vv v9, v9, v10
171 ; ZVFHMIN-NEXT:    vsetivli zero, 4, e16, mf2, ta, ma
172 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v8, v9
173 ; ZVFHMIN-NEXT:    ret
174   %v = call <4 x half> @llvm.vp.fmul.v4f16(<4 x half> %va, <4 x half> %b, <4 x i1> splat (i1 true), i32 %evl)
175   ret <4 x half> %v
178 define <4 x half> @vfmul_vf_v4f16(<4 x half> %va, half %b, <4 x i1> %m, i32 zeroext %evl) {
179 ; ZVFH-LABEL: vfmul_vf_v4f16:
180 ; ZVFH:       # %bb.0:
181 ; ZVFH-NEXT:    vsetvli zero, a0, e16, mf2, ta, ma
182 ; ZVFH-NEXT:    vfmul.vf v8, v8, fa0, v0.t
183 ; ZVFH-NEXT:    ret
185 ; ZVFHMIN-LABEL: vfmul_vf_v4f16:
186 ; ZVFHMIN:       # %bb.0:
187 ; ZVFHMIN-NEXT:    fcvt.s.h fa5, fa0
188 ; ZVFHMIN-NEXT:    vsetvli a1, zero, e32, m1, ta, ma
189 ; ZVFHMIN-NEXT:    vfmv.v.f v9, fa5
190 ; ZVFHMIN-NEXT:    vsetvli zero, zero, e16, mf2, ta, ma
191 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v10, v9
192 ; ZVFHMIN-NEXT:    vsetivli zero, 4, e16, mf2, ta, ma
193 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v9, v8
194 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v8, v10
195 ; ZVFHMIN-NEXT:    vsetvli zero, a0, e32, m1, ta, ma
196 ; ZVFHMIN-NEXT:    vfmul.vv v9, v9, v8, v0.t
197 ; ZVFHMIN-NEXT:    vsetivli zero, 4, e16, mf2, ta, ma
198 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v8, v9
199 ; ZVFHMIN-NEXT:    ret
200   %elt.head = insertelement <4 x half> poison, half %b, i32 0
201   %vb = shufflevector <4 x half> %elt.head, <4 x half> poison, <4 x i32> zeroinitializer
202   %v = call <4 x half> @llvm.vp.fmul.v4f16(<4 x half> %va, <4 x half> %vb, <4 x i1> %m, i32 %evl)
203   ret <4 x half> %v
206 define <4 x half> @vfmul_vf_v4f16_unmasked(<4 x half> %va, half %b, i32 zeroext %evl) {
207 ; ZVFH-LABEL: vfmul_vf_v4f16_unmasked:
208 ; ZVFH:       # %bb.0:
209 ; ZVFH-NEXT:    vsetvli zero, a0, e16, mf2, ta, ma
210 ; ZVFH-NEXT:    vfmul.vf v8, v8, fa0
211 ; ZVFH-NEXT:    ret
213 ; ZVFHMIN-LABEL: vfmul_vf_v4f16_unmasked:
214 ; ZVFHMIN:       # %bb.0:
215 ; ZVFHMIN-NEXT:    fcvt.s.h fa5, fa0
216 ; ZVFHMIN-NEXT:    vsetvli a1, zero, e32, m1, ta, ma
217 ; ZVFHMIN-NEXT:    vfmv.v.f v9, fa5
218 ; ZVFHMIN-NEXT:    vsetvli zero, zero, e16, mf2, ta, ma
219 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v10, v9
220 ; ZVFHMIN-NEXT:    vsetivli zero, 4, e16, mf2, ta, ma
221 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v9, v8
222 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v8, v10
223 ; ZVFHMIN-NEXT:    vsetvli zero, a0, e32, m1, ta, ma
224 ; ZVFHMIN-NEXT:    vfmul.vv v9, v9, v8
225 ; ZVFHMIN-NEXT:    vsetivli zero, 4, e16, mf2, ta, ma
226 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v8, v9
227 ; ZVFHMIN-NEXT:    ret
228   %elt.head = insertelement <4 x half> poison, half %b, i32 0
229   %vb = shufflevector <4 x half> %elt.head, <4 x half> poison, <4 x i32> zeroinitializer
230   %v = call <4 x half> @llvm.vp.fmul.v4f16(<4 x half> %va, <4 x half> %vb, <4 x i1> splat (i1 true), i32 %evl)
231   ret <4 x half> %v
234 declare <8 x half> @llvm.vp.fmul.v8f16(<8 x half>, <8 x half>, <8 x i1>, i32)
236 define <8 x half> @vfmul_vv_v8f16(<8 x half> %va, <8 x half> %b, <8 x i1> %m, i32 zeroext %evl) {
237 ; ZVFH-LABEL: vfmul_vv_v8f16:
238 ; ZVFH:       # %bb.0:
239 ; ZVFH-NEXT:    vsetvli zero, a0, e16, m1, ta, ma
240 ; ZVFH-NEXT:    vfmul.vv v8, v8, v9, v0.t
241 ; ZVFH-NEXT:    ret
243 ; ZVFHMIN-LABEL: vfmul_vv_v8f16:
244 ; ZVFHMIN:       # %bb.0:
245 ; ZVFHMIN-NEXT:    vsetivli zero, 8, e16, m1, ta, ma
246 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v10, v9
247 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v12, v8
248 ; ZVFHMIN-NEXT:    vsetvli zero, a0, e32, m2, ta, ma
249 ; ZVFHMIN-NEXT:    vfmul.vv v10, v12, v10, v0.t
250 ; ZVFHMIN-NEXT:    vsetivli zero, 8, e16, m1, ta, ma
251 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v8, v10
252 ; ZVFHMIN-NEXT:    ret
253   %v = call <8 x half> @llvm.vp.fmul.v8f16(<8 x half> %va, <8 x half> %b, <8 x i1> %m, i32 %evl)
254   ret <8 x half> %v
257 define <8 x half> @vfmul_vv_v8f16_unmasked(<8 x half> %va, <8 x half> %b, i32 zeroext %evl) {
258 ; ZVFH-LABEL: vfmul_vv_v8f16_unmasked:
259 ; ZVFH:       # %bb.0:
260 ; ZVFH-NEXT:    vsetvli zero, a0, e16, m1, ta, ma
261 ; ZVFH-NEXT:    vfmul.vv v8, v8, v9
262 ; ZVFH-NEXT:    ret
264 ; ZVFHMIN-LABEL: vfmul_vv_v8f16_unmasked:
265 ; ZVFHMIN:       # %bb.0:
266 ; ZVFHMIN-NEXT:    vsetivli zero, 8, e16, m1, ta, ma
267 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v10, v9
268 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v12, v8
269 ; ZVFHMIN-NEXT:    vsetvli zero, a0, e32, m2, ta, ma
270 ; ZVFHMIN-NEXT:    vfmul.vv v10, v12, v10
271 ; ZVFHMIN-NEXT:    vsetivli zero, 8, e16, m1, ta, ma
272 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v8, v10
273 ; ZVFHMIN-NEXT:    ret
274   %v = call <8 x half> @llvm.vp.fmul.v8f16(<8 x half> %va, <8 x half> %b, <8 x i1> splat (i1 true), i32 %evl)
275   ret <8 x half> %v
278 define <8 x half> @vfmul_vf_v8f16(<8 x half> %va, half %b, <8 x i1> %m, i32 zeroext %evl) {
279 ; ZVFH-LABEL: vfmul_vf_v8f16:
280 ; ZVFH:       # %bb.0:
281 ; ZVFH-NEXT:    vsetvli zero, a0, e16, m1, ta, ma
282 ; ZVFH-NEXT:    vfmul.vf v8, v8, fa0, v0.t
283 ; ZVFH-NEXT:    ret
285 ; ZVFHMIN-LABEL: vfmul_vf_v8f16:
286 ; ZVFHMIN:       # %bb.0:
287 ; ZVFHMIN-NEXT:    fcvt.s.h fa5, fa0
288 ; ZVFHMIN-NEXT:    vsetvli a1, zero, e32, m2, ta, ma
289 ; ZVFHMIN-NEXT:    vfmv.v.f v10, fa5
290 ; ZVFHMIN-NEXT:    vsetvli zero, zero, e16, m1, ta, ma
291 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v9, v10
292 ; ZVFHMIN-NEXT:    vsetivli zero, 8, e16, m1, ta, ma
293 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v10, v8
294 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v12, v9
295 ; ZVFHMIN-NEXT:    vsetvli zero, a0, e32, m2, ta, ma
296 ; ZVFHMIN-NEXT:    vfmul.vv v10, v10, v12, v0.t
297 ; ZVFHMIN-NEXT:    vsetivli zero, 8, e16, m1, ta, ma
298 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v8, v10
299 ; ZVFHMIN-NEXT:    ret
300   %elt.head = insertelement <8 x half> poison, half %b, i32 0
301   %vb = shufflevector <8 x half> %elt.head, <8 x half> poison, <8 x i32> zeroinitializer
302   %v = call <8 x half> @llvm.vp.fmul.v8f16(<8 x half> %va, <8 x half> %vb, <8 x i1> %m, i32 %evl)
303   ret <8 x half> %v
306 define <8 x half> @vfmul_vf_v8f16_unmasked(<8 x half> %va, half %b, i32 zeroext %evl) {
307 ; ZVFH-LABEL: vfmul_vf_v8f16_unmasked:
308 ; ZVFH:       # %bb.0:
309 ; ZVFH-NEXT:    vsetvli zero, a0, e16, m1, ta, ma
310 ; ZVFH-NEXT:    vfmul.vf v8, v8, fa0
311 ; ZVFH-NEXT:    ret
313 ; ZVFHMIN-LABEL: vfmul_vf_v8f16_unmasked:
314 ; ZVFHMIN:       # %bb.0:
315 ; ZVFHMIN-NEXT:    fcvt.s.h fa5, fa0
316 ; ZVFHMIN-NEXT:    vsetvli a1, zero, e32, m2, ta, ma
317 ; ZVFHMIN-NEXT:    vfmv.v.f v10, fa5
318 ; ZVFHMIN-NEXT:    vsetvli zero, zero, e16, m1, ta, ma
319 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v9, v10
320 ; ZVFHMIN-NEXT:    vsetivli zero, 8, e16, m1, ta, ma
321 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v10, v8
322 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v12, v9
323 ; ZVFHMIN-NEXT:    vsetvli zero, a0, e32, m2, ta, ma
324 ; ZVFHMIN-NEXT:    vfmul.vv v10, v10, v12
325 ; ZVFHMIN-NEXT:    vsetivli zero, 8, e16, m1, ta, ma
326 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v8, v10
327 ; ZVFHMIN-NEXT:    ret
328   %elt.head = insertelement <8 x half> poison, half %b, i32 0
329   %vb = shufflevector <8 x half> %elt.head, <8 x half> poison, <8 x i32> zeroinitializer
330   %v = call <8 x half> @llvm.vp.fmul.v8f16(<8 x half> %va, <8 x half> %vb, <8 x i1> splat (i1 true), i32 %evl)
331   ret <8 x half> %v
334 declare <16 x half> @llvm.vp.fmul.v16f16(<16 x half>, <16 x half>, <16 x i1>, i32)
336 define <16 x half> @vfmul_vv_v16f16(<16 x half> %va, <16 x half> %b, <16 x i1> %m, i32 zeroext %evl) {
337 ; ZVFH-LABEL: vfmul_vv_v16f16:
338 ; ZVFH:       # %bb.0:
339 ; ZVFH-NEXT:    vsetvli zero, a0, e16, m2, ta, ma
340 ; ZVFH-NEXT:    vfmul.vv v8, v8, v10, v0.t
341 ; ZVFH-NEXT:    ret
343 ; ZVFHMIN-LABEL: vfmul_vv_v16f16:
344 ; ZVFHMIN:       # %bb.0:
345 ; ZVFHMIN-NEXT:    vsetivli zero, 16, e16, m2, ta, ma
346 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v12, v10
347 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v16, v8
348 ; ZVFHMIN-NEXT:    vsetvli zero, a0, e32, m4, ta, ma
349 ; ZVFHMIN-NEXT:    vfmul.vv v12, v16, v12, v0.t
350 ; ZVFHMIN-NEXT:    vsetivli zero, 16, e16, m2, ta, ma
351 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v8, v12
352 ; ZVFHMIN-NEXT:    ret
353   %v = call <16 x half> @llvm.vp.fmul.v16f16(<16 x half> %va, <16 x half> %b, <16 x i1> %m, i32 %evl)
354   ret <16 x half> %v
357 define <16 x half> @vfmul_vv_v16f16_unmasked(<16 x half> %va, <16 x half> %b, i32 zeroext %evl) {
358 ; ZVFH-LABEL: vfmul_vv_v16f16_unmasked:
359 ; ZVFH:       # %bb.0:
360 ; ZVFH-NEXT:    vsetvli zero, a0, e16, m2, ta, ma
361 ; ZVFH-NEXT:    vfmul.vv v8, v8, v10
362 ; ZVFH-NEXT:    ret
364 ; ZVFHMIN-LABEL: vfmul_vv_v16f16_unmasked:
365 ; ZVFHMIN:       # %bb.0:
366 ; ZVFHMIN-NEXT:    vsetivli zero, 16, e16, m2, ta, ma
367 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v12, v10
368 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v16, v8
369 ; ZVFHMIN-NEXT:    vsetvli zero, a0, e32, m4, ta, ma
370 ; ZVFHMIN-NEXT:    vfmul.vv v12, v16, v12
371 ; ZVFHMIN-NEXT:    vsetivli zero, 16, e16, m2, ta, ma
372 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v8, v12
373 ; ZVFHMIN-NEXT:    ret
374   %v = call <16 x half> @llvm.vp.fmul.v16f16(<16 x half> %va, <16 x half> %b, <16 x i1> splat (i1 true), i32 %evl)
375   ret <16 x half> %v
378 define <16 x half> @vfmul_vf_v16f16(<16 x half> %va, half %b, <16 x i1> %m, i32 zeroext %evl) {
379 ; ZVFH-LABEL: vfmul_vf_v16f16:
380 ; ZVFH:       # %bb.0:
381 ; ZVFH-NEXT:    vsetvli zero, a0, e16, m2, ta, ma
382 ; ZVFH-NEXT:    vfmul.vf v8, v8, fa0, v0.t
383 ; ZVFH-NEXT:    ret
385 ; ZVFHMIN-LABEL: vfmul_vf_v16f16:
386 ; ZVFHMIN:       # %bb.0:
387 ; ZVFHMIN-NEXT:    fcvt.s.h fa5, fa0
388 ; ZVFHMIN-NEXT:    vsetvli a1, zero, e32, m4, ta, ma
389 ; ZVFHMIN-NEXT:    vfmv.v.f v12, fa5
390 ; ZVFHMIN-NEXT:    vsetvli zero, zero, e16, m2, ta, ma
391 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v10, v12
392 ; ZVFHMIN-NEXT:    vsetivli zero, 16, e16, m2, ta, ma
393 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v12, v8
394 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v16, v10
395 ; ZVFHMIN-NEXT:    vsetvli zero, a0, e32, m4, ta, ma
396 ; ZVFHMIN-NEXT:    vfmul.vv v12, v12, v16, v0.t
397 ; ZVFHMIN-NEXT:    vsetivli zero, 16, e16, m2, ta, ma
398 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v8, v12
399 ; ZVFHMIN-NEXT:    ret
400   %elt.head = insertelement <16 x half> poison, half %b, i32 0
401   %vb = shufflevector <16 x half> %elt.head, <16 x half> poison, <16 x i32> zeroinitializer
402   %v = call <16 x half> @llvm.vp.fmul.v16f16(<16 x half> %va, <16 x half> %vb, <16 x i1> %m, i32 %evl)
403   ret <16 x half> %v
406 define <16 x half> @vfmul_vf_v16f16_unmasked(<16 x half> %va, half %b, i32 zeroext %evl) {
407 ; ZVFH-LABEL: vfmul_vf_v16f16_unmasked:
408 ; ZVFH:       # %bb.0:
409 ; ZVFH-NEXT:    vsetvli zero, a0, e16, m2, ta, ma
410 ; ZVFH-NEXT:    vfmul.vf v8, v8, fa0
411 ; ZVFH-NEXT:    ret
413 ; ZVFHMIN-LABEL: vfmul_vf_v16f16_unmasked:
414 ; ZVFHMIN:       # %bb.0:
415 ; ZVFHMIN-NEXT:    fcvt.s.h fa5, fa0
416 ; ZVFHMIN-NEXT:    vsetvli a1, zero, e32, m4, ta, ma
417 ; ZVFHMIN-NEXT:    vfmv.v.f v12, fa5
418 ; ZVFHMIN-NEXT:    vsetvli zero, zero, e16, m2, ta, ma
419 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v10, v12
420 ; ZVFHMIN-NEXT:    vsetivli zero, 16, e16, m2, ta, ma
421 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v12, v8
422 ; ZVFHMIN-NEXT:    vfwcvt.f.f.v v16, v10
423 ; ZVFHMIN-NEXT:    vsetvli zero, a0, e32, m4, ta, ma
424 ; ZVFHMIN-NEXT:    vfmul.vv v12, v12, v16
425 ; ZVFHMIN-NEXT:    vsetivli zero, 16, e16, m2, ta, ma
426 ; ZVFHMIN-NEXT:    vfncvt.f.f.w v8, v12
427 ; ZVFHMIN-NEXT:    ret
428   %elt.head = insertelement <16 x half> poison, half %b, i32 0
429   %vb = shufflevector <16 x half> %elt.head, <16 x half> poison, <16 x i32> zeroinitializer
430   %v = call <16 x half> @llvm.vp.fmul.v16f16(<16 x half> %va, <16 x half> %vb, <16 x i1> splat (i1 true), i32 %evl)
431   ret <16 x half> %v
434 declare <2 x float> @llvm.vp.fmul.v2f32(<2 x float>, <2 x float>, <2 x i1>, i32)
436 define <2 x float> @vfmul_vv_v2f32(<2 x float> %va, <2 x float> %b, <2 x i1> %m, i32 zeroext %evl) {
437 ; CHECK-LABEL: vfmul_vv_v2f32:
438 ; CHECK:       # %bb.0:
439 ; CHECK-NEXT:    vsetvli zero, a0, e32, mf2, ta, ma
440 ; CHECK-NEXT:    vfmul.vv v8, v8, v9, v0.t
441 ; CHECK-NEXT:    ret
442   %v = call <2 x float> @llvm.vp.fmul.v2f32(<2 x float> %va, <2 x float> %b, <2 x i1> %m, i32 %evl)
443   ret <2 x float> %v
446 define <2 x float> @vfmul_vv_v2f32_unmasked(<2 x float> %va, <2 x float> %b, i32 zeroext %evl) {
447 ; CHECK-LABEL: vfmul_vv_v2f32_unmasked:
448 ; CHECK:       # %bb.0:
449 ; CHECK-NEXT:    vsetvli zero, a0, e32, mf2, ta, ma
450 ; CHECK-NEXT:    vfmul.vv v8, v8, v9
451 ; CHECK-NEXT:    ret
452   %v = call <2 x float> @llvm.vp.fmul.v2f32(<2 x float> %va, <2 x float> %b, <2 x i1> splat (i1 true), i32 %evl)
453   ret <2 x float> %v
456 define <2 x float> @vfmul_vf_v2f32(<2 x float> %va, float %b, <2 x i1> %m, i32 zeroext %evl) {
457 ; CHECK-LABEL: vfmul_vf_v2f32:
458 ; CHECK:       # %bb.0:
459 ; CHECK-NEXT:    vsetvli zero, a0, e32, mf2, ta, ma
460 ; CHECK-NEXT:    vfmul.vf v8, v8, fa0, v0.t
461 ; CHECK-NEXT:    ret
462   %elt.head = insertelement <2 x float> poison, float %b, i32 0
463   %vb = shufflevector <2 x float> %elt.head, <2 x float> poison, <2 x i32> zeroinitializer
464   %v = call <2 x float> @llvm.vp.fmul.v2f32(<2 x float> %va, <2 x float> %vb, <2 x i1> %m, i32 %evl)
465   ret <2 x float> %v
468 define <2 x float> @vfmul_vf_v2f32_unmasked(<2 x float> %va, float %b, i32 zeroext %evl) {
469 ; CHECK-LABEL: vfmul_vf_v2f32_unmasked:
470 ; CHECK:       # %bb.0:
471 ; CHECK-NEXT:    vsetvli zero, a0, e32, mf2, ta, ma
472 ; CHECK-NEXT:    vfmul.vf v8, v8, fa0
473 ; CHECK-NEXT:    ret
474   %elt.head = insertelement <2 x float> poison, float %b, i32 0
475   %vb = shufflevector <2 x float> %elt.head, <2 x float> poison, <2 x i32> zeroinitializer
476   %v = call <2 x float> @llvm.vp.fmul.v2f32(<2 x float> %va, <2 x float> %vb, <2 x i1> splat (i1 true), i32 %evl)
477   ret <2 x float> %v
480 declare <4 x float> @llvm.vp.fmul.v4f32(<4 x float>, <4 x float>, <4 x i1>, i32)
482 define <4 x float> @vfmul_vv_v4f32(<4 x float> %va, <4 x float> %b, <4 x i1> %m, i32 zeroext %evl) {
483 ; CHECK-LABEL: vfmul_vv_v4f32:
484 ; CHECK:       # %bb.0:
485 ; CHECK-NEXT:    vsetvli zero, a0, e32, m1, ta, ma
486 ; CHECK-NEXT:    vfmul.vv v8, v8, v9, v0.t
487 ; CHECK-NEXT:    ret
488   %v = call <4 x float> @llvm.vp.fmul.v4f32(<4 x float> %va, <4 x float> %b, <4 x i1> %m, i32 %evl)
489   ret <4 x float> %v
492 define <4 x float> @vfmul_vv_v4f32_unmasked(<4 x float> %va, <4 x float> %b, i32 zeroext %evl) {
493 ; CHECK-LABEL: vfmul_vv_v4f32_unmasked:
494 ; CHECK:       # %bb.0:
495 ; CHECK-NEXT:    vsetvli zero, a0, e32, m1, ta, ma
496 ; CHECK-NEXT:    vfmul.vv v8, v8, v9
497 ; CHECK-NEXT:    ret
498   %v = call <4 x float> @llvm.vp.fmul.v4f32(<4 x float> %va, <4 x float> %b, <4 x i1> splat (i1 true), i32 %evl)
499   ret <4 x float> %v
502 define <4 x float> @vfmul_vf_v4f32(<4 x float> %va, float %b, <4 x i1> %m, i32 zeroext %evl) {
503 ; CHECK-LABEL: vfmul_vf_v4f32:
504 ; CHECK:       # %bb.0:
505 ; CHECK-NEXT:    vsetvli zero, a0, e32, m1, ta, ma
506 ; CHECK-NEXT:    vfmul.vf v8, v8, fa0, v0.t
507 ; CHECK-NEXT:    ret
508   %elt.head = insertelement <4 x float> poison, float %b, i32 0
509   %vb = shufflevector <4 x float> %elt.head, <4 x float> poison, <4 x i32> zeroinitializer
510   %v = call <4 x float> @llvm.vp.fmul.v4f32(<4 x float> %va, <4 x float> %vb, <4 x i1> %m, i32 %evl)
511   ret <4 x float> %v
514 define <4 x float> @vfmul_vf_v4f32_unmasked(<4 x float> %va, float %b, i32 zeroext %evl) {
515 ; CHECK-LABEL: vfmul_vf_v4f32_unmasked:
516 ; CHECK:       # %bb.0:
517 ; CHECK-NEXT:    vsetvli zero, a0, e32, m1, ta, ma
518 ; CHECK-NEXT:    vfmul.vf v8, v8, fa0
519 ; CHECK-NEXT:    ret
520   %elt.head = insertelement <4 x float> poison, float %b, i32 0
521   %vb = shufflevector <4 x float> %elt.head, <4 x float> poison, <4 x i32> zeroinitializer
522   %v = call <4 x float> @llvm.vp.fmul.v4f32(<4 x float> %va, <4 x float> %vb, <4 x i1> splat (i1 true), i32 %evl)
523   ret <4 x float> %v
526 declare <8 x float> @llvm.vp.fmul.v8f32(<8 x float>, <8 x float>, <8 x i1>, i32)
528 define <8 x float> @vfmul_vv_v8f32(<8 x float> %va, <8 x float> %b, <8 x i1> %m, i32 zeroext %evl) {
529 ; CHECK-LABEL: vfmul_vv_v8f32:
530 ; CHECK:       # %bb.0:
531 ; CHECK-NEXT:    vsetvli zero, a0, e32, m2, ta, ma
532 ; CHECK-NEXT:    vfmul.vv v8, v8, v10, v0.t
533 ; CHECK-NEXT:    ret
534   %v = call <8 x float> @llvm.vp.fmul.v8f32(<8 x float> %va, <8 x float> %b, <8 x i1> %m, i32 %evl)
535   ret <8 x float> %v
538 define <8 x float> @vfmul_vv_v8f32_unmasked(<8 x float> %va, <8 x float> %b, i32 zeroext %evl) {
539 ; CHECK-LABEL: vfmul_vv_v8f32_unmasked:
540 ; CHECK:       # %bb.0:
541 ; CHECK-NEXT:    vsetvli zero, a0, e32, m2, ta, ma
542 ; CHECK-NEXT:    vfmul.vv v8, v8, v10
543 ; CHECK-NEXT:    ret
544   %v = call <8 x float> @llvm.vp.fmul.v8f32(<8 x float> %va, <8 x float> %b, <8 x i1> splat (i1 true), i32 %evl)
545   ret <8 x float> %v
548 define <8 x float> @vfmul_vf_v8f32(<8 x float> %va, float %b, <8 x i1> %m, i32 zeroext %evl) {
549 ; CHECK-LABEL: vfmul_vf_v8f32:
550 ; CHECK:       # %bb.0:
551 ; CHECK-NEXT:    vsetvli zero, a0, e32, m2, ta, ma
552 ; CHECK-NEXT:    vfmul.vf v8, v8, fa0, v0.t
553 ; CHECK-NEXT:    ret
554   %elt.head = insertelement <8 x float> poison, float %b, i32 0
555   %vb = shufflevector <8 x float> %elt.head, <8 x float> poison, <8 x i32> zeroinitializer
556   %v = call <8 x float> @llvm.vp.fmul.v8f32(<8 x float> %va, <8 x float> %vb, <8 x i1> %m, i32 %evl)
557   ret <8 x float> %v
560 define <8 x float> @vfmul_vf_v8f32_unmasked(<8 x float> %va, float %b, i32 zeroext %evl) {
561 ; CHECK-LABEL: vfmul_vf_v8f32_unmasked:
562 ; CHECK:       # %bb.0:
563 ; CHECK-NEXT:    vsetvli zero, a0, e32, m2, ta, ma
564 ; CHECK-NEXT:    vfmul.vf v8, v8, fa0
565 ; CHECK-NEXT:    ret
566   %elt.head = insertelement <8 x float> poison, float %b, i32 0
567   %vb = shufflevector <8 x float> %elt.head, <8 x float> poison, <8 x i32> zeroinitializer
568   %v = call <8 x float> @llvm.vp.fmul.v8f32(<8 x float> %va, <8 x float> %vb, <8 x i1> splat (i1 true), i32 %evl)
569   ret <8 x float> %v
572 declare <16 x float> @llvm.vp.fmul.v16f32(<16 x float>, <16 x float>, <16 x i1>, i32)
574 define <16 x float> @vfmul_vv_v16f32(<16 x float> %va, <16 x float> %b, <16 x i1> %m, i32 zeroext %evl) {
575 ; CHECK-LABEL: vfmul_vv_v16f32:
576 ; CHECK:       # %bb.0:
577 ; CHECK-NEXT:    vsetvli zero, a0, e32, m4, ta, ma
578 ; CHECK-NEXT:    vfmul.vv v8, v8, v12, v0.t
579 ; CHECK-NEXT:    ret
580   %v = call <16 x float> @llvm.vp.fmul.v16f32(<16 x float> %va, <16 x float> %b, <16 x i1> %m, i32 %evl)
581   ret <16 x float> %v
584 define <16 x float> @vfmul_vv_v16f32_unmasked(<16 x float> %va, <16 x float> %b, i32 zeroext %evl) {
585 ; CHECK-LABEL: vfmul_vv_v16f32_unmasked:
586 ; CHECK:       # %bb.0:
587 ; CHECK-NEXT:    vsetvli zero, a0, e32, m4, ta, ma
588 ; CHECK-NEXT:    vfmul.vv v8, v8, v12
589 ; CHECK-NEXT:    ret
590   %v = call <16 x float> @llvm.vp.fmul.v16f32(<16 x float> %va, <16 x float> %b, <16 x i1> splat (i1 true), i32 %evl)
591   ret <16 x float> %v
594 define <16 x float> @vfmul_vf_v16f32(<16 x float> %va, float %b, <16 x i1> %m, i32 zeroext %evl) {
595 ; CHECK-LABEL: vfmul_vf_v16f32:
596 ; CHECK:       # %bb.0:
597 ; CHECK-NEXT:    vsetvli zero, a0, e32, m4, ta, ma
598 ; CHECK-NEXT:    vfmul.vf v8, v8, fa0, v0.t
599 ; CHECK-NEXT:    ret
600   %elt.head = insertelement <16 x float> poison, float %b, i32 0
601   %vb = shufflevector <16 x float> %elt.head, <16 x float> poison, <16 x i32> zeroinitializer
602   %v = call <16 x float> @llvm.vp.fmul.v16f32(<16 x float> %va, <16 x float> %vb, <16 x i1> %m, i32 %evl)
603   ret <16 x float> %v
606 define <16 x float> @vfmul_vf_v16f32_unmasked(<16 x float> %va, float %b, i32 zeroext %evl) {
607 ; CHECK-LABEL: vfmul_vf_v16f32_unmasked:
608 ; CHECK:       # %bb.0:
609 ; CHECK-NEXT:    vsetvli zero, a0, e32, m4, ta, ma
610 ; CHECK-NEXT:    vfmul.vf v8, v8, fa0
611 ; CHECK-NEXT:    ret
612   %elt.head = insertelement <16 x float> poison, float %b, i32 0
613   %vb = shufflevector <16 x float> %elt.head, <16 x float> poison, <16 x i32> zeroinitializer
614   %v = call <16 x float> @llvm.vp.fmul.v16f32(<16 x float> %va, <16 x float> %vb, <16 x i1> splat (i1 true), i32 %evl)
615   ret <16 x float> %v
618 declare <2 x double> @llvm.vp.fmul.v2f64(<2 x double>, <2 x double>, <2 x i1>, i32)
620 define <2 x double> @vfmul_vv_v2f64(<2 x double> %va, <2 x double> %b, <2 x i1> %m, i32 zeroext %evl) {
621 ; CHECK-LABEL: vfmul_vv_v2f64:
622 ; CHECK:       # %bb.0:
623 ; CHECK-NEXT:    vsetvli zero, a0, e64, m1, ta, ma
624 ; CHECK-NEXT:    vfmul.vv v8, v8, v9, v0.t
625 ; CHECK-NEXT:    ret
626   %v = call <2 x double> @llvm.vp.fmul.v2f64(<2 x double> %va, <2 x double> %b, <2 x i1> %m, i32 %evl)
627   ret <2 x double> %v
630 define <2 x double> @vfmul_vv_v2f64_unmasked(<2 x double> %va, <2 x double> %b, i32 zeroext %evl) {
631 ; CHECK-LABEL: vfmul_vv_v2f64_unmasked:
632 ; CHECK:       # %bb.0:
633 ; CHECK-NEXT:    vsetvli zero, a0, e64, m1, ta, ma
634 ; CHECK-NEXT:    vfmul.vv v8, v8, v9
635 ; CHECK-NEXT:    ret
636   %v = call <2 x double> @llvm.vp.fmul.v2f64(<2 x double> %va, <2 x double> %b, <2 x i1> splat (i1 true), i32 %evl)
637   ret <2 x double> %v
640 define <2 x double> @vfmul_vf_v2f64(<2 x double> %va, double %b, <2 x i1> %m, i32 zeroext %evl) {
641 ; CHECK-LABEL: vfmul_vf_v2f64:
642 ; CHECK:       # %bb.0:
643 ; CHECK-NEXT:    vsetvli zero, a0, e64, m1, ta, ma
644 ; CHECK-NEXT:    vfmul.vf v8, v8, fa0, v0.t
645 ; CHECK-NEXT:    ret
646   %elt.head = insertelement <2 x double> poison, double %b, i32 0
647   %vb = shufflevector <2 x double> %elt.head, <2 x double> poison, <2 x i32> zeroinitializer
648   %v = call <2 x double> @llvm.vp.fmul.v2f64(<2 x double> %va, <2 x double> %vb, <2 x i1> %m, i32 %evl)
649   ret <2 x double> %v
652 define <2 x double> @vfmul_vf_v2f64_unmasked(<2 x double> %va, double %b, i32 zeroext %evl) {
653 ; CHECK-LABEL: vfmul_vf_v2f64_unmasked:
654 ; CHECK:       # %bb.0:
655 ; CHECK-NEXT:    vsetvli zero, a0, e64, m1, ta, ma
656 ; CHECK-NEXT:    vfmul.vf v8, v8, fa0
657 ; CHECK-NEXT:    ret
658   %elt.head = insertelement <2 x double> poison, double %b, i32 0
659   %vb = shufflevector <2 x double> %elt.head, <2 x double> poison, <2 x i32> zeroinitializer
660   %v = call <2 x double> @llvm.vp.fmul.v2f64(<2 x double> %va, <2 x double> %vb, <2 x i1> splat (i1 true), i32 %evl)
661   ret <2 x double> %v
664 declare <4 x double> @llvm.vp.fmul.v4f64(<4 x double>, <4 x double>, <4 x i1>, i32)
666 define <4 x double> @vfmul_vv_v4f64(<4 x double> %va, <4 x double> %b, <4 x i1> %m, i32 zeroext %evl) {
667 ; CHECK-LABEL: vfmul_vv_v4f64:
668 ; CHECK:       # %bb.0:
669 ; CHECK-NEXT:    vsetvli zero, a0, e64, m2, ta, ma
670 ; CHECK-NEXT:    vfmul.vv v8, v8, v10, v0.t
671 ; CHECK-NEXT:    ret
672   %v = call <4 x double> @llvm.vp.fmul.v4f64(<4 x double> %va, <4 x double> %b, <4 x i1> %m, i32 %evl)
673   ret <4 x double> %v
676 define <4 x double> @vfmul_vv_v4f64_unmasked(<4 x double> %va, <4 x double> %b, i32 zeroext %evl) {
677 ; CHECK-LABEL: vfmul_vv_v4f64_unmasked:
678 ; CHECK:       # %bb.0:
679 ; CHECK-NEXT:    vsetvli zero, a0, e64, m2, ta, ma
680 ; CHECK-NEXT:    vfmul.vv v8, v8, v10
681 ; CHECK-NEXT:    ret
682   %v = call <4 x double> @llvm.vp.fmul.v4f64(<4 x double> %va, <4 x double> %b, <4 x i1> splat (i1 true), i32 %evl)
683   ret <4 x double> %v
686 define <4 x double> @vfmul_vf_v4f64(<4 x double> %va, double %b, <4 x i1> %m, i32 zeroext %evl) {
687 ; CHECK-LABEL: vfmul_vf_v4f64:
688 ; CHECK:       # %bb.0:
689 ; CHECK-NEXT:    vsetvli zero, a0, e64, m2, ta, ma
690 ; CHECK-NEXT:    vfmul.vf v8, v8, fa0, v0.t
691 ; CHECK-NEXT:    ret
692   %elt.head = insertelement <4 x double> poison, double %b, i32 0
693   %vb = shufflevector <4 x double> %elt.head, <4 x double> poison, <4 x i32> zeroinitializer
694   %v = call <4 x double> @llvm.vp.fmul.v4f64(<4 x double> %va, <4 x double> %vb, <4 x i1> %m, i32 %evl)
695   ret <4 x double> %v
698 define <4 x double> @vfmul_vf_v4f64_unmasked(<4 x double> %va, double %b, i32 zeroext %evl) {
699 ; CHECK-LABEL: vfmul_vf_v4f64_unmasked:
700 ; CHECK:       # %bb.0:
701 ; CHECK-NEXT:    vsetvli zero, a0, e64, m2, ta, ma
702 ; CHECK-NEXT:    vfmul.vf v8, v8, fa0
703 ; CHECK-NEXT:    ret
704   %elt.head = insertelement <4 x double> poison, double %b, i32 0
705   %vb = shufflevector <4 x double> %elt.head, <4 x double> poison, <4 x i32> zeroinitializer
706   %v = call <4 x double> @llvm.vp.fmul.v4f64(<4 x double> %va, <4 x double> %vb, <4 x i1> splat (i1 true), i32 %evl)
707   ret <4 x double> %v
710 declare <8 x double> @llvm.vp.fmul.v8f64(<8 x double>, <8 x double>, <8 x i1>, i32)
712 define <8 x double> @vfmul_vv_v8f64(<8 x double> %va, <8 x double> %b, <8 x i1> %m, i32 zeroext %evl) {
713 ; CHECK-LABEL: vfmul_vv_v8f64:
714 ; CHECK:       # %bb.0:
715 ; CHECK-NEXT:    vsetvli zero, a0, e64, m4, ta, ma
716 ; CHECK-NEXT:    vfmul.vv v8, v8, v12, v0.t
717 ; CHECK-NEXT:    ret
718   %v = call <8 x double> @llvm.vp.fmul.v8f64(<8 x double> %va, <8 x double> %b, <8 x i1> %m, i32 %evl)
719   ret <8 x double> %v
722 define <8 x double> @vfmul_vv_v8f64_unmasked(<8 x double> %va, <8 x double> %b, i32 zeroext %evl) {
723 ; CHECK-LABEL: vfmul_vv_v8f64_unmasked:
724 ; CHECK:       # %bb.0:
725 ; CHECK-NEXT:    vsetvli zero, a0, e64, m4, ta, ma
726 ; CHECK-NEXT:    vfmul.vv v8, v8, v12
727 ; CHECK-NEXT:    ret
728   %v = call <8 x double> @llvm.vp.fmul.v8f64(<8 x double> %va, <8 x double> %b, <8 x i1> splat (i1 true), i32 %evl)
729   ret <8 x double> %v
732 define <8 x double> @vfmul_vf_v8f64(<8 x double> %va, double %b, <8 x i1> %m, i32 zeroext %evl) {
733 ; CHECK-LABEL: vfmul_vf_v8f64:
734 ; CHECK:       # %bb.0:
735 ; CHECK-NEXT:    vsetvli zero, a0, e64, m4, ta, ma
736 ; CHECK-NEXT:    vfmul.vf v8, v8, fa0, v0.t
737 ; CHECK-NEXT:    ret
738   %elt.head = insertelement <8 x double> poison, double %b, i32 0
739   %vb = shufflevector <8 x double> %elt.head, <8 x double> poison, <8 x i32> zeroinitializer
740   %v = call <8 x double> @llvm.vp.fmul.v8f64(<8 x double> %va, <8 x double> %vb, <8 x i1> %m, i32 %evl)
741   ret <8 x double> %v
744 define <8 x double> @vfmul_vf_v8f64_unmasked(<8 x double> %va, double %b, i32 zeroext %evl) {
745 ; CHECK-LABEL: vfmul_vf_v8f64_unmasked:
746 ; CHECK:       # %bb.0:
747 ; CHECK-NEXT:    vsetvli zero, a0, e64, m4, ta, ma
748 ; CHECK-NEXT:    vfmul.vf v8, v8, fa0
749 ; CHECK-NEXT:    ret
750   %elt.head = insertelement <8 x double> poison, double %b, i32 0
751   %vb = shufflevector <8 x double> %elt.head, <8 x double> poison, <8 x i32> zeroinitializer
752   %v = call <8 x double> @llvm.vp.fmul.v8f64(<8 x double> %va, <8 x double> %vb, <8 x i1> splat (i1 true), i32 %evl)
753   ret <8 x double> %v
756 declare <16 x double> @llvm.vp.fmul.v16f64(<16 x double>, <16 x double>, <16 x i1>, i32)
758 define <16 x double> @vfmul_vv_v16f64(<16 x double> %va, <16 x double> %b, <16 x i1> %m, i32 zeroext %evl) {
759 ; CHECK-LABEL: vfmul_vv_v16f64:
760 ; CHECK:       # %bb.0:
761 ; CHECK-NEXT:    vsetvli zero, a0, e64, m8, ta, ma
762 ; CHECK-NEXT:    vfmul.vv v8, v8, v16, v0.t
763 ; CHECK-NEXT:    ret
764   %v = call <16 x double> @llvm.vp.fmul.v16f64(<16 x double> %va, <16 x double> %b, <16 x i1> %m, i32 %evl)
765   ret <16 x double> %v
768 define <16 x double> @vfmul_vv_v16f64_unmasked(<16 x double> %va, <16 x double> %b, i32 zeroext %evl) {
769 ; CHECK-LABEL: vfmul_vv_v16f64_unmasked:
770 ; CHECK:       # %bb.0:
771 ; CHECK-NEXT:    vsetvli zero, a0, e64, m8, ta, ma
772 ; CHECK-NEXT:    vfmul.vv v8, v8, v16
773 ; CHECK-NEXT:    ret
774   %v = call <16 x double> @llvm.vp.fmul.v16f64(<16 x double> %va, <16 x double> %b, <16 x i1> splat (i1 true), i32 %evl)
775   ret <16 x double> %v
778 define <16 x double> @vfmul_vf_v16f64(<16 x double> %va, double %b, <16 x i1> %m, i32 zeroext %evl) {
779 ; CHECK-LABEL: vfmul_vf_v16f64:
780 ; CHECK:       # %bb.0:
781 ; CHECK-NEXT:    vsetvli zero, a0, e64, m8, ta, ma
782 ; CHECK-NEXT:    vfmul.vf v8, v8, fa0, v0.t
783 ; CHECK-NEXT:    ret
784   %elt.head = insertelement <16 x double> poison, double %b, i32 0
785   %vb = shufflevector <16 x double> %elt.head, <16 x double> poison, <16 x i32> zeroinitializer
786   %v = call <16 x double> @llvm.vp.fmul.v16f64(<16 x double> %va, <16 x double> %vb, <16 x i1> %m, i32 %evl)
787   ret <16 x double> %v
790 define <16 x double> @vfmul_vf_v16f64_unmasked(<16 x double> %va, double %b, i32 zeroext %evl) {
791 ; CHECK-LABEL: vfmul_vf_v16f64_unmasked:
792 ; CHECK:       # %bb.0:
793 ; CHECK-NEXT:    vsetvli zero, a0, e64, m8, ta, ma
794 ; CHECK-NEXT:    vfmul.vf v8, v8, fa0
795 ; CHECK-NEXT:    ret
796   %elt.head = insertelement <16 x double> poison, double %b, i32 0
797   %vb = shufflevector <16 x double> %elt.head, <16 x double> poison, <16 x i32> zeroinitializer
798   %v = call <16 x double> @llvm.vp.fmul.v16f64(<16 x double> %va, <16 x double> %vb, <16 x i1> splat (i1 true), i32 %evl)
799   ret <16 x double> %v