Bump version to 19.1.0-rc3
[llvm-project.git] / llvm / test / CodeGen / LoongArch / lasx / intrinsic-maddw.ll
blob146624a764a22e325ddf13375250fd034422b7ff
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc --mtriple=loongarch64 --mattr=+lasx < %s | FileCheck %s
4 declare <16 x i16> @llvm.loongarch.lasx.xvmaddwev.h.b(<16 x i16>, <32 x i8>, <32 x i8>)
6 define <16 x i16> @lasx_xvmaddwev_h_b(<16 x i16> %va, <32 x i8> %vb, <32 x i8> %vc) nounwind {
7 ; CHECK-LABEL: lasx_xvmaddwev_h_b:
8 ; CHECK:       # %bb.0: # %entry
9 ; CHECK-NEXT:    xvmaddwev.h.b $xr0, $xr1, $xr2
10 ; CHECK-NEXT:    ret
11 entry:
12   %res = call <16 x i16> @llvm.loongarch.lasx.xvmaddwev.h.b(<16 x i16> %va, <32 x i8> %vb, <32 x i8> %vc)
13   ret <16 x i16> %res
16 declare <8 x i32> @llvm.loongarch.lasx.xvmaddwev.w.h(<8 x i32>, <16 x i16>, <16 x i16>)
18 define <8 x i32> @lasx_xvmaddwev_w_h(<8 x i32> %va, <16 x i16> %vb, <16 x i16> %vc) nounwind {
19 ; CHECK-LABEL: lasx_xvmaddwev_w_h:
20 ; CHECK:       # %bb.0: # %entry
21 ; CHECK-NEXT:    xvmaddwev.w.h $xr0, $xr1, $xr2
22 ; CHECK-NEXT:    ret
23 entry:
24   %res = call <8 x i32> @llvm.loongarch.lasx.xvmaddwev.w.h(<8 x i32> %va, <16 x i16> %vb, <16 x i16> %vc)
25   ret <8 x i32> %res
28 declare <4 x i64> @llvm.loongarch.lasx.xvmaddwev.d.w(<4 x i64>, <8 x i32>, <8 x i32>)
30 define <4 x i64> @lasx_xvmaddwev_d_w(<4 x i64> %va, <8 x i32> %vb, <8 x i32> %vc) nounwind {
31 ; CHECK-LABEL: lasx_xvmaddwev_d_w:
32 ; CHECK:       # %bb.0: # %entry
33 ; CHECK-NEXT:    xvmaddwev.d.w $xr0, $xr1, $xr2
34 ; CHECK-NEXT:    ret
35 entry:
36   %res = call <4 x i64> @llvm.loongarch.lasx.xvmaddwev.d.w(<4 x i64> %va, <8 x i32> %vb, <8 x i32> %vc)
37   ret <4 x i64> %res
40 declare <4 x i64> @llvm.loongarch.lasx.xvmaddwev.q.d(<4 x i64>, <4 x i64>, <4 x i64>)
42 define <4 x i64> @lasx_xvmaddwev_q_d(<4 x i64> %va, <4 x i64> %vb, <4 x i64> %vc) nounwind {
43 ; CHECK-LABEL: lasx_xvmaddwev_q_d:
44 ; CHECK:       # %bb.0: # %entry
45 ; CHECK-NEXT:    xvmaddwev.q.d $xr0, $xr1, $xr2
46 ; CHECK-NEXT:    ret
47 entry:
48   %res = call <4 x i64> @llvm.loongarch.lasx.xvmaddwev.q.d(<4 x i64> %va, <4 x i64> %vb, <4 x i64> %vc)
49   ret <4 x i64> %res
52 declare <16 x i16> @llvm.loongarch.lasx.xvmaddwev.h.bu(<16 x i16>, <32 x i8>, <32 x i8>)
54 define <16 x i16> @lasx_xvmaddwev_h_bu(<16 x i16> %va, <32 x i8> %vb, <32 x i8> %vc) nounwind {
55 ; CHECK-LABEL: lasx_xvmaddwev_h_bu:
56 ; CHECK:       # %bb.0: # %entry
57 ; CHECK-NEXT:    xvmaddwev.h.bu $xr0, $xr1, $xr2
58 ; CHECK-NEXT:    ret
59 entry:
60   %res = call <16 x i16> @llvm.loongarch.lasx.xvmaddwev.h.bu(<16 x i16> %va, <32 x i8> %vb, <32 x i8> %vc)
61   ret <16 x i16> %res
64 declare <8 x i32> @llvm.loongarch.lasx.xvmaddwev.w.hu(<8 x i32>, <16 x i16>, <16 x i16>)
66 define <8 x i32> @lasx_xvmaddwev_w_hu(<8 x i32> %va, <16 x i16> %vb, <16 x i16> %vc) nounwind {
67 ; CHECK-LABEL: lasx_xvmaddwev_w_hu:
68 ; CHECK:       # %bb.0: # %entry
69 ; CHECK-NEXT:    xvmaddwev.w.hu $xr0, $xr1, $xr2
70 ; CHECK-NEXT:    ret
71 entry:
72   %res = call <8 x i32> @llvm.loongarch.lasx.xvmaddwev.w.hu(<8 x i32> %va, <16 x i16> %vb, <16 x i16> %vc)
73   ret <8 x i32> %res
76 declare <4 x i64> @llvm.loongarch.lasx.xvmaddwev.d.wu(<4 x i64>, <8 x i32>, <8 x i32>)
78 define <4 x i64> @lasx_xvmaddwev_d_wu(<4 x i64> %va, <8 x i32> %vb, <8 x i32> %vc) nounwind {
79 ; CHECK-LABEL: lasx_xvmaddwev_d_wu:
80 ; CHECK:       # %bb.0: # %entry
81 ; CHECK-NEXT:    xvmaddwev.d.wu $xr0, $xr1, $xr2
82 ; CHECK-NEXT:    ret
83 entry:
84   %res = call <4 x i64> @llvm.loongarch.lasx.xvmaddwev.d.wu(<4 x i64> %va, <8 x i32> %vb, <8 x i32> %vc)
85   ret <4 x i64> %res
88 declare <4 x i64> @llvm.loongarch.lasx.xvmaddwev.q.du(<4 x i64>, <4 x i64>, <4 x i64>)
90 define <4 x i64> @lasx_xvmaddwev_q_du(<4 x i64> %va, <4 x i64> %vb, <4 x i64> %vc) nounwind {
91 ; CHECK-LABEL: lasx_xvmaddwev_q_du:
92 ; CHECK:       # %bb.0: # %entry
93 ; CHECK-NEXT:    xvmaddwev.q.du $xr0, $xr1, $xr2
94 ; CHECK-NEXT:    ret
95 entry:
96   %res = call <4 x i64> @llvm.loongarch.lasx.xvmaddwev.q.du(<4 x i64> %va, <4 x i64> %vb, <4 x i64> %vc)
97   ret <4 x i64> %res
100 declare <16 x i16> @llvm.loongarch.lasx.xvmaddwev.h.bu.b(<16 x i16>, <32 x i8>, <32 x i8>)
102 define <16 x i16> @lasx_xvmaddwev_h_bu_b(<16 x i16> %va, <32 x i8> %vb, <32 x i8> %vc) nounwind {
103 ; CHECK-LABEL: lasx_xvmaddwev_h_bu_b:
104 ; CHECK:       # %bb.0: # %entry
105 ; CHECK-NEXT:    xvmaddwev.h.bu.b $xr0, $xr1, $xr2
106 ; CHECK-NEXT:    ret
107 entry:
108   %res = call <16 x i16> @llvm.loongarch.lasx.xvmaddwev.h.bu.b(<16 x i16> %va, <32 x i8> %vb, <32 x i8> %vc)
109   ret <16 x i16> %res
112 declare <8 x i32> @llvm.loongarch.lasx.xvmaddwev.w.hu.h(<8 x i32>, <16 x i16>, <16 x i16>)
114 define <8 x i32> @lasx_xvmaddwev_w_hu_h(<8 x i32> %va, <16 x i16> %vb, <16 x i16> %vc) nounwind {
115 ; CHECK-LABEL: lasx_xvmaddwev_w_hu_h:
116 ; CHECK:       # %bb.0: # %entry
117 ; CHECK-NEXT:    xvmaddwev.w.hu.h $xr0, $xr1, $xr2
118 ; CHECK-NEXT:    ret
119 entry:
120   %res = call <8 x i32> @llvm.loongarch.lasx.xvmaddwev.w.hu.h(<8 x i32> %va, <16 x i16> %vb, <16 x i16> %vc)
121   ret <8 x i32> %res
124 declare <4 x i64> @llvm.loongarch.lasx.xvmaddwev.d.wu.w(<4 x i64>, <8 x i32>, <8 x i32>)
126 define <4 x i64> @lasx_xvmaddwev_d_wu_w(<4 x i64> %va, <8 x i32> %vb, <8 x i32> %vc) nounwind {
127 ; CHECK-LABEL: lasx_xvmaddwev_d_wu_w:
128 ; CHECK:       # %bb.0: # %entry
129 ; CHECK-NEXT:    xvmaddwev.d.wu.w $xr0, $xr1, $xr2
130 ; CHECK-NEXT:    ret
131 entry:
132   %res = call <4 x i64> @llvm.loongarch.lasx.xvmaddwev.d.wu.w(<4 x i64> %va, <8 x i32> %vb, <8 x i32> %vc)
133   ret <4 x i64> %res
136 declare <4 x i64> @llvm.loongarch.lasx.xvmaddwev.q.du.d(<4 x i64>, <4 x i64>, <4 x i64>)
138 define <4 x i64> @lasx_xvmaddwev_q_du_d(<4 x i64> %va, <4 x i64> %vb, <4 x i64> %vc) nounwind {
139 ; CHECK-LABEL: lasx_xvmaddwev_q_du_d:
140 ; CHECK:       # %bb.0: # %entry
141 ; CHECK-NEXT:    xvmaddwev.q.du.d $xr0, $xr1, $xr2
142 ; CHECK-NEXT:    ret
143 entry:
144   %res = call <4 x i64> @llvm.loongarch.lasx.xvmaddwev.q.du.d(<4 x i64> %va, <4 x i64> %vb, <4 x i64> %vc)
145   ret <4 x i64> %res
148 declare <16 x i16> @llvm.loongarch.lasx.xvmaddwod.h.b(<16 x i16>, <32 x i8>, <32 x i8>)
150 define <16 x i16> @lasx_xvmaddwod_h_b(<16 x i16> %va, <32 x i8> %vb, <32 x i8> %vc) nounwind {
151 ; CHECK-LABEL: lasx_xvmaddwod_h_b:
152 ; CHECK:       # %bb.0: # %entry
153 ; CHECK-NEXT:    xvmaddwod.h.b $xr0, $xr1, $xr2
154 ; CHECK-NEXT:    ret
155 entry:
156   %res = call <16 x i16> @llvm.loongarch.lasx.xvmaddwod.h.b(<16 x i16> %va, <32 x i8> %vb, <32 x i8> %vc)
157   ret <16 x i16> %res
160 declare <8 x i32> @llvm.loongarch.lasx.xvmaddwod.w.h(<8 x i32>, <16 x i16>, <16 x i16>)
162 define <8 x i32> @lasx_xvmaddwod_w_h(<8 x i32> %va, <16 x i16> %vb, <16 x i16> %vc) nounwind {
163 ; CHECK-LABEL: lasx_xvmaddwod_w_h:
164 ; CHECK:       # %bb.0: # %entry
165 ; CHECK-NEXT:    xvmaddwod.w.h $xr0, $xr1, $xr2
166 ; CHECK-NEXT:    ret
167 entry:
168   %res = call <8 x i32> @llvm.loongarch.lasx.xvmaddwod.w.h(<8 x i32> %va, <16 x i16> %vb, <16 x i16> %vc)
169   ret <8 x i32> %res
172 declare <4 x i64> @llvm.loongarch.lasx.xvmaddwod.d.w(<4 x i64>, <8 x i32>, <8 x i32>)
174 define <4 x i64> @lasx_xvmaddwod_d_w(<4 x i64> %va, <8 x i32> %vb, <8 x i32> %vc) nounwind {
175 ; CHECK-LABEL: lasx_xvmaddwod_d_w:
176 ; CHECK:       # %bb.0: # %entry
177 ; CHECK-NEXT:    xvmaddwod.d.w $xr0, $xr1, $xr2
178 ; CHECK-NEXT:    ret
179 entry:
180   %res = call <4 x i64> @llvm.loongarch.lasx.xvmaddwod.d.w(<4 x i64> %va, <8 x i32> %vb, <8 x i32> %vc)
181   ret <4 x i64> %res
184 declare <4 x i64> @llvm.loongarch.lasx.xvmaddwod.q.d(<4 x i64>, <4 x i64>, <4 x i64>)
186 define <4 x i64> @lasx_xvmaddwod_q_d(<4 x i64> %va, <4 x i64> %vb, <4 x i64> %vc) nounwind {
187 ; CHECK-LABEL: lasx_xvmaddwod_q_d:
188 ; CHECK:       # %bb.0: # %entry
189 ; CHECK-NEXT:    xvmaddwod.q.d $xr0, $xr1, $xr2
190 ; CHECK-NEXT:    ret
191 entry:
192   %res = call <4 x i64> @llvm.loongarch.lasx.xvmaddwod.q.d(<4 x i64> %va, <4 x i64> %vb, <4 x i64> %vc)
193   ret <4 x i64> %res
196 declare <16 x i16> @llvm.loongarch.lasx.xvmaddwod.h.bu(<16 x i16>, <32 x i8>, <32 x i8>)
198 define <16 x i16> @lasx_xvmaddwod_h_bu(<16 x i16> %va, <32 x i8> %vb, <32 x i8> %vc) nounwind {
199 ; CHECK-LABEL: lasx_xvmaddwod_h_bu:
200 ; CHECK:       # %bb.0: # %entry
201 ; CHECK-NEXT:    xvmaddwod.h.bu $xr0, $xr1, $xr2
202 ; CHECK-NEXT:    ret
203 entry:
204   %res = call <16 x i16> @llvm.loongarch.lasx.xvmaddwod.h.bu(<16 x i16> %va, <32 x i8> %vb, <32 x i8> %vc)
205   ret <16 x i16> %res
208 declare <8 x i32> @llvm.loongarch.lasx.xvmaddwod.w.hu(<8 x i32>, <16 x i16>, <16 x i16>)
210 define <8 x i32> @lasx_xvmaddwod_w_hu(<8 x i32> %va, <16 x i16> %vb, <16 x i16> %vc) nounwind {
211 ; CHECK-LABEL: lasx_xvmaddwod_w_hu:
212 ; CHECK:       # %bb.0: # %entry
213 ; CHECK-NEXT:    xvmaddwod.w.hu $xr0, $xr1, $xr2
214 ; CHECK-NEXT:    ret
215 entry:
216   %res = call <8 x i32> @llvm.loongarch.lasx.xvmaddwod.w.hu(<8 x i32> %va, <16 x i16> %vb, <16 x i16> %vc)
217   ret <8 x i32> %res
220 declare <4 x i64> @llvm.loongarch.lasx.xvmaddwod.d.wu(<4 x i64>, <8 x i32>, <8 x i32>)
222 define <4 x i64> @lasx_xvmaddwod_d_wu(<4 x i64> %va, <8 x i32> %vb, <8 x i32> %vc) nounwind {
223 ; CHECK-LABEL: lasx_xvmaddwod_d_wu:
224 ; CHECK:       # %bb.0: # %entry
225 ; CHECK-NEXT:    xvmaddwod.d.wu $xr0, $xr1, $xr2
226 ; CHECK-NEXT:    ret
227 entry:
228   %res = call <4 x i64> @llvm.loongarch.lasx.xvmaddwod.d.wu(<4 x i64> %va, <8 x i32> %vb, <8 x i32> %vc)
229   ret <4 x i64> %res
232 declare <4 x i64> @llvm.loongarch.lasx.xvmaddwod.q.du(<4 x i64>, <4 x i64>, <4 x i64>)
234 define <4 x i64> @lasx_xvmaddwod_q_du(<4 x i64> %va, <4 x i64> %vb, <4 x i64> %vc) nounwind {
235 ; CHECK-LABEL: lasx_xvmaddwod_q_du:
236 ; CHECK:       # %bb.0: # %entry
237 ; CHECK-NEXT:    xvmaddwod.q.du $xr0, $xr1, $xr2
238 ; CHECK-NEXT:    ret
239 entry:
240   %res = call <4 x i64> @llvm.loongarch.lasx.xvmaddwod.q.du(<4 x i64> %va, <4 x i64> %vb, <4 x i64> %vc)
241   ret <4 x i64> %res
244 declare <16 x i16> @llvm.loongarch.lasx.xvmaddwod.h.bu.b(<16 x i16>, <32 x i8>, <32 x i8>)
246 define <16 x i16> @lasx_xvmaddwod_h_bu_b(<16 x i16> %va, <32 x i8> %vb, <32 x i8> %vc) nounwind {
247 ; CHECK-LABEL: lasx_xvmaddwod_h_bu_b:
248 ; CHECK:       # %bb.0: # %entry
249 ; CHECK-NEXT:    xvmaddwod.h.bu.b $xr0, $xr1, $xr2
250 ; CHECK-NEXT:    ret
251 entry:
252   %res = call <16 x i16> @llvm.loongarch.lasx.xvmaddwod.h.bu.b(<16 x i16> %va, <32 x i8> %vb, <32 x i8> %vc)
253   ret <16 x i16> %res
256 declare <8 x i32> @llvm.loongarch.lasx.xvmaddwod.w.hu.h(<8 x i32>, <16 x i16>, <16 x i16>)
258 define <8 x i32> @lasx_xvmaddwod_w_hu_h(<8 x i32> %va, <16 x i16> %vb, <16 x i16> %vc) nounwind {
259 ; CHECK-LABEL: lasx_xvmaddwod_w_hu_h:
260 ; CHECK:       # %bb.0: # %entry
261 ; CHECK-NEXT:    xvmaddwod.w.hu.h $xr0, $xr1, $xr2
262 ; CHECK-NEXT:    ret
263 entry:
264   %res = call <8 x i32> @llvm.loongarch.lasx.xvmaddwod.w.hu.h(<8 x i32> %va, <16 x i16> %vb, <16 x i16> %vc)
265   ret <8 x i32> %res
268 declare <4 x i64> @llvm.loongarch.lasx.xvmaddwod.d.wu.w(<4 x i64>, <8 x i32>, <8 x i32>)
270 define <4 x i64> @lasx_xvmaddwod_d_wu_w(<4 x i64> %va, <8 x i32> %vb, <8 x i32> %vc) nounwind {
271 ; CHECK-LABEL: lasx_xvmaddwod_d_wu_w:
272 ; CHECK:       # %bb.0: # %entry
273 ; CHECK-NEXT:    xvmaddwod.d.wu.w $xr0, $xr1, $xr2
274 ; CHECK-NEXT:    ret
275 entry:
276   %res = call <4 x i64> @llvm.loongarch.lasx.xvmaddwod.d.wu.w(<4 x i64> %va, <8 x i32> %vb, <8 x i32> %vc)
277   ret <4 x i64> %res
280 declare <4 x i64> @llvm.loongarch.lasx.xvmaddwod.q.du.d(<4 x i64>, <4 x i64>, <4 x i64>)
282 define <4 x i64> @lasx_xvmaddwod_q_du_d(<4 x i64> %va, <4 x i64> %vb, <4 x i64> %vc) nounwind {
283 ; CHECK-LABEL: lasx_xvmaddwod_q_du_d:
284 ; CHECK:       # %bb.0: # %entry
285 ; CHECK-NEXT:    xvmaddwod.q.du.d $xr0, $xr1, $xr2
286 ; CHECK-NEXT:    ret
287 entry:
288   %res = call <4 x i64> @llvm.loongarch.lasx.xvmaddwod.q.du.d(<4 x i64> %va, <4 x i64> %vb, <4 x i64> %vc)
289   ret <4 x i64> %res