Run DCE after a LoopFlatten test to reduce spurious output [nfc]
[llvm-project.git] / llvm / test / CodeGen / LoongArch / lsx / intrinsic-maddw.ll
blob1e3ab25a5fcf1ac4aa891616ec4615284c544a38
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc --mtriple=loongarch64 --mattr=+lsx < %s | FileCheck %s
4 declare <8 x i16> @llvm.loongarch.lsx.vmaddwev.h.b(<8 x i16>, <16 x i8>, <16 x i8>)
6 define <8 x i16> @lsx_vmaddwev_h_b(<8 x i16> %va, <16 x i8> %vb, <16 x i8> %vc) nounwind {
7 ; CHECK-LABEL: lsx_vmaddwev_h_b:
8 ; CHECK:       # %bb.0: # %entry
9 ; CHECK-NEXT:    vmaddwev.h.b $vr0, $vr1, $vr2
10 ; CHECK-NEXT:    ret
11 entry:
12   %res = call <8 x i16> @llvm.loongarch.lsx.vmaddwev.h.b(<8 x i16> %va, <16 x i8> %vb, <16 x i8> %vc)
13   ret <8 x i16> %res
16 declare <4 x i32> @llvm.loongarch.lsx.vmaddwev.w.h(<4 x i32>, <8 x i16>, <8 x i16>)
18 define <4 x i32> @lsx_vmaddwev_w_h(<4 x i32> %va, <8 x i16> %vb, <8 x i16> %vc) nounwind {
19 ; CHECK-LABEL: lsx_vmaddwev_w_h:
20 ; CHECK:       # %bb.0: # %entry
21 ; CHECK-NEXT:    vmaddwev.w.h $vr0, $vr1, $vr2
22 ; CHECK-NEXT:    ret
23 entry:
24   %res = call <4 x i32> @llvm.loongarch.lsx.vmaddwev.w.h(<4 x i32> %va, <8 x i16> %vb, <8 x i16> %vc)
25   ret <4 x i32> %res
28 declare <2 x i64> @llvm.loongarch.lsx.vmaddwev.d.w(<2 x i64>, <4 x i32>, <4 x i32>)
30 define <2 x i64> @lsx_vmaddwev_d_w(<2 x i64> %va, <4 x i32> %vb, <4 x i32> %vc) nounwind {
31 ; CHECK-LABEL: lsx_vmaddwev_d_w:
32 ; CHECK:       # %bb.0: # %entry
33 ; CHECK-NEXT:    vmaddwev.d.w $vr0, $vr1, $vr2
34 ; CHECK-NEXT:    ret
35 entry:
36   %res = call <2 x i64> @llvm.loongarch.lsx.vmaddwev.d.w(<2 x i64> %va, <4 x i32> %vb, <4 x i32> %vc)
37   ret <2 x i64> %res
40 declare <2 x i64> @llvm.loongarch.lsx.vmaddwev.q.d(<2 x i64>, <2 x i64>, <2 x i64>)
42 define <2 x i64> @lsx_vmaddwev_q_d(<2 x i64> %va, <2 x i64> %vb, <2 x i64> %vc) nounwind {
43 ; CHECK-LABEL: lsx_vmaddwev_q_d:
44 ; CHECK:       # %bb.0: # %entry
45 ; CHECK-NEXT:    vmaddwev.q.d $vr0, $vr1, $vr2
46 ; CHECK-NEXT:    ret
47 entry:
48   %res = call <2 x i64> @llvm.loongarch.lsx.vmaddwev.q.d(<2 x i64> %va, <2 x i64> %vb, <2 x i64> %vc)
49   ret <2 x i64> %res
52 declare <8 x i16> @llvm.loongarch.lsx.vmaddwev.h.bu(<8 x i16>, <16 x i8>, <16 x i8>)
54 define <8 x i16> @lsx_vmaddwev_h_bu(<8 x i16> %va, <16 x i8> %vb, <16 x i8> %vc) nounwind {
55 ; CHECK-LABEL: lsx_vmaddwev_h_bu:
56 ; CHECK:       # %bb.0: # %entry
57 ; CHECK-NEXT:    vmaddwev.h.bu $vr0, $vr1, $vr2
58 ; CHECK-NEXT:    ret
59 entry:
60   %res = call <8 x i16> @llvm.loongarch.lsx.vmaddwev.h.bu(<8 x i16> %va, <16 x i8> %vb, <16 x i8> %vc)
61   ret <8 x i16> %res
64 declare <4 x i32> @llvm.loongarch.lsx.vmaddwev.w.hu(<4 x i32>, <8 x i16>, <8 x i16>)
66 define <4 x i32> @lsx_vmaddwev_w_hu(<4 x i32> %va, <8 x i16> %vb, <8 x i16> %vc) nounwind {
67 ; CHECK-LABEL: lsx_vmaddwev_w_hu:
68 ; CHECK:       # %bb.0: # %entry
69 ; CHECK-NEXT:    vmaddwev.w.hu $vr0, $vr1, $vr2
70 ; CHECK-NEXT:    ret
71 entry:
72   %res = call <4 x i32> @llvm.loongarch.lsx.vmaddwev.w.hu(<4 x i32> %va, <8 x i16> %vb, <8 x i16> %vc)
73   ret <4 x i32> %res
76 declare <2 x i64> @llvm.loongarch.lsx.vmaddwev.d.wu(<2 x i64>, <4 x i32>, <4 x i32>)
78 define <2 x i64> @lsx_vmaddwev_d_wu(<2 x i64> %va, <4 x i32> %vb, <4 x i32> %vc) nounwind {
79 ; CHECK-LABEL: lsx_vmaddwev_d_wu:
80 ; CHECK:       # %bb.0: # %entry
81 ; CHECK-NEXT:    vmaddwev.d.wu $vr0, $vr1, $vr2
82 ; CHECK-NEXT:    ret
83 entry:
84   %res = call <2 x i64> @llvm.loongarch.lsx.vmaddwev.d.wu(<2 x i64> %va, <4 x i32> %vb, <4 x i32> %vc)
85   ret <2 x i64> %res
88 declare <2 x i64> @llvm.loongarch.lsx.vmaddwev.q.du(<2 x i64>, <2 x i64>, <2 x i64>)
90 define <2 x i64> @lsx_vmaddwev_q_du(<2 x i64> %va, <2 x i64> %vb, <2 x i64> %vc) nounwind {
91 ; CHECK-LABEL: lsx_vmaddwev_q_du:
92 ; CHECK:       # %bb.0: # %entry
93 ; CHECK-NEXT:    vmaddwev.q.du $vr0, $vr1, $vr2
94 ; CHECK-NEXT:    ret
95 entry:
96   %res = call <2 x i64> @llvm.loongarch.lsx.vmaddwev.q.du(<2 x i64> %va, <2 x i64> %vb, <2 x i64> %vc)
97   ret <2 x i64> %res
100 declare <8 x i16> @llvm.loongarch.lsx.vmaddwev.h.bu.b(<8 x i16>, <16 x i8>, <16 x i8>)
102 define <8 x i16> @lsx_vmaddwev_h_bu_b(<8 x i16> %va, <16 x i8> %vb, <16 x i8> %vc) nounwind {
103 ; CHECK-LABEL: lsx_vmaddwev_h_bu_b:
104 ; CHECK:       # %bb.0: # %entry
105 ; CHECK-NEXT:    vmaddwev.h.bu.b $vr0, $vr1, $vr2
106 ; CHECK-NEXT:    ret
107 entry:
108   %res = call <8 x i16> @llvm.loongarch.lsx.vmaddwev.h.bu.b(<8 x i16> %va, <16 x i8> %vb, <16 x i8> %vc)
109   ret <8 x i16> %res
112 declare <4 x i32> @llvm.loongarch.lsx.vmaddwev.w.hu.h(<4 x i32>, <8 x i16>, <8 x i16>)
114 define <4 x i32> @lsx_vmaddwev_w_hu_h(<4 x i32> %va, <8 x i16> %vb, <8 x i16> %vc) nounwind {
115 ; CHECK-LABEL: lsx_vmaddwev_w_hu_h:
116 ; CHECK:       # %bb.0: # %entry
117 ; CHECK-NEXT:    vmaddwev.w.hu.h $vr0, $vr1, $vr2
118 ; CHECK-NEXT:    ret
119 entry:
120   %res = call <4 x i32> @llvm.loongarch.lsx.vmaddwev.w.hu.h(<4 x i32> %va, <8 x i16> %vb, <8 x i16> %vc)
121   ret <4 x i32> %res
124 declare <2 x i64> @llvm.loongarch.lsx.vmaddwev.d.wu.w(<2 x i64>, <4 x i32>, <4 x i32>)
126 define <2 x i64> @lsx_vmaddwev_d_wu_w(<2 x i64> %va, <4 x i32> %vb, <4 x i32> %vc) nounwind {
127 ; CHECK-LABEL: lsx_vmaddwev_d_wu_w:
128 ; CHECK:       # %bb.0: # %entry
129 ; CHECK-NEXT:    vmaddwev.d.wu.w $vr0, $vr1, $vr2
130 ; CHECK-NEXT:    ret
131 entry:
132   %res = call <2 x i64> @llvm.loongarch.lsx.vmaddwev.d.wu.w(<2 x i64> %va, <4 x i32> %vb, <4 x i32> %vc)
133   ret <2 x i64> %res
136 declare <2 x i64> @llvm.loongarch.lsx.vmaddwev.q.du.d(<2 x i64>, <2 x i64>, <2 x i64>)
138 define <2 x i64> @lsx_vmaddwev_q_du_d(<2 x i64> %va, <2 x i64> %vb, <2 x i64> %vc) nounwind {
139 ; CHECK-LABEL: lsx_vmaddwev_q_du_d:
140 ; CHECK:       # %bb.0: # %entry
141 ; CHECK-NEXT:    vmaddwev.q.du.d $vr0, $vr1, $vr2
142 ; CHECK-NEXT:    ret
143 entry:
144   %res = call <2 x i64> @llvm.loongarch.lsx.vmaddwev.q.du.d(<2 x i64> %va, <2 x i64> %vb, <2 x i64> %vc)
145   ret <2 x i64> %res
148 declare <8 x i16> @llvm.loongarch.lsx.vmaddwod.h.b(<8 x i16>, <16 x i8>, <16 x i8>)
150 define <8 x i16> @lsx_vmaddwod_h_b(<8 x i16> %va, <16 x i8> %vb, <16 x i8> %vc) nounwind {
151 ; CHECK-LABEL: lsx_vmaddwod_h_b:
152 ; CHECK:       # %bb.0: # %entry
153 ; CHECK-NEXT:    vmaddwod.h.b $vr0, $vr1, $vr2
154 ; CHECK-NEXT:    ret
155 entry:
156   %res = call <8 x i16> @llvm.loongarch.lsx.vmaddwod.h.b(<8 x i16> %va, <16 x i8> %vb, <16 x i8> %vc)
157   ret <8 x i16> %res
160 declare <4 x i32> @llvm.loongarch.lsx.vmaddwod.w.h(<4 x i32>, <8 x i16>, <8 x i16>)
162 define <4 x i32> @lsx_vmaddwod_w_h(<4 x i32> %va, <8 x i16> %vb, <8 x i16> %vc) nounwind {
163 ; CHECK-LABEL: lsx_vmaddwod_w_h:
164 ; CHECK:       # %bb.0: # %entry
165 ; CHECK-NEXT:    vmaddwod.w.h $vr0, $vr1, $vr2
166 ; CHECK-NEXT:    ret
167 entry:
168   %res = call <4 x i32> @llvm.loongarch.lsx.vmaddwod.w.h(<4 x i32> %va, <8 x i16> %vb, <8 x i16> %vc)
169   ret <4 x i32> %res
172 declare <2 x i64> @llvm.loongarch.lsx.vmaddwod.d.w(<2 x i64>, <4 x i32>, <4 x i32>)
174 define <2 x i64> @lsx_vmaddwod_d_w(<2 x i64> %va, <4 x i32> %vb, <4 x i32> %vc) nounwind {
175 ; CHECK-LABEL: lsx_vmaddwod_d_w:
176 ; CHECK:       # %bb.0: # %entry
177 ; CHECK-NEXT:    vmaddwod.d.w $vr0, $vr1, $vr2
178 ; CHECK-NEXT:    ret
179 entry:
180   %res = call <2 x i64> @llvm.loongarch.lsx.vmaddwod.d.w(<2 x i64> %va, <4 x i32> %vb, <4 x i32> %vc)
181   ret <2 x i64> %res
184 declare <2 x i64> @llvm.loongarch.lsx.vmaddwod.q.d(<2 x i64>, <2 x i64>, <2 x i64>)
186 define <2 x i64> @lsx_vmaddwod_q_d(<2 x i64> %va, <2 x i64> %vb, <2 x i64> %vc) nounwind {
187 ; CHECK-LABEL: lsx_vmaddwod_q_d:
188 ; CHECK:       # %bb.0: # %entry
189 ; CHECK-NEXT:    vmaddwod.q.d $vr0, $vr1, $vr2
190 ; CHECK-NEXT:    ret
191 entry:
192   %res = call <2 x i64> @llvm.loongarch.lsx.vmaddwod.q.d(<2 x i64> %va, <2 x i64> %vb, <2 x i64> %vc)
193   ret <2 x i64> %res
196 declare <8 x i16> @llvm.loongarch.lsx.vmaddwod.h.bu(<8 x i16>, <16 x i8>, <16 x i8>)
198 define <8 x i16> @lsx_vmaddwod_h_bu(<8 x i16> %va, <16 x i8> %vb, <16 x i8> %vc) nounwind {
199 ; CHECK-LABEL: lsx_vmaddwod_h_bu:
200 ; CHECK:       # %bb.0: # %entry
201 ; CHECK-NEXT:    vmaddwod.h.bu $vr0, $vr1, $vr2
202 ; CHECK-NEXT:    ret
203 entry:
204   %res = call <8 x i16> @llvm.loongarch.lsx.vmaddwod.h.bu(<8 x i16> %va, <16 x i8> %vb, <16 x i8> %vc)
205   ret <8 x i16> %res
208 declare <4 x i32> @llvm.loongarch.lsx.vmaddwod.w.hu(<4 x i32>, <8 x i16>, <8 x i16>)
210 define <4 x i32> @lsx_vmaddwod_w_hu(<4 x i32> %va, <8 x i16> %vb, <8 x i16> %vc) nounwind {
211 ; CHECK-LABEL: lsx_vmaddwod_w_hu:
212 ; CHECK:       # %bb.0: # %entry
213 ; CHECK-NEXT:    vmaddwod.w.hu $vr0, $vr1, $vr2
214 ; CHECK-NEXT:    ret
215 entry:
216   %res = call <4 x i32> @llvm.loongarch.lsx.vmaddwod.w.hu(<4 x i32> %va, <8 x i16> %vb, <8 x i16> %vc)
217   ret <4 x i32> %res
220 declare <2 x i64> @llvm.loongarch.lsx.vmaddwod.d.wu(<2 x i64>, <4 x i32>, <4 x i32>)
222 define <2 x i64> @lsx_vmaddwod_d_wu(<2 x i64> %va, <4 x i32> %vb, <4 x i32> %vc) nounwind {
223 ; CHECK-LABEL: lsx_vmaddwod_d_wu:
224 ; CHECK:       # %bb.0: # %entry
225 ; CHECK-NEXT:    vmaddwod.d.wu $vr0, $vr1, $vr2
226 ; CHECK-NEXT:    ret
227 entry:
228   %res = call <2 x i64> @llvm.loongarch.lsx.vmaddwod.d.wu(<2 x i64> %va, <4 x i32> %vb, <4 x i32> %vc)
229   ret <2 x i64> %res
232 declare <2 x i64> @llvm.loongarch.lsx.vmaddwod.q.du(<2 x i64>, <2 x i64>, <2 x i64>)
234 define <2 x i64> @lsx_vmaddwod_q_du(<2 x i64> %va, <2 x i64> %vb, <2 x i64> %vc) nounwind {
235 ; CHECK-LABEL: lsx_vmaddwod_q_du:
236 ; CHECK:       # %bb.0: # %entry
237 ; CHECK-NEXT:    vmaddwod.q.du $vr0, $vr1, $vr2
238 ; CHECK-NEXT:    ret
239 entry:
240   %res = call <2 x i64> @llvm.loongarch.lsx.vmaddwod.q.du(<2 x i64> %va, <2 x i64> %vb, <2 x i64> %vc)
241   ret <2 x i64> %res
244 declare <8 x i16> @llvm.loongarch.lsx.vmaddwod.h.bu.b(<8 x i16>, <16 x i8>, <16 x i8>)
246 define <8 x i16> @lsx_vmaddwod_h_bu_b(<8 x i16> %va, <16 x i8> %vb, <16 x i8> %vc) nounwind {
247 ; CHECK-LABEL: lsx_vmaddwod_h_bu_b:
248 ; CHECK:       # %bb.0: # %entry
249 ; CHECK-NEXT:    vmaddwod.h.bu.b $vr0, $vr1, $vr2
250 ; CHECK-NEXT:    ret
251 entry:
252   %res = call <8 x i16> @llvm.loongarch.lsx.vmaddwod.h.bu.b(<8 x i16> %va, <16 x i8> %vb, <16 x i8> %vc)
253   ret <8 x i16> %res
256 declare <4 x i32> @llvm.loongarch.lsx.vmaddwod.w.hu.h(<4 x i32>, <8 x i16>, <8 x i16>)
258 define <4 x i32> @lsx_vmaddwod_w_hu_h(<4 x i32> %va, <8 x i16> %vb, <8 x i16> %vc) nounwind {
259 ; CHECK-LABEL: lsx_vmaddwod_w_hu_h:
260 ; CHECK:       # %bb.0: # %entry
261 ; CHECK-NEXT:    vmaddwod.w.hu.h $vr0, $vr1, $vr2
262 ; CHECK-NEXT:    ret
263 entry:
264   %res = call <4 x i32> @llvm.loongarch.lsx.vmaddwod.w.hu.h(<4 x i32> %va, <8 x i16> %vb, <8 x i16> %vc)
265   ret <4 x i32> %res
268 declare <2 x i64> @llvm.loongarch.lsx.vmaddwod.d.wu.w(<2 x i64>, <4 x i32>, <4 x i32>)
270 define <2 x i64> @lsx_vmaddwod_d_wu_w(<2 x i64> %va, <4 x i32> %vb, <4 x i32> %vc) nounwind {
271 ; CHECK-LABEL: lsx_vmaddwod_d_wu_w:
272 ; CHECK:       # %bb.0: # %entry
273 ; CHECK-NEXT:    vmaddwod.d.wu.w $vr0, $vr1, $vr2
274 ; CHECK-NEXT:    ret
275 entry:
276   %res = call <2 x i64> @llvm.loongarch.lsx.vmaddwod.d.wu.w(<2 x i64> %va, <4 x i32> %vb, <4 x i32> %vc)
277   ret <2 x i64> %res
280 declare <2 x i64> @llvm.loongarch.lsx.vmaddwod.q.du.d(<2 x i64>, <2 x i64>, <2 x i64>)
282 define <2 x i64> @lsx_vmaddwod_q_du_d(<2 x i64> %va, <2 x i64> %vb, <2 x i64> %vc) nounwind {
283 ; CHECK-LABEL: lsx_vmaddwod_q_du_d:
284 ; CHECK:       # %bb.0: # %entry
285 ; CHECK-NEXT:    vmaddwod.q.du.d $vr0, $vr1, $vr2
286 ; CHECK-NEXT:    ret
287 entry:
288   %res = call <2 x i64> @llvm.loongarch.lsx.vmaddwod.q.du.d(<2 x i64> %va, <2 x i64> %vb, <2 x i64> %vc)
289   ret <2 x i64> %res