1 ; RUN: llc < %s -march=arm -mattr=+neon | FileCheck %s
3 define <8 x i8> @vmlai8(<8 x i8>* %A, <8 x i8>* %B, <8 x i8> * %C) nounwind {
6 %tmp1 = load <8 x i8>* %A
7 %tmp2 = load <8 x i8>* %B
8 %tmp3 = load <8 x i8>* %C
9 %tmp4 = mul <8 x i8> %tmp2, %tmp3
10 %tmp5 = add <8 x i8> %tmp1, %tmp4
14 define <4 x i16> @vmlai16(<4 x i16>* %A, <4 x i16>* %B, <4 x i16>* %C) nounwind {
17 %tmp1 = load <4 x i16>* %A
18 %tmp2 = load <4 x i16>* %B
19 %tmp3 = load <4 x i16>* %C
20 %tmp4 = mul <4 x i16> %tmp2, %tmp3
21 %tmp5 = add <4 x i16> %tmp1, %tmp4
25 define <2 x i32> @vmlai32(<2 x i32>* %A, <2 x i32>* %B, <2 x i32>* %C) nounwind {
28 %tmp1 = load <2 x i32>* %A
29 %tmp2 = load <2 x i32>* %B
30 %tmp3 = load <2 x i32>* %C
31 %tmp4 = mul <2 x i32> %tmp2, %tmp3
32 %tmp5 = add <2 x i32> %tmp1, %tmp4
36 define <2 x float> @vmlaf32(<2 x float>* %A, <2 x float>* %B, <2 x float>* %C) nounwind {
39 %tmp1 = load <2 x float>* %A
40 %tmp2 = load <2 x float>* %B
41 %tmp3 = load <2 x float>* %C
42 %tmp4 = fmul <2 x float> %tmp2, %tmp3
43 %tmp5 = fadd <2 x float> %tmp1, %tmp4
47 define <16 x i8> @vmlaQi8(<16 x i8>* %A, <16 x i8>* %B, <16 x i8> * %C) nounwind {
50 %tmp1 = load <16 x i8>* %A
51 %tmp2 = load <16 x i8>* %B
52 %tmp3 = load <16 x i8>* %C
53 %tmp4 = mul <16 x i8> %tmp2, %tmp3
54 %tmp5 = add <16 x i8> %tmp1, %tmp4
58 define <8 x i16> @vmlaQi16(<8 x i16>* %A, <8 x i16>* %B, <8 x i16>* %C) nounwind {
61 %tmp1 = load <8 x i16>* %A
62 %tmp2 = load <8 x i16>* %B
63 %tmp3 = load <8 x i16>* %C
64 %tmp4 = mul <8 x i16> %tmp2, %tmp3
65 %tmp5 = add <8 x i16> %tmp1, %tmp4
69 define <4 x i32> @vmlaQi32(<4 x i32>* %A, <4 x i32>* %B, <4 x i32>* %C) nounwind {
72 %tmp1 = load <4 x i32>* %A
73 %tmp2 = load <4 x i32>* %B
74 %tmp3 = load <4 x i32>* %C
75 %tmp4 = mul <4 x i32> %tmp2, %tmp3
76 %tmp5 = add <4 x i32> %tmp1, %tmp4
80 define <4 x float> @vmlaQf32(<4 x float>* %A, <4 x float>* %B, <4 x float>* %C) nounwind {
83 %tmp1 = load <4 x float>* %A
84 %tmp2 = load <4 x float>* %B
85 %tmp3 = load <4 x float>* %C
86 %tmp4 = fmul <4 x float> %tmp2, %tmp3
87 %tmp5 = fadd <4 x float> %tmp1, %tmp4
91 define <8 x i16> @vmlals8(<8 x i16>* %A, <8 x i8>* %B, <8 x i8>* %C) nounwind {
94 %tmp1 = load <8 x i16>* %A
95 %tmp2 = load <8 x i8>* %B
96 %tmp3 = load <8 x i8>* %C
97 %tmp4 = sext <8 x i8> %tmp2 to <8 x i16>
98 %tmp5 = sext <8 x i8> %tmp3 to <8 x i16>
99 %tmp6 = mul <8 x i16> %tmp4, %tmp5
100 %tmp7 = add <8 x i16> %tmp1, %tmp6
104 define <4 x i32> @vmlals16(<4 x i32>* %A, <4 x i16>* %B, <4 x i16>* %C) nounwind {
107 %tmp1 = load <4 x i32>* %A
108 %tmp2 = load <4 x i16>* %B
109 %tmp3 = load <4 x i16>* %C
110 %tmp4 = sext <4 x i16> %tmp2 to <4 x i32>
111 %tmp5 = sext <4 x i16> %tmp3 to <4 x i32>
112 %tmp6 = mul <4 x i32> %tmp4, %tmp5
113 %tmp7 = add <4 x i32> %tmp1, %tmp6
117 define <2 x i64> @vmlals32(<2 x i64>* %A, <2 x i32>* %B, <2 x i32>* %C) nounwind {
120 %tmp1 = load <2 x i64>* %A
121 %tmp2 = load <2 x i32>* %B
122 %tmp3 = load <2 x i32>* %C
123 %tmp4 = sext <2 x i32> %tmp2 to <2 x i64>
124 %tmp5 = sext <2 x i32> %tmp3 to <2 x i64>
125 %tmp6 = mul <2 x i64> %tmp4, %tmp5
126 %tmp7 = add <2 x i64> %tmp1, %tmp6
130 define <8 x i16> @vmlalu8(<8 x i16>* %A, <8 x i8>* %B, <8 x i8>* %C) nounwind {
133 %tmp1 = load <8 x i16>* %A
134 %tmp2 = load <8 x i8>* %B
135 %tmp3 = load <8 x i8>* %C
136 %tmp4 = zext <8 x i8> %tmp2 to <8 x i16>
137 %tmp5 = zext <8 x i8> %tmp3 to <8 x i16>
138 %tmp6 = mul <8 x i16> %tmp4, %tmp5
139 %tmp7 = add <8 x i16> %tmp1, %tmp6
143 define <4 x i32> @vmlalu16(<4 x i32>* %A, <4 x i16>* %B, <4 x i16>* %C) nounwind {
146 %tmp1 = load <4 x i32>* %A
147 %tmp2 = load <4 x i16>* %B
148 %tmp3 = load <4 x i16>* %C
149 %tmp4 = zext <4 x i16> %tmp2 to <4 x i32>
150 %tmp5 = zext <4 x i16> %tmp3 to <4 x i32>
151 %tmp6 = mul <4 x i32> %tmp4, %tmp5
152 %tmp7 = add <4 x i32> %tmp1, %tmp6
156 define <2 x i64> @vmlalu32(<2 x i64>* %A, <2 x i32>* %B, <2 x i32>* %C) nounwind {
159 %tmp1 = load <2 x i64>* %A
160 %tmp2 = load <2 x i32>* %B
161 %tmp3 = load <2 x i32>* %C
162 %tmp4 = zext <2 x i32> %tmp2 to <2 x i64>
163 %tmp5 = zext <2 x i32> %tmp3 to <2 x i64>
164 %tmp6 = mul <2 x i64> %tmp4, %tmp5
165 %tmp7 = add <2 x i64> %tmp1, %tmp6
169 define arm_aapcs_vfpcc <4 x i32> @test_vmlal_lanes16(<4 x i32> %arg0_int32x4_t, <4 x i16> %arg1_int16x4_t, <4 x i16> %arg2_int16x4_t) nounwind readnone {
171 ; CHECK: test_vmlal_lanes16
172 ; CHECK: vmlal.s16 q0, d2, d3[1]
173 %0 = shufflevector <4 x i16> %arg2_int16x4_t, <4 x i16> undef, <4 x i32> <i32 1, i32 1, i32 1, i32 1> ; <<4 x i16>> [#uses=1]
174 %1 = sext <4 x i16> %arg1_int16x4_t to <4 x i32>
175 %2 = sext <4 x i16> %0 to <4 x i32>
176 %3 = mul <4 x i32> %1, %2
177 %4 = add <4 x i32> %arg0_int32x4_t, %3
181 define arm_aapcs_vfpcc <2 x i64> @test_vmlal_lanes32(<2 x i64> %arg0_int64x2_t, <2 x i32> %arg1_int32x2_t, <2 x i32> %arg2_int32x2_t) nounwind readnone {
183 ; CHECK: test_vmlal_lanes32
184 ; CHECK: vmlal.s32 q0, d2, d3[1]
185 %0 = shufflevector <2 x i32> %arg2_int32x2_t, <2 x i32> undef, <2 x i32> <i32 1, i32 1> ; <<2 x i32>> [#uses=1]
186 %1 = sext <2 x i32> %arg1_int32x2_t to <2 x i64>
187 %2 = sext <2 x i32> %0 to <2 x i64>
188 %3 = mul <2 x i64> %1, %2
189 %4 = add <2 x i64> %arg0_int64x2_t, %3
193 define arm_aapcs_vfpcc <4 x i32> @test_vmlal_laneu16(<4 x i32> %arg0_uint32x4_t, <4 x i16> %arg1_uint16x4_t, <4 x i16> %arg2_uint16x4_t) nounwind readnone {
195 ; CHECK: test_vmlal_laneu16
196 ; CHECK: vmlal.u16 q0, d2, d3[1]
197 %0 = shufflevector <4 x i16> %arg2_uint16x4_t, <4 x i16> undef, <4 x i32> <i32 1, i32 1, i32 1, i32 1> ; <<4 x i16>> [#uses=1]
198 %1 = zext <4 x i16> %arg1_uint16x4_t to <4 x i32>
199 %2 = zext <4 x i16> %0 to <4 x i32>
200 %3 = mul <4 x i32> %1, %2
201 %4 = add <4 x i32> %arg0_uint32x4_t, %3
205 define arm_aapcs_vfpcc <2 x i64> @test_vmlal_laneu32(<2 x i64> %arg0_uint64x2_t, <2 x i32> %arg1_uint32x2_t, <2 x i32> %arg2_uint32x2_t) nounwind readnone {
207 ; CHECK: test_vmlal_laneu32
208 ; CHECK: vmlal.u32 q0, d2, d3[1]
209 %0 = shufflevector <2 x i32> %arg2_uint32x2_t, <2 x i32> undef, <2 x i32> <i32 1, i32 1> ; <<2 x i32>> [#uses=1]
210 %1 = zext <2 x i32> %arg1_uint32x2_t to <2 x i64>
211 %2 = zext <2 x i32> %0 to <2 x i64>
212 %3 = mul <2 x i64> %1, %2
213 %4 = add <2 x i64> %arg0_uint64x2_t, %3