[ARM] Adjust how NEON shifts are lowered
[llvm-core.git] / test / CodeGen / X86 / combine-fcopysign.ll
blob05c546c411f5b711c007840311566a68b26a3d8b
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+sse4.1 | FileCheck %s --check-prefix=SSE
3 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+avx2 | FileCheck %s --check-prefix=AVX
6 ; NOTE: this is generated by utils/update_llc_test_checks.py but we can't check NAN types (PR30443),
7 ; so we need to edit it to remove the NAN constant comments
10 ; copysign(x, c1) -> fabs(x) iff ispos(c1)
11 define <4 x float> @combine_vec_fcopysign_pos_constant0(<4 x float> %x) {
12 ; SSE-LABEL: combine_vec_fcopysign_pos_constant0:
13 ; SSE:       # %bb.0:
14 ; SSE-NEXT:    andps {{.*}}(%rip), %xmm0
15 ; SSE-NEXT:    retq
17 ; AVX-LABEL: combine_vec_fcopysign_pos_constant0:
18 ; AVX:       # %bb.0:
19 ; AVX-NEXT:    vbroadcastss {{.*#+}} xmm1 = [NaN,NaN,NaN,NaN]
20 ; AVX-NEXT:    vandps %xmm1, %xmm0, %xmm0
21 ; AVX-NEXT:    retq
22   %1 = call <4 x float> @llvm.copysign.v4f32(<4 x float> %x, <4 x float> <float 2.0, float 2.0, float 2.0, float 2.0>)
23   ret <4 x float> %1
26 define <4 x float> @combine_vec_fcopysign_pos_constant1(<4 x float> %x) {
27 ; SSE-LABEL: combine_vec_fcopysign_pos_constant1:
28 ; SSE:       # %bb.0:
29 ; SSE-NEXT:    andps {{.*}}(%rip), %xmm0
30 ; SSE-NEXT:    retq
32 ; AVX-LABEL: combine_vec_fcopysign_pos_constant1:
33 ; AVX:       # %bb.0:
34 ; AVX-NEXT:    vbroadcastss {{.*#+}} xmm1 = [NaN,NaN,NaN,NaN]
35 ; AVX-NEXT:    vandps %xmm1, %xmm0, %xmm0
36 ; AVX-NEXT:    retq
37   %1 = call <4 x float> @llvm.copysign.v4f32(<4 x float> %x, <4 x float> <float 0.0, float 2.0, float 4.0, float 8.0>)
38   ret <4 x float> %1
41 define <4 x float> @combine_vec_fcopysign_fabs_sgn(<4 x float> %x, <4 x float> %y) {
42 ; SSE-LABEL: combine_vec_fcopysign_fabs_sgn:
43 ; SSE:       # %bb.0:
44 ; SSE-NEXT:    andps {{.*}}(%rip), %xmm0
45 ; SSE-NEXT:    retq
47 ; AVX-LABEL: combine_vec_fcopysign_fabs_sgn:
48 ; AVX:       # %bb.0:
49 ; AVX-NEXT:    vbroadcastss {{.*#+}} xmm1 = [NaN,NaN,NaN,NaN]
50 ; AVX-NEXT:    vandps %xmm1, %xmm0, %xmm0
51 ; AVX-NEXT:    retq
52   %1 = call <4 x float> @llvm.fabs.v4f32(<4 x float> %y)
53   %2 = call <4 x float> @llvm.copysign.v4f32(<4 x float> %x, <4 x float> %1)
54   ret <4 x float> %2
57 ; copysign(x, c1) -> fneg(fabs(x)) iff isneg(c1)
58 define <4 x float> @combine_vec_fcopysign_neg_constant0(<4 x float> %x) {
59 ; SSE-LABEL: combine_vec_fcopysign_neg_constant0:
60 ; SSE:       # %bb.0:
61 ; SSE-NEXT:    orps {{.*}}(%rip), %xmm0
62 ; SSE-NEXT:    retq
64 ; AVX-LABEL: combine_vec_fcopysign_neg_constant0:
65 ; AVX:       # %bb.0:
66 ; AVX-NEXT:    vbroadcastss {{.*#+}} xmm1 = [-0.0E+0,-0.0E+0,-0.0E+0,-0.0E+0]
67 ; AVX-NEXT:    vorps %xmm1, %xmm0, %xmm0
68 ; AVX-NEXT:    retq
69   %1 = call <4 x float> @llvm.copysign.v4f32(<4 x float> %x, <4 x float> <float -2.0, float -2.0, float -2.0, float -2.0>)
70   ret <4 x float> %1
73 define <4 x float> @combine_vec_fcopysign_neg_constant1(<4 x float> %x) {
74 ; SSE-LABEL: combine_vec_fcopysign_neg_constant1:
75 ; SSE:       # %bb.0:
76 ; SSE-NEXT:    orps {{.*}}(%rip), %xmm0
77 ; SSE-NEXT:    retq
79 ; AVX-LABEL: combine_vec_fcopysign_neg_constant1:
80 ; AVX:       # %bb.0:
81 ; AVX-NEXT:    vbroadcastss {{.*#+}} xmm1 = [-0.0E+0,-0.0E+0,-0.0E+0,-0.0E+0]
82 ; AVX-NEXT:    vorps %xmm1, %xmm0, %xmm0
83 ; AVX-NEXT:    retq
84   %1 = call <4 x float> @llvm.copysign.v4f32(<4 x float> %x, <4 x float> <float -0.0, float -2.0, float -4.0, float -8.0>)
85   ret <4 x float> %1
88 define <4 x float> @combine_vec_fcopysign_fneg_fabs_sgn(<4 x float> %x, <4 x float> %y) {
89 ; SSE-LABEL: combine_vec_fcopysign_fneg_fabs_sgn:
90 ; SSE:       # %bb.0:
91 ; SSE-NEXT:    orps {{.*}}(%rip), %xmm0
92 ; SSE-NEXT:    retq
94 ; AVX-LABEL: combine_vec_fcopysign_fneg_fabs_sgn:
95 ; AVX:       # %bb.0:
96 ; AVX-NEXT:    vbroadcastss {{.*#+}} xmm1 = [-0.0E+0,-0.0E+0,-0.0E+0,-0.0E+0]
97 ; AVX-NEXT:    vorps %xmm1, %xmm0, %xmm0
98 ; AVX-NEXT:    retq
99   %1 = call <4 x float> @llvm.fabs.v4f32(<4 x float> %y)
100   %2 = fsub <4 x float> <float -0.0, float -0.0, float -0.0, float -0.0>, %1
101   %3 = call <4 x float> @llvm.copysign.v4f32(<4 x float> %x, <4 x float> %2)
102   ret <4 x float> %3
105 ; copysign(fabs(x), y) -> copysign(x, y)
106 define <4 x float> @combine_vec_fcopysign_fabs_mag(<4 x float> %x, <4 x float> %y) {
107 ; SSE-LABEL: combine_vec_fcopysign_fabs_mag:
108 ; SSE:       # %bb.0:
109 ; SSE-NEXT:    andps {{.*}}(%rip), %xmm1
110 ; SSE-NEXT:    andps {{.*}}(%rip), %xmm0
111 ; SSE-NEXT:    orps %xmm1, %xmm0
112 ; SSE-NEXT:    retq
114 ; AVX-LABEL: combine_vec_fcopysign_fabs_mag:
115 ; AVX:       # %bb.0:
116 ; AVX-NEXT:    vbroadcastss {{.*#+}} xmm2 = [-0.0E+0,-0.0E+0,-0.0E+0,-0.0E+0]
117 ; AVX-NEXT:    vandps %xmm2, %xmm1, %xmm1
118 ; AVX-NEXT:    vbroadcastss {{.*#+}} xmm2 = [NaN,NaN,NaN,NaN]
119 ; AVX-NEXT:    vandps %xmm2, %xmm0, %xmm0
120 ; AVX-NEXT:    vorps %xmm1, %xmm0, %xmm0
121 ; AVX-NEXT:    retq
122   %1 = call <4 x float> @llvm.fabs.v4f32(<4 x float> %x)
123   %2 = call <4 x float> @llvm.copysign.v4f32(<4 x float> %1, <4 x float> %y)
124   ret <4 x float> %2
127 ; copysign(fneg(x), y) -> copysign(x, y)
128 define <4 x float> @combine_vec_fcopysign_fneg_mag(<4 x float> %x, <4 x float> %y) {
129 ; SSE-LABEL: combine_vec_fcopysign_fneg_mag:
130 ; SSE:       # %bb.0:
131 ; SSE-NEXT:    andps {{.*}}(%rip), %xmm1
132 ; SSE-NEXT:    andps {{.*}}(%rip), %xmm0
133 ; SSE-NEXT:    orps %xmm1, %xmm0
134 ; SSE-NEXT:    retq
136 ; AVX-LABEL: combine_vec_fcopysign_fneg_mag:
137 ; AVX:       # %bb.0:
138 ; AVX-NEXT:    vbroadcastss {{.*#+}} xmm2 = [-0.0E+0,-0.0E+0,-0.0E+0,-0.0E+0]
139 ; AVX-NEXT:    vandps %xmm2, %xmm1, %xmm1
140 ; AVX-NEXT:    vbroadcastss {{.*#+}} xmm2 = [NaN,NaN,NaN,NaN]
141 ; AVX-NEXT:    vandps %xmm2, %xmm0, %xmm0
142 ; AVX-NEXT:    vorps %xmm1, %xmm0, %xmm0
143 ; AVX-NEXT:    retq
144   %1 = fsub <4 x float> <float -0.0, float -0.0, float -0.0, float -0.0>, %x
145   %2 = call <4 x float> @llvm.copysign.v4f32(<4 x float> %1, <4 x float> %y)
146   ret <4 x float> %2
149 ; copysign(copysign(x,z), y) -> copysign(x, y)
150 define <4 x float> @combine_vec_fcopysign_fcopysign_mag(<4 x float> %x, <4 x float> %y, <4 x float> %z) {
151 ; SSE-LABEL: combine_vec_fcopysign_fcopysign_mag:
152 ; SSE:       # %bb.0:
153 ; SSE-NEXT:    andps {{.*}}(%rip), %xmm1
154 ; SSE-NEXT:    andps {{.*}}(%rip), %xmm0
155 ; SSE-NEXT:    orps %xmm1, %xmm0
156 ; SSE-NEXT:    retq
158 ; AVX-LABEL: combine_vec_fcopysign_fcopysign_mag:
159 ; AVX:       # %bb.0:
160 ; AVX-NEXT:    vbroadcastss {{.*#+}} xmm2 = [-0.0E+0,-0.0E+0,-0.0E+0,-0.0E+0]
161 ; AVX-NEXT:    vandps %xmm2, %xmm1, %xmm1
162 ; AVX-NEXT:    vbroadcastss {{.*#+}} xmm2 = [NaN,NaN,NaN,NaN]
163 ; AVX-NEXT:    vandps %xmm2, %xmm0, %xmm0
164 ; AVX-NEXT:    vorps %xmm1, %xmm0, %xmm0
165 ; AVX-NEXT:    retq
166   %1 = call <4 x float> @llvm.copysign.v4f32(<4 x float> %x, <4 x float> %z)
167   %2 = call <4 x float> @llvm.copysign.v4f32(<4 x float> %1, <4 x float> %y)
168   ret <4 x float> %2
171 ; copysign(x, copysign(y,z)) -> copysign(x, z)
172 define <4 x float> @combine_vec_fcopysign_fcopysign_sgn(<4 x float> %x, <4 x float> %y, <4 x float> %z) {
173 ; SSE-LABEL: combine_vec_fcopysign_fcopysign_sgn:
174 ; SSE:       # %bb.0:
175 ; SSE-NEXT:    andps {{.*}}(%rip), %xmm2
176 ; SSE-NEXT:    andps {{.*}}(%rip), %xmm0
177 ; SSE-NEXT:    orps %xmm2, %xmm0
178 ; SSE-NEXT:    retq
180 ; AVX-LABEL: combine_vec_fcopysign_fcopysign_sgn:
181 ; AVX:       # %bb.0:
182 ; AVX-NEXT:    vbroadcastss {{.*#+}} xmm1 = [-0.0E+0,-0.0E+0,-0.0E+0,-0.0E+0]
183 ; AVX-NEXT:    vandps %xmm1, %xmm2, %xmm1
184 ; AVX-NEXT:    vbroadcastss {{.*#+}} xmm2 = [NaN,NaN,NaN,NaN]
185 ; AVX-NEXT:    vandps %xmm2, %xmm0, %xmm0
186 ; AVX-NEXT:    vorps %xmm1, %xmm0, %xmm0
187 ; AVX-NEXT:    retq
188   %1 = call <4 x float> @llvm.copysign.v4f32(<4 x float> %y, <4 x float> %z)
189   %2 = call <4 x float> @llvm.copysign.v4f32(<4 x float> %x, <4 x float> %1)
190   ret <4 x float> %2
193 ; copysign(x, fp_extend(y)) -> copysign(x, y)
194 define <4 x double> @combine_vec_fcopysign_fpext_sgn(<4 x double> %x, <4 x float> %y) {
195 ; SSE-LABEL: combine_vec_fcopysign_fpext_sgn:
196 ; SSE:       # %bb.0:
197 ; SSE-NEXT:    movaps %xmm2, %xmm3
198 ; SSE-NEXT:    movshdup {{.*#+}} xmm4 = xmm2[1,1,3,3]
199 ; SSE-NEXT:    cvtss2sd %xmm2, %xmm5
200 ; SSE-NEXT:    movhlps {{.*#+}} xmm2 = xmm2[1,1]
201 ; SSE-NEXT:    shufps {{.*#+}} xmm3 = xmm3[3,1,2,3]
202 ; SSE-NEXT:    movaps {{.*#+}} xmm6 = [NaN,NaN]
203 ; SSE-NEXT:    cvtss2sd %xmm3, %xmm3
204 ; SSE-NEXT:    movaps %xmm6, %xmm7
205 ; SSE-NEXT:    andnps %xmm3, %xmm7
206 ; SSE-NEXT:    movaps %xmm1, %xmm3
207 ; SSE-NEXT:    unpckhpd {{.*#+}} xmm3 = xmm3[1],xmm1[1]
208 ; SSE-NEXT:    andps %xmm6, %xmm3
209 ; SSE-NEXT:    orps %xmm3, %xmm7
210 ; SSE-NEXT:    andps %xmm6, %xmm1
211 ; SSE-NEXT:    cvtss2sd %xmm2, %xmm2
212 ; SSE-NEXT:    movaps %xmm6, %xmm3
213 ; SSE-NEXT:    andnps %xmm2, %xmm3
214 ; SSE-NEXT:    orps %xmm3, %xmm1
215 ; SSE-NEXT:    movlhps {{.*#+}} xmm1 = xmm1[0],xmm7[0]
216 ; SSE-NEXT:    movaps %xmm0, %xmm2
217 ; SSE-NEXT:    unpckhpd {{.*#+}} xmm2 = xmm2[1],xmm0[1]
218 ; SSE-NEXT:    andps %xmm6, %xmm2
219 ; SSE-NEXT:    xorps %xmm3, %xmm3
220 ; SSE-NEXT:    cvtss2sd %xmm4, %xmm3
221 ; SSE-NEXT:    andps %xmm6, %xmm0
222 ; SSE-NEXT:    andnps %xmm3, %xmm6
223 ; SSE-NEXT:    orps %xmm2, %xmm6
224 ; SSE-NEXT:    andps {{.*}}(%rip), %xmm5
225 ; SSE-NEXT:    orps %xmm5, %xmm0
226 ; SSE-NEXT:    movlhps {{.*#+}} xmm0 = xmm0[0],xmm6[0]
227 ; SSE-NEXT:    retq
229 ; AVX-LABEL: combine_vec_fcopysign_fpext_sgn:
230 ; AVX:       # %bb.0:
231 ; AVX-NEXT:    vbroadcastsd {{.*#+}} ymm2 = [NaN,NaN,NaN,NaN]
232 ; AVX-NEXT:    vandps %ymm2, %ymm0, %ymm0
233 ; AVX-NEXT:    vcvtps2pd %xmm1, %ymm1
234 ; AVX-NEXT:    vbroadcastsd {{.*#+}} ymm2 = [-0.0E+0,-0.0E+0,-0.0E+0,-0.0E+0]
235 ; AVX-NEXT:    vandps %ymm2, %ymm1, %ymm1
236 ; AVX-NEXT:    vorps %ymm1, %ymm0, %ymm0
237 ; AVX-NEXT:    retq
238   %1 = fpext <4 x float> %y to <4 x double>
239   %2 = call <4 x double> @llvm.copysign.v4f64(<4 x double> %x, <4 x double> %1)
240   ret <4 x double> %2
243 ; copysign(x, fp_round(y)) -> copysign(x, y)
244 define <4 x float> @combine_vec_fcopysign_fptrunc_sgn(<4 x float> %x, <4 x double> %y) {
245 ; SSE-LABEL: combine_vec_fcopysign_fptrunc_sgn:
246 ; SSE:       # %bb.0:
247 ; SSE-NEXT:    movaps %xmm0, %xmm3
248 ; SSE-NEXT:    unpckhpd {{.*#+}} xmm3 = xmm3[1],xmm0[1]
249 ; SSE-NEXT:    movaps {{.*#+}} xmm4 = [NaN,NaN,NaN,NaN]
250 ; SSE-NEXT:    andps %xmm4, %xmm3
251 ; SSE-NEXT:    cvtsd2ss %xmm2, %xmm5
252 ; SSE-NEXT:    movaps %xmm4, %xmm6
253 ; SSE-NEXT:    andnps %xmm5, %xmm6
254 ; SSE-NEXT:    orps %xmm3, %xmm6
255 ; SSE-NEXT:    movaps %xmm0, %xmm3
256 ; SSE-NEXT:    andps %xmm4, %xmm3
257 ; SSE-NEXT:    xorps %xmm5, %xmm5
258 ; SSE-NEXT:    cvtsd2ss %xmm1, %xmm5
259 ; SSE-NEXT:    movaps %xmm4, %xmm7
260 ; SSE-NEXT:    andnps %xmm5, %xmm7
261 ; SSE-NEXT:    orps %xmm7, %xmm3
262 ; SSE-NEXT:    movshdup {{.*#+}} xmm5 = xmm0[1,1,3,3]
263 ; SSE-NEXT:    andps %xmm4, %xmm5
264 ; SSE-NEXT:    movhlps {{.*#+}} xmm1 = xmm1[1,1]
265 ; SSE-NEXT:    cvtsd2ss %xmm1, %xmm1
266 ; SSE-NEXT:    andps {{.*}}(%rip), %xmm1
267 ; SSE-NEXT:    orps %xmm5, %xmm1
268 ; SSE-NEXT:    unpcklps {{.*#+}} xmm3 = xmm3[0],xmm1[0],xmm3[1],xmm1[1]
269 ; SSE-NEXT:    insertps {{.*#+}} xmm3 = xmm3[0,1],xmm6[0],xmm3[3]
270 ; SSE-NEXT:    shufps {{.*#+}} xmm0 = xmm0[3,1,2,3]
271 ; SSE-NEXT:    andps %xmm4, %xmm0
272 ; SSE-NEXT:    movhlps {{.*#+}} xmm2 = xmm2[1,1]
273 ; SSE-NEXT:    xorps %xmm1, %xmm1
274 ; SSE-NEXT:    cvtsd2ss %xmm2, %xmm1
275 ; SSE-NEXT:    andnps %xmm1, %xmm4
276 ; SSE-NEXT:    orps %xmm0, %xmm4
277 ; SSE-NEXT:    insertps {{.*#+}} xmm3 = xmm3[0,1,2],xmm4[0]
278 ; SSE-NEXT:    movaps %xmm3, %xmm0
279 ; SSE-NEXT:    retq
281 ; AVX-LABEL: combine_vec_fcopysign_fptrunc_sgn:
282 ; AVX:       # %bb.0:
283 ; AVX-NEXT:    vbroadcastss {{.*#+}} xmm2 = [NaN,NaN,NaN,NaN]
284 ; AVX-NEXT:    vandpd %xmm2, %xmm0, %xmm0
285 ; AVX-NEXT:    vcvtpd2ps %ymm1, %xmm1
286 ; AVX-NEXT:    vbroadcastss {{.*#+}} xmm2 = [-0.0E+0,-0.0E+0,-0.0E+0,-0.0E+0]
287 ; AVX-NEXT:    vandpd %xmm2, %xmm1, %xmm1
288 ; AVX-NEXT:    vorpd %xmm1, %xmm0, %xmm0
289 ; AVX-NEXT:    vzeroupper
290 ; AVX-NEXT:    retq
291   %1 = fptrunc <4 x double> %y to <4 x float>
292   %2 = call <4 x float> @llvm.copysign.v4f32(<4 x float> %x, <4 x float> %1)
293   ret <4 x float> %2
296 declare <4 x float> @llvm.fabs.v4f32(<4 x float> %p)
297 declare <4 x float> @llvm.copysign.v4f32(<4 x float> %Mag, <4 x float> %Sgn)
298 declare <4 x double> @llvm.copysign.v4f64(<4 x double> %Mag, <4 x double> %Sgn)