Use Align for TFL::TransientStackAlignment
[llvm-core.git] / test / CodeGen / X86 / vector-reduce-fmin.ll
blob74e5a722abda9bbe9e7452a7354eb679d4aff250
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+sse2 | FileCheck %s --check-prefix=ALL --check-prefix=SSE --check-prefix=SSE2
3 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+sse4.1 | FileCheck %s --check-prefix=ALL --check-prefix=SSE --check-prefix=SSE41
4 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+avx | FileCheck %s --check-prefix=ALL --check-prefix=AVX --check-prefix=AVX1
5 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+avx2 | FileCheck %s --check-prefix=ALL --check-prefix=AVX --check-prefix=AVX2
6 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+avx512f,+avx512bw | FileCheck %s --check-prefix=ALL --check-prefix=AVX512 --check-prefix=AVX512BW
7 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+avx512f,+avx512bw,+avx512vl | FileCheck %s --check-prefix=ALL --check-prefix=AVX512 --check-prefix=AVX512VL
10 ; vXf32
13 define float @test_v2f32(<2 x float> %a0) {
14 ; SSE2-LABEL: test_v2f32:
15 ; SSE2:       # %bb.0:
16 ; SSE2-NEXT:    movaps %xmm0, %xmm1
17 ; SSE2-NEXT:    shufps {{.*#+}} xmm1 = xmm1[1,1],xmm0[2,3]
18 ; SSE2-NEXT:    minss %xmm1, %xmm0
19 ; SSE2-NEXT:    retq
21 ; SSE41-LABEL: test_v2f32:
22 ; SSE41:       # %bb.0:
23 ; SSE41-NEXT:    movshdup {{.*#+}} xmm1 = xmm0[1,1,3,3]
24 ; SSE41-NEXT:    minss %xmm1, %xmm0
25 ; SSE41-NEXT:    retq
27 ; AVX-LABEL: test_v2f32:
28 ; AVX:       # %bb.0:
29 ; AVX-NEXT:    vmovshdup {{.*#+}} xmm1 = xmm0[1,1,3,3]
30 ; AVX-NEXT:    vminss %xmm1, %xmm0, %xmm0
31 ; AVX-NEXT:    retq
33 ; AVX512-LABEL: test_v2f32:
34 ; AVX512:       # %bb.0:
35 ; AVX512-NEXT:    vmovshdup {{.*#+}} xmm1 = xmm0[1,1,3,3]
36 ; AVX512-NEXT:    vminss %xmm1, %xmm0, %xmm0
37 ; AVX512-NEXT:    retq
38   %1 = call float @llvm.experimental.vector.reduce.fmin.v2f32(<2 x float> %a0)
39   ret float %1
42 define float @test_v4f32(<4 x float> %a0) {
43 ; SSE2-LABEL: test_v4f32:
44 ; SSE2:       # %bb.0:
45 ; SSE2-NEXT:    movaps %xmm0, %xmm1
46 ; SSE2-NEXT:    unpckhpd {{.*#+}} xmm1 = xmm1[1],xmm0[1]
47 ; SSE2-NEXT:    minps %xmm1, %xmm0
48 ; SSE2-NEXT:    movaps %xmm0, %xmm1
49 ; SSE2-NEXT:    shufps {{.*#+}} xmm1 = xmm1[1,1],xmm0[2,3]
50 ; SSE2-NEXT:    minss %xmm1, %xmm0
51 ; SSE2-NEXT:    retq
53 ; SSE41-LABEL: test_v4f32:
54 ; SSE41:       # %bb.0:
55 ; SSE41-NEXT:    movaps %xmm0, %xmm1
56 ; SSE41-NEXT:    unpckhpd {{.*#+}} xmm1 = xmm1[1],xmm0[1]
57 ; SSE41-NEXT:    minps %xmm1, %xmm0
58 ; SSE41-NEXT:    movshdup {{.*#+}} xmm1 = xmm0[1,1,3,3]
59 ; SSE41-NEXT:    minss %xmm1, %xmm0
60 ; SSE41-NEXT:    retq
62 ; AVX-LABEL: test_v4f32:
63 ; AVX:       # %bb.0:
64 ; AVX-NEXT:    vpermilpd {{.*#+}} xmm1 = xmm0[1,0]
65 ; AVX-NEXT:    vminps %xmm1, %xmm0, %xmm0
66 ; AVX-NEXT:    vmovshdup {{.*#+}} xmm1 = xmm0[1,1,3,3]
67 ; AVX-NEXT:    vminss %xmm1, %xmm0, %xmm0
68 ; AVX-NEXT:    retq
70 ; AVX512-LABEL: test_v4f32:
71 ; AVX512:       # %bb.0:
72 ; AVX512-NEXT:    vpermilpd {{.*#+}} xmm1 = xmm0[1,0]
73 ; AVX512-NEXT:    vminps %xmm1, %xmm0, %xmm0
74 ; AVX512-NEXT:    vmovshdup {{.*#+}} xmm1 = xmm0[1,1,3,3]
75 ; AVX512-NEXT:    vminss %xmm1, %xmm0, %xmm0
76 ; AVX512-NEXT:    retq
77   %1 = call float @llvm.experimental.vector.reduce.fmin.v4f32(<4 x float> %a0)
78   ret float %1
81 define float @test_v8f32(<8 x float> %a0) {
82 ; SSE2-LABEL: test_v8f32:
83 ; SSE2:       # %bb.0:
84 ; SSE2-NEXT:    minps %xmm1, %xmm0
85 ; SSE2-NEXT:    movaps %xmm0, %xmm1
86 ; SSE2-NEXT:    unpckhpd {{.*#+}} xmm1 = xmm1[1],xmm0[1]
87 ; SSE2-NEXT:    minps %xmm1, %xmm0
88 ; SSE2-NEXT:    movaps %xmm0, %xmm1
89 ; SSE2-NEXT:    shufps {{.*#+}} xmm1 = xmm1[1,1],xmm0[2,3]
90 ; SSE2-NEXT:    minss %xmm1, %xmm0
91 ; SSE2-NEXT:    retq
93 ; SSE41-LABEL: test_v8f32:
94 ; SSE41:       # %bb.0:
95 ; SSE41-NEXT:    minps %xmm1, %xmm0
96 ; SSE41-NEXT:    movaps %xmm0, %xmm1
97 ; SSE41-NEXT:    unpckhpd {{.*#+}} xmm1 = xmm1[1],xmm0[1]
98 ; SSE41-NEXT:    minps %xmm1, %xmm0
99 ; SSE41-NEXT:    movshdup {{.*#+}} xmm1 = xmm0[1,1,3,3]
100 ; SSE41-NEXT:    minss %xmm1, %xmm0
101 ; SSE41-NEXT:    retq
103 ; AVX-LABEL: test_v8f32:
104 ; AVX:       # %bb.0:
105 ; AVX-NEXT:    vextractf128 $1, %ymm0, %xmm1
106 ; AVX-NEXT:    vminps %xmm1, %xmm0, %xmm0
107 ; AVX-NEXT:    vpermilpd {{.*#+}} xmm1 = xmm0[1,0]
108 ; AVX-NEXT:    vminps %xmm1, %xmm0, %xmm0
109 ; AVX-NEXT:    vmovshdup {{.*#+}} xmm1 = xmm0[1,1,3,3]
110 ; AVX-NEXT:    vminss %xmm1, %xmm0, %xmm0
111 ; AVX-NEXT:    vzeroupper
112 ; AVX-NEXT:    retq
114 ; AVX512-LABEL: test_v8f32:
115 ; AVX512:       # %bb.0:
116 ; AVX512-NEXT:    vextractf128 $1, %ymm0, %xmm1
117 ; AVX512-NEXT:    vminps %xmm1, %xmm0, %xmm0
118 ; AVX512-NEXT:    vpermilpd {{.*#+}} xmm1 = xmm0[1,0]
119 ; AVX512-NEXT:    vminps %xmm1, %xmm0, %xmm0
120 ; AVX512-NEXT:    vmovshdup {{.*#+}} xmm1 = xmm0[1,1,3,3]
121 ; AVX512-NEXT:    vminss %xmm1, %xmm0, %xmm0
122 ; AVX512-NEXT:    vzeroupper
123 ; AVX512-NEXT:    retq
124   %1 = call float @llvm.experimental.vector.reduce.fmin.v8f32(<8 x float> %a0)
125   ret float %1
128 define float @test_v16f32(<16 x float> %a0) {
129 ; SSE2-LABEL: test_v16f32:
130 ; SSE2:       # %bb.0:
131 ; SSE2-NEXT:    minps %xmm3, %xmm1
132 ; SSE2-NEXT:    minps %xmm2, %xmm0
133 ; SSE2-NEXT:    minps %xmm1, %xmm0
134 ; SSE2-NEXT:    movaps %xmm0, %xmm1
135 ; SSE2-NEXT:    unpckhpd {{.*#+}} xmm1 = xmm1[1],xmm0[1]
136 ; SSE2-NEXT:    minps %xmm1, %xmm0
137 ; SSE2-NEXT:    movaps %xmm0, %xmm1
138 ; SSE2-NEXT:    shufps {{.*#+}} xmm1 = xmm1[1,1],xmm0[2,3]
139 ; SSE2-NEXT:    minss %xmm1, %xmm0
140 ; SSE2-NEXT:    retq
142 ; SSE41-LABEL: test_v16f32:
143 ; SSE41:       # %bb.0:
144 ; SSE41-NEXT:    minps %xmm3, %xmm1
145 ; SSE41-NEXT:    minps %xmm2, %xmm0
146 ; SSE41-NEXT:    minps %xmm1, %xmm0
147 ; SSE41-NEXT:    movaps %xmm0, %xmm1
148 ; SSE41-NEXT:    unpckhpd {{.*#+}} xmm1 = xmm1[1],xmm0[1]
149 ; SSE41-NEXT:    minps %xmm1, %xmm0
150 ; SSE41-NEXT:    movshdup {{.*#+}} xmm1 = xmm0[1,1,3,3]
151 ; SSE41-NEXT:    minss %xmm1, %xmm0
152 ; SSE41-NEXT:    retq
154 ; AVX-LABEL: test_v16f32:
155 ; AVX:       # %bb.0:
156 ; AVX-NEXT:    vminps %ymm1, %ymm0, %ymm0
157 ; AVX-NEXT:    vextractf128 $1, %ymm0, %xmm1
158 ; AVX-NEXT:    vminps %xmm1, %xmm0, %xmm0
159 ; AVX-NEXT:    vpermilpd {{.*#+}} xmm1 = xmm0[1,0]
160 ; AVX-NEXT:    vminps %xmm1, %xmm0, %xmm0
161 ; AVX-NEXT:    vmovshdup {{.*#+}} xmm1 = xmm0[1,1,3,3]
162 ; AVX-NEXT:    vminss %xmm1, %xmm0, %xmm0
163 ; AVX-NEXT:    vzeroupper
164 ; AVX-NEXT:    retq
166 ; AVX512-LABEL: test_v16f32:
167 ; AVX512:       # %bb.0:
168 ; AVX512-NEXT:    vextractf64x4 $1, %zmm0, %ymm1
169 ; AVX512-NEXT:    vminps %zmm1, %zmm0, %zmm0
170 ; AVX512-NEXT:    vextractf128 $1, %ymm0, %xmm1
171 ; AVX512-NEXT:    vminps %xmm1, %xmm0, %xmm0
172 ; AVX512-NEXT:    vpermilpd {{.*#+}} xmm1 = xmm0[1,0]
173 ; AVX512-NEXT:    vminps %xmm1, %xmm0, %xmm0
174 ; AVX512-NEXT:    vmovshdup {{.*#+}} xmm1 = xmm0[1,1,3,3]
175 ; AVX512-NEXT:    vminss %xmm1, %xmm0, %xmm0
176 ; AVX512-NEXT:    vzeroupper
177 ; AVX512-NEXT:    retq
178   %1 = call float @llvm.experimental.vector.reduce.fmin.v16f32(<16 x float> %a0)
179   ret float %1
183 ; vXf64
186 define double @test_v2f64(<2 x double> %a0) {
187 ; SSE-LABEL: test_v2f64:
188 ; SSE:       # %bb.0:
189 ; SSE-NEXT:    movapd %xmm0, %xmm1
190 ; SSE-NEXT:    unpckhpd {{.*#+}} xmm1 = xmm1[1],xmm0[1]
191 ; SSE-NEXT:    minsd %xmm1, %xmm0
192 ; SSE-NEXT:    retq
194 ; AVX-LABEL: test_v2f64:
195 ; AVX:       # %bb.0:
196 ; AVX-NEXT:    vpermilpd {{.*#+}} xmm1 = xmm0[1,0]
197 ; AVX-NEXT:    vminsd %xmm1, %xmm0, %xmm0
198 ; AVX-NEXT:    retq
200 ; AVX512-LABEL: test_v2f64:
201 ; AVX512:       # %bb.0:
202 ; AVX512-NEXT:    vpermilpd {{.*#+}} xmm1 = xmm0[1,0]
203 ; AVX512-NEXT:    vminsd %xmm1, %xmm0, %xmm0
204 ; AVX512-NEXT:    retq
205   %1 = call double @llvm.experimental.vector.reduce.fmin.v2f64(<2 x double> %a0)
206   ret double %1
209 define double @test_v4f64(<4 x double> %a0) {
210 ; SSE-LABEL: test_v4f64:
211 ; SSE:       # %bb.0:
212 ; SSE-NEXT:    minpd %xmm1, %xmm0
213 ; SSE-NEXT:    movapd %xmm0, %xmm1
214 ; SSE-NEXT:    unpckhpd {{.*#+}} xmm1 = xmm1[1],xmm0[1]
215 ; SSE-NEXT:    minsd %xmm1, %xmm0
216 ; SSE-NEXT:    retq
218 ; AVX-LABEL: test_v4f64:
219 ; AVX:       # %bb.0:
220 ; AVX-NEXT:    vextractf128 $1, %ymm0, %xmm1
221 ; AVX-NEXT:    vminpd %xmm1, %xmm0, %xmm0
222 ; AVX-NEXT:    vpermilpd {{.*#+}} xmm1 = xmm0[1,0]
223 ; AVX-NEXT:    vminsd %xmm1, %xmm0, %xmm0
224 ; AVX-NEXT:    vzeroupper
225 ; AVX-NEXT:    retq
227 ; AVX512-LABEL: test_v4f64:
228 ; AVX512:       # %bb.0:
229 ; AVX512-NEXT:    vextractf128 $1, %ymm0, %xmm1
230 ; AVX512-NEXT:    vminpd %xmm1, %xmm0, %xmm0
231 ; AVX512-NEXT:    vpermilpd {{.*#+}} xmm1 = xmm0[1,0]
232 ; AVX512-NEXT:    vminsd %xmm1, %xmm0, %xmm0
233 ; AVX512-NEXT:    vzeroupper
234 ; AVX512-NEXT:    retq
235   %1 = call double @llvm.experimental.vector.reduce.fmin.v4f64(<4 x double> %a0)
236   ret double %1
239 define double @test_v8f64(<8 x double> %a0) {
240 ; SSE-LABEL: test_v8f64:
241 ; SSE:       # %bb.0:
242 ; SSE-NEXT:    minpd %xmm3, %xmm1
243 ; SSE-NEXT:    minpd %xmm2, %xmm0
244 ; SSE-NEXT:    minpd %xmm1, %xmm0
245 ; SSE-NEXT:    movapd %xmm0, %xmm1
246 ; SSE-NEXT:    unpckhpd {{.*#+}} xmm1 = xmm1[1],xmm0[1]
247 ; SSE-NEXT:    minsd %xmm1, %xmm0
248 ; SSE-NEXT:    retq
250 ; AVX-LABEL: test_v8f64:
251 ; AVX:       # %bb.0:
252 ; AVX-NEXT:    vminpd %ymm1, %ymm0, %ymm0
253 ; AVX-NEXT:    vextractf128 $1, %ymm0, %xmm1
254 ; AVX-NEXT:    vminpd %xmm1, %xmm0, %xmm0
255 ; AVX-NEXT:    vpermilpd {{.*#+}} xmm1 = xmm0[1,0]
256 ; AVX-NEXT:    vminsd %xmm1, %xmm0, %xmm0
257 ; AVX-NEXT:    vzeroupper
258 ; AVX-NEXT:    retq
260 ; AVX512-LABEL: test_v8f64:
261 ; AVX512:       # %bb.0:
262 ; AVX512-NEXT:    vextractf64x4 $1, %zmm0, %ymm1
263 ; AVX512-NEXT:    vminpd %zmm1, %zmm0, %zmm0
264 ; AVX512-NEXT:    vextractf128 $1, %ymm0, %xmm1
265 ; AVX512-NEXT:    vminpd %xmm1, %xmm0, %xmm0
266 ; AVX512-NEXT:    vpermilpd {{.*#+}} xmm1 = xmm0[1,0]
267 ; AVX512-NEXT:    vminsd %xmm1, %xmm0, %xmm0
268 ; AVX512-NEXT:    vzeroupper
269 ; AVX512-NEXT:    retq
270   %1 = call double @llvm.experimental.vector.reduce.fmin.v8f64(<8 x double> %a0)
271   ret double %1
274 define double @test_v16f64(<16 x double> %a0) {
275 ; SSE-LABEL: test_v16f64:
276 ; SSE:       # %bb.0:
277 ; SSE-NEXT:    minpd %xmm6, %xmm2
278 ; SSE-NEXT:    minpd %xmm4, %xmm0
279 ; SSE-NEXT:    minpd %xmm2, %xmm0
280 ; SSE-NEXT:    minpd %xmm7, %xmm3
281 ; SSE-NEXT:    minpd %xmm5, %xmm1
282 ; SSE-NEXT:    minpd %xmm3, %xmm1
283 ; SSE-NEXT:    minpd %xmm1, %xmm0
284 ; SSE-NEXT:    movapd %xmm0, %xmm1
285 ; SSE-NEXT:    unpckhpd {{.*#+}} xmm1 = xmm1[1],xmm0[1]
286 ; SSE-NEXT:    minsd %xmm1, %xmm0
287 ; SSE-NEXT:    retq
289 ; AVX-LABEL: test_v16f64:
290 ; AVX:       # %bb.0:
291 ; AVX-NEXT:    vminpd %ymm3, %ymm1, %ymm1
292 ; AVX-NEXT:    vminpd %ymm2, %ymm0, %ymm0
293 ; AVX-NEXT:    vminpd %ymm1, %ymm0, %ymm0
294 ; AVX-NEXT:    vextractf128 $1, %ymm0, %xmm1
295 ; AVX-NEXT:    vminpd %xmm1, %xmm0, %xmm0
296 ; AVX-NEXT:    vpermilpd {{.*#+}} xmm1 = xmm0[1,0]
297 ; AVX-NEXT:    vminsd %xmm1, %xmm0, %xmm0
298 ; AVX-NEXT:    vzeroupper
299 ; AVX-NEXT:    retq
301 ; AVX512-LABEL: test_v16f64:
302 ; AVX512:       # %bb.0:
303 ; AVX512-NEXT:    vminpd %zmm1, %zmm0, %zmm0
304 ; AVX512-NEXT:    vextractf64x4 $1, %zmm0, %ymm1
305 ; AVX512-NEXT:    vminpd %zmm1, %zmm0, %zmm0
306 ; AVX512-NEXT:    vextractf128 $1, %ymm0, %xmm1
307 ; AVX512-NEXT:    vminpd %xmm1, %xmm0, %xmm0
308 ; AVX512-NEXT:    vpermilpd {{.*#+}} xmm1 = xmm0[1,0]
309 ; AVX512-NEXT:    vminsd %xmm1, %xmm0, %xmm0
310 ; AVX512-NEXT:    vzeroupper
311 ; AVX512-NEXT:    retq
312   %1 = call double @llvm.experimental.vector.reduce.fmin.v16f64(<16 x double> %a0)
313   ret double %1
316 declare float @llvm.experimental.vector.reduce.fmin.v2f32(<2 x float>)
317 declare float @llvm.experimental.vector.reduce.fmin.v4f32(<4 x float>)
318 declare float @llvm.experimental.vector.reduce.fmin.v8f32(<8 x float>)
319 declare float @llvm.experimental.vector.reduce.fmin.v16f32(<16 x float>)
321 declare double @llvm.experimental.vector.reduce.fmin.v2f64(<2 x double>)
322 declare double @llvm.experimental.vector.reduce.fmin.v4f64(<4 x double>)
323 declare double @llvm.experimental.vector.reduce.fmin.v8f64(<8 x double>)
324 declare double @llvm.experimental.vector.reduce.fmin.v16f64(<16 x double>)