[ARM] Adjust how NEON shifts are lowered
[llvm-core.git] / test / CodeGen / X86 / trunc-subvector.ll
blobd52fe0f8ff8eae2736e465c8d4d3d6cda40b5bd3
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+sse2 | FileCheck %s --check-prefix=SSE2
3 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+avx2 | FileCheck %s --check-prefixes=AVX,AVX2
4 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+avx512f | FileCheck %s --check-prefixes=AVX,AVX512,AVX512F
5 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+avx512bw | FileCheck %s --check-prefixes=AVX,AVX512,AVX512BW
7 define <4 x i32> @test1(<8 x i32> %v) {
8 ; SSE2-LABEL: test1:
9 ; SSE2:       # %bb.0:
10 ; SSE2-NEXT:    retq
12 ; AVX-LABEL: test1:
13 ; AVX:       # %bb.0:
14 ; AVX-NEXT:    # kill: def $xmm0 killed $xmm0 killed $ymm0
15 ; AVX-NEXT:    vzeroupper
16 ; AVX-NEXT:    retq
17   %x = sext <8 x i32> %v to <8 x i64>
18   %s = shufflevector <8 x i64> %x, <8 x i64> undef, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
19   %t = trunc <4 x i64> %s to <4 x i32>
20   ret <4 x i32> %t
23 define <4 x i32> @test2(<8 x i32> %v) {
24 ; SSE2-LABEL: test2:
25 ; SSE2:       # %bb.0:
26 ; SSE2-NEXT:    movaps %xmm1, %xmm0
27 ; SSE2-NEXT:    retq
29 ; AVX-LABEL: test2:
30 ; AVX:       # %bb.0:
31 ; AVX-NEXT:    vextractf128 $1, %ymm0, %xmm0
32 ; AVX-NEXT:    vzeroupper
33 ; AVX-NEXT:    retq
34   %x = sext <8 x i32> %v to <8 x i64>
35   %s = shufflevector <8 x i64> %x, <8 x i64> undef, <4 x i32> <i32 4, i32 5, i32 6, i32 7>
36   %t = trunc <4 x i64> %s to <4 x i32>
37   ret <4 x i32> %t
40 define <2 x i32> @test3(<8 x i32> %v) {
41 ; SSE2-LABEL: test3:
42 ; SSE2:       # %bb.0:
43 ; SSE2-NEXT:    movdqa %xmm1, %xmm0
44 ; SSE2-NEXT:    pxor %xmm1, %xmm1
45 ; SSE2-NEXT:    pcmpgtd %xmm0, %xmm1
46 ; SSE2-NEXT:    punpckldq {{.*#+}} xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1]
47 ; SSE2-NEXT:    retq
49 ; AVX2-LABEL: test3:
50 ; AVX2:       # %bb.0:
51 ; AVX2-NEXT:    vextracti128 $1, %ymm0, %xmm0
52 ; AVX2-NEXT:    vpmovsxdq %xmm0, %xmm0
53 ; AVX2-NEXT:    vzeroupper
54 ; AVX2-NEXT:    retq
56 ; AVX512-LABEL: test3:
57 ; AVX512:       # %bb.0:
58 ; AVX512-NEXT:    vpmovsxdq %ymm0, %zmm0
59 ; AVX512-NEXT:    vextracti32x4 $2, %zmm0, %xmm0
60 ; AVX512-NEXT:    vzeroupper
61 ; AVX512-NEXT:    retq
62   %x = sext <8 x i32> %v to <8 x i64>
63   %s = shufflevector <8 x i64> %x, <8 x i64> undef, <2 x i32> <i32 4, i32 5>
64   %t = trunc <2 x i64> %s to <2 x i32>
65   ret <2 x i32> %t
68 define <2 x i32> @test4(<8 x i32> %v) {
69 ; SSE2-LABEL: test4:
70 ; SSE2:       # %bb.0:
71 ; SSE2-NEXT:    pxor %xmm1, %xmm1
72 ; SSE2-NEXT:    pcmpgtd %xmm0, %xmm1
73 ; SSE2-NEXT:    punpckldq {{.*#+}} xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1]
74 ; SSE2-NEXT:    retq
76 ; AVX2-LABEL: test4:
77 ; AVX2:       # %bb.0:
78 ; AVX2-NEXT:    vpmovsxdq %xmm0, %xmm0
79 ; AVX2-NEXT:    vzeroupper
80 ; AVX2-NEXT:    retq
82 ; AVX512-LABEL: test4:
83 ; AVX512:       # %bb.0:
84 ; AVX512-NEXT:    vpmovsxdq %ymm0, %zmm0
85 ; AVX512-NEXT:    # kill: def $xmm0 killed $xmm0 killed $zmm0
86 ; AVX512-NEXT:    vzeroupper
87 ; AVX512-NEXT:    retq
88   %x = sext <8 x i32> %v to <8 x i64>
89   %s = shufflevector <8 x i64> %x, <8 x i64> undef, <2 x i32> <i32 0, i32 1>
90   %t = trunc <2 x i64> %s to <2 x i32>
91   ret <2 x i32> %t
94 define <2 x i32> @test5(<8 x i32> %v) {
95 ; SSE2-LABEL: test5:
96 ; SSE2:       # %bb.0:
97 ; SSE2-NEXT:    pxor %xmm2, %xmm2
98 ; SSE2-NEXT:    pxor %xmm3, %xmm3
99 ; SSE2-NEXT:    pcmpgtd %xmm1, %xmm3
100 ; SSE2-NEXT:    punpckldq {{.*#+}} xmm1 = xmm1[0],xmm3[0],xmm1[1],xmm3[1]
101 ; SSE2-NEXT:    pshufd {{.*#+}} xmm0 = xmm0[2,3,0,1]
102 ; SSE2-NEXT:    pcmpgtd %xmm0, %xmm2
103 ; SSE2-NEXT:    punpckldq {{.*#+}} xmm0 = xmm0[0],xmm2[0],xmm0[1],xmm2[1]
104 ; SSE2-NEXT:    shufps {{.*#+}} xmm0 = xmm0[2,3],xmm1[0,1]
105 ; SSE2-NEXT:    retq
107 ; AVX2-LABEL: test5:
108 ; AVX2:       # %bb.0:
109 ; AVX2-NEXT:    vpmovsxdq %xmm0, %ymm1
110 ; AVX2-NEXT:    vextracti128 $1, %ymm0, %xmm0
111 ; AVX2-NEXT:    vpmovsxdq %xmm0, %xmm0
112 ; AVX2-NEXT:    vextracti128 $1, %ymm1, %xmm1
113 ; AVX2-NEXT:    vpalignr {{.*#+}} xmm0 = xmm1[8,9,10,11,12,13,14,15],xmm0[0,1,2,3,4,5,6,7]
114 ; AVX2-NEXT:    vzeroupper
115 ; AVX2-NEXT:    retq
117 ; AVX512-LABEL: test5:
118 ; AVX512:       # %bb.0:
119 ; AVX512-NEXT:    vpmovsxdq %ymm0, %zmm0
120 ; AVX512-NEXT:    vextracti32x4 $2, %zmm0, %xmm1
121 ; AVX512-NEXT:    vextracti128 $1, %ymm0, %xmm0
122 ; AVX512-NEXT:    vpalignr {{.*#+}} xmm0 = xmm0[8,9,10,11,12,13,14,15],xmm1[0,1,2,3,4,5,6,7]
123 ; AVX512-NEXT:    vzeroupper
124 ; AVX512-NEXT:    retq
125   %x = sext <8 x i32> %v to <8 x i64>
126   %s = shufflevector <8 x i64> %x, <8 x i64> undef, <2 x i32> <i32 3, i32 4>
127   %t = trunc <2 x i64> %s to <2 x i32>
128   ret <2 x i32> %t
131 define <4 x i32> @test6(<8 x i32> %v) {
132 ; SSE2-LABEL: test6:
133 ; SSE2:       # %bb.0:
134 ; SSE2-NEXT:    retq
136 ; AVX-LABEL: test6:
137 ; AVX:       # %bb.0:
138 ; AVX-NEXT:    # kill: def $xmm0 killed $xmm0 killed $ymm0
139 ; AVX-NEXT:    vzeroupper
140 ; AVX-NEXT:    retq
141   %x = zext <8 x i32> %v to <8 x i64>
142   %s = shufflevector <8 x i64> %x, <8 x i64> undef, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
143   %t = trunc <4 x i64> %s to <4 x i32>
144   ret <4 x i32> %t
147 define <4 x i32> @test7(<8 x i32> %v) {
148 ; SSE2-LABEL: test7:
149 ; SSE2:       # %bb.0:
150 ; SSE2-NEXT:    movaps %xmm1, %xmm0
151 ; SSE2-NEXT:    retq
153 ; AVX-LABEL: test7:
154 ; AVX:       # %bb.0:
155 ; AVX-NEXT:    vextractf128 $1, %ymm0, %xmm0
156 ; AVX-NEXT:    vzeroupper
157 ; AVX-NEXT:    retq
158   %x = zext <8 x i32> %v to <8 x i64>
159   %s = shufflevector <8 x i64> %x, <8 x i64> undef, <4 x i32> <i32 4, i32 5, i32 6, i32 7>
160   %t = trunc <4 x i64> %s to <4 x i32>
161   ret <4 x i32> %t
164 define <2 x i32> @test8(<8 x i32> %v) {
165 ; SSE2-LABEL: test8:
166 ; SSE2:       # %bb.0:
167 ; SSE2-NEXT:    movaps %xmm1, %xmm0
168 ; SSE2-NEXT:    xorps %xmm1, %xmm1
169 ; SSE2-NEXT:    unpcklps {{.*#+}} xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1]
170 ; SSE2-NEXT:    retq
172 ; AVX2-LABEL: test8:
173 ; AVX2:       # %bb.0:
174 ; AVX2-NEXT:    vextracti128 $1, %ymm0, %xmm0
175 ; AVX2-NEXT:    vpmovzxdq {{.*#+}} xmm0 = xmm0[0],zero,xmm0[1],zero
176 ; AVX2-NEXT:    vzeroupper
177 ; AVX2-NEXT:    retq
179 ; AVX512-LABEL: test8:
180 ; AVX512:       # %bb.0:
181 ; AVX512-NEXT:    vpmovzxdq {{.*#+}} zmm0 = ymm0[0],zero,ymm0[1],zero,ymm0[2],zero,ymm0[3],zero,ymm0[4],zero,ymm0[5],zero,ymm0[6],zero,ymm0[7],zero
182 ; AVX512-NEXT:    vextracti32x4 $2, %zmm0, %xmm0
183 ; AVX512-NEXT:    vzeroupper
184 ; AVX512-NEXT:    retq
185   %x = zext <8 x i32> %v to <8 x i64>
186   %s = shufflevector <8 x i64> %x, <8 x i64> undef, <2 x i32> <i32 4, i32 5>
187   %t = trunc <2 x i64> %s to <2 x i32>
188   ret <2 x i32> %t
191 define <2 x i32> @test9(<8 x i32> %v) {
192 ; SSE2-LABEL: test9:
193 ; SSE2:       # %bb.0:
194 ; SSE2-NEXT:    xorps %xmm1, %xmm1
195 ; SSE2-NEXT:    unpcklps {{.*#+}} xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1]
196 ; SSE2-NEXT:    retq
198 ; AVX2-LABEL: test9:
199 ; AVX2:       # %bb.0:
200 ; AVX2-NEXT:    vpmovzxdq {{.*#+}} xmm0 = xmm0[0],zero,xmm0[1],zero
201 ; AVX2-NEXT:    vzeroupper
202 ; AVX2-NEXT:    retq
204 ; AVX512-LABEL: test9:
205 ; AVX512:       # %bb.0:
206 ; AVX512-NEXT:    vpmovzxdq {{.*#+}} zmm0 = ymm0[0],zero,ymm0[1],zero,ymm0[2],zero,ymm0[3],zero,ymm0[4],zero,ymm0[5],zero,ymm0[6],zero,ymm0[7],zero
207 ; AVX512-NEXT:    # kill: def $xmm0 killed $xmm0 killed $zmm0
208 ; AVX512-NEXT:    vzeroupper
209 ; AVX512-NEXT:    retq
210   %x = zext <8 x i32> %v to <8 x i64>
211   %s = shufflevector <8 x i64> %x, <8 x i64> undef, <2 x i32> <i32 0, i32 1>
212   %t = trunc <2 x i64> %s to <2 x i32>
213   ret <2 x i32> %t
216 define <2 x i32> @test10(<8 x i32> %v) {
217 ; SSE2-LABEL: test10:
218 ; SSE2:       # %bb.0:
219 ; SSE2-NEXT:    xorps %xmm2, %xmm2
220 ; SSE2-NEXT:    unpcklps {{.*#+}} xmm1 = xmm1[0],xmm2[0],xmm1[1],xmm2[1]
221 ; SSE2-NEXT:    unpckhps {{.*#+}} xmm0 = xmm0[2],xmm2[2],xmm0[3],xmm2[3]
222 ; SSE2-NEXT:    shufps {{.*#+}} xmm0 = xmm0[2,3],xmm1[0,1]
223 ; SSE2-NEXT:    retq
225 ; AVX2-LABEL: test10:
226 ; AVX2:       # %bb.0:
227 ; AVX2-NEXT:    vpmovzxdq {{.*#+}} ymm1 = xmm0[0],zero,xmm0[1],zero,xmm0[2],zero,xmm0[3],zero
228 ; AVX2-NEXT:    vextracti128 $1, %ymm0, %xmm0
229 ; AVX2-NEXT:    vpmovzxdq {{.*#+}} xmm0 = xmm0[0],zero,xmm0[1],zero
230 ; AVX2-NEXT:    vextracti128 $1, %ymm1, %xmm1
231 ; AVX2-NEXT:    vpalignr {{.*#+}} xmm0 = xmm1[8,9,10,11,12,13,14,15],xmm0[0,1,2,3,4,5,6,7]
232 ; AVX2-NEXT:    vzeroupper
233 ; AVX2-NEXT:    retq
235 ; AVX512-LABEL: test10:
236 ; AVX512:       # %bb.0:
237 ; AVX512-NEXT:    vpmovzxdq {{.*#+}} zmm0 = ymm0[0],zero,ymm0[1],zero,ymm0[2],zero,ymm0[3],zero,ymm0[4],zero,ymm0[5],zero,ymm0[6],zero,ymm0[7],zero
238 ; AVX512-NEXT:    vextracti32x4 $2, %zmm0, %xmm1
239 ; AVX512-NEXT:    vextracti128 $1, %ymm0, %xmm0
240 ; AVX512-NEXT:    vpalignr {{.*#+}} xmm0 = xmm0[8,9,10,11,12,13,14,15],xmm1[0,1,2,3,4,5,6,7]
241 ; AVX512-NEXT:    vzeroupper
242 ; AVX512-NEXT:    retq
243   %x = zext <8 x i32> %v to <8 x i64>
244   %s = shufflevector <8 x i64> %x, <8 x i64> undef, <2 x i32> <i32 3, i32 4>
245   %t = trunc <2 x i64> %s to <2 x i32>
246   ret <2 x i32> %t