[ORC] Add std::tuple support to SimplePackedSerialization.
[llvm-project.git] / llvm / test / CodeGen / X86 / vector-interleaved-load-i16-stride-3.ll
blob4479c1cbd954dc55cd9871d00269aa14364d8905
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc < %s -mtriple=x86_64-- -mattr=+avx2 | FileCheck --check-prefixes=AVX2,AVX2-SLOW %s
3 ; RUN: llc < %s -mtriple=x86_64-- -mattr=+avx2,+fast-variable-crosslane-shuffle,+fast-variable-perlane-shuffle | FileCheck --check-prefixes=AVX2,AVX2-FAST %s
4 ; RUN: llc < %s -mtriple=x86_64-- -mattr=+avx2,+fast-variable-perlane-shuffle | FileCheck --check-prefixes=AVX2,AVX2-FAST %s
6 ; These patterns are produced by LoopVectorizer for interleaved loads.
8 define void @vf2(<6 x i16>* %in.vec, <2 x i16>* %out.vec0, <2 x i16>* %out.vec1, <2 x i16>* %out.vec2) nounwind {
9 ; AVX2-SLOW-LABEL: vf2:
10 ; AVX2-SLOW:       # %bb.0:
11 ; AVX2-SLOW-NEXT:    vmovdqa (%rdi), %xmm0
12 ; AVX2-SLOW-NEXT:    vpshuflw {{.*#+}} xmm1 = xmm0[0,3,2,3,4,5,6,7]
13 ; AVX2-SLOW-NEXT:    vpshufd {{.*#+}} xmm2 = xmm0[0,2,2,3]
14 ; AVX2-SLOW-NEXT:    vpshuflw {{.*#+}} xmm2 = xmm2[1,2,2,3,4,5,6,7]
15 ; AVX2-SLOW-NEXT:    vpshufd {{.*#+}} xmm0 = xmm0[2,1,2,3]
16 ; AVX2-SLOW-NEXT:    vpshuflw {{.*#+}} xmm0 = xmm0[2,1,2,3,4,5,6,7]
17 ; AVX2-SLOW-NEXT:    vmovd %xmm1, (%rsi)
18 ; AVX2-SLOW-NEXT:    vmovd %xmm2, (%rdx)
19 ; AVX2-SLOW-NEXT:    vmovd %xmm0, (%rcx)
20 ; AVX2-SLOW-NEXT:    retq
22 ; AVX2-FAST-LABEL: vf2:
23 ; AVX2-FAST:       # %bb.0:
24 ; AVX2-FAST-NEXT:    vmovdqa (%rdi), %xmm0
25 ; AVX2-FAST-NEXT:    vpshuflw {{.*#+}} xmm1 = xmm0[0,3,2,3,4,5,6,7]
26 ; AVX2-FAST-NEXT:    vpshufb {{.*#+}} xmm2 = xmm0[2,3,8,9,u,u,u,u,u,u,u,u,u,u,u,u]
27 ; AVX2-FAST-NEXT:    vpshufb {{.*#+}} xmm0 = xmm0[4,5,10,11,u,u,u,u,u,u,u,u,u,u,u,u]
28 ; AVX2-FAST-NEXT:    vmovd %xmm1, (%rsi)
29 ; AVX2-FAST-NEXT:    vmovd %xmm2, (%rdx)
30 ; AVX2-FAST-NEXT:    vmovd %xmm0, (%rcx)
31 ; AVX2-FAST-NEXT:    retq
32   %wide.vec = load <6 x i16>, <6 x i16>* %in.vec, align 32
34   %strided.vec0 = shufflevector <6 x i16> %wide.vec, <6 x i16> poison, <2 x i32> <i32 0, i32 3>
35   %strided.vec1 = shufflevector <6 x i16> %wide.vec, <6 x i16> poison, <2 x i32> <i32 1, i32 4>
36   %strided.vec2 = shufflevector <6 x i16> %wide.vec, <6 x i16> poison, <2 x i32> <i32 2, i32 5>
38   store <2 x i16> %strided.vec0, <2 x i16>* %out.vec0, align 32
39   store <2 x i16> %strided.vec1, <2 x i16>* %out.vec1, align 32
40   store <2 x i16> %strided.vec2, <2 x i16>* %out.vec2, align 32
42   ret void
45 define void @vf4(<12 x i16>* %in.vec, <4 x i16>* %out.vec0, <4 x i16>* %out.vec1, <4 x i16>* %out.vec2) nounwind {
46 ; AVX2-SLOW-LABEL: vf4:
47 ; AVX2-SLOW:       # %bb.0:
48 ; AVX2-SLOW-NEXT:    vmovdqa (%rdi), %xmm0
49 ; AVX2-SLOW-NEXT:    vmovdqa 16(%rdi), %xmm1
50 ; AVX2-SLOW-NEXT:    vpblendw {{.*#+}} xmm2 = xmm0[0],xmm1[1],xmm0[2,3,4,5,6,7]
51 ; AVX2-SLOW-NEXT:    vpshufb {{.*#+}} xmm2 = xmm2[0,1,6,7,12,13,2,3,u,u,u,u,u,u,u,u]
52 ; AVX2-SLOW-NEXT:    vpblendd {{.*#+}} xmm3 = xmm0[0],xmm1[1],xmm0[2,3]
53 ; AVX2-SLOW-NEXT:    vpshufb {{.*#+}} xmm3 = xmm3[2,3,8,9,14,15,4,5,u,u,u,u,u,u,u,u]
54 ; AVX2-SLOW-NEXT:    vpshuflw {{.*#+}} xmm1 = xmm1[0,3,2,3,4,5,6,7]
55 ; AVX2-SLOW-NEXT:    vpshufd {{.*#+}} xmm0 = xmm0[2,1,2,3]
56 ; AVX2-SLOW-NEXT:    vpshuflw {{.*#+}} xmm0 = xmm0[2,1,2,3,4,5,6,7]
57 ; AVX2-SLOW-NEXT:    vpunpckldq {{.*#+}} xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1]
58 ; AVX2-SLOW-NEXT:    vmovq %xmm2, (%rsi)
59 ; AVX2-SLOW-NEXT:    vmovq %xmm3, (%rdx)
60 ; AVX2-SLOW-NEXT:    vmovq %xmm0, (%rcx)
61 ; AVX2-SLOW-NEXT:    retq
63 ; AVX2-FAST-LABEL: vf4:
64 ; AVX2-FAST:       # %bb.0:
65 ; AVX2-FAST-NEXT:    vmovdqa (%rdi), %xmm0
66 ; AVX2-FAST-NEXT:    vmovdqa 16(%rdi), %xmm1
67 ; AVX2-FAST-NEXT:    vpblendw {{.*#+}} xmm2 = xmm0[0],xmm1[1],xmm0[2,3,4,5,6,7]
68 ; AVX2-FAST-NEXT:    vpshufb {{.*#+}} xmm2 = xmm2[0,1,6,7,12,13,2,3,u,u,u,u,u,u,u,u]
69 ; AVX2-FAST-NEXT:    vpblendd {{.*#+}} xmm3 = xmm0[0],xmm1[1],xmm0[2,3]
70 ; AVX2-FAST-NEXT:    vpshufb {{.*#+}} xmm3 = xmm3[2,3,8,9,14,15,4,5,u,u,u,u,u,u,u,u]
71 ; AVX2-FAST-NEXT:    vpshuflw {{.*#+}} xmm1 = xmm1[0,3,2,3,4,5,6,7]
72 ; AVX2-FAST-NEXT:    vpshufb {{.*#+}} xmm0 = xmm0[4,5,10,11,u,u,u,u,u,u,u,u,u,u,u,u]
73 ; AVX2-FAST-NEXT:    vpunpckldq {{.*#+}} xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1]
74 ; AVX2-FAST-NEXT:    vmovq %xmm2, (%rsi)
75 ; AVX2-FAST-NEXT:    vmovq %xmm3, (%rdx)
76 ; AVX2-FAST-NEXT:    vmovq %xmm0, (%rcx)
77 ; AVX2-FAST-NEXT:    retq
78   %wide.vec = load <12 x i16>, <12 x i16>* %in.vec, align 32
80   %strided.vec0 = shufflevector <12 x i16> %wide.vec, <12 x i16> poison, <4 x i32> <i32 0, i32 3, i32 6, i32 9>
81   %strided.vec1 = shufflevector <12 x i16> %wide.vec, <12 x i16> poison, <4 x i32> <i32 1, i32 4, i32 7, i32 10>
82   %strided.vec2 = shufflevector <12 x i16> %wide.vec, <12 x i16> poison, <4 x i32> <i32 2, i32 5, i32 8, i32 11>
84   store <4 x i16> %strided.vec0, <4 x i16>* %out.vec0, align 32
85   store <4 x i16> %strided.vec1, <4 x i16>* %out.vec1, align 32
86   store <4 x i16> %strided.vec2, <4 x i16>* %out.vec2, align 32
88   ret void
91 define void @vf8(<24 x i16>* %in.vec, <8 x i16>* %out.vec0, <8 x i16>* %out.vec1, <8 x i16>* %out.vec2) nounwind {
92 ; AVX2-LABEL: vf8:
93 ; AVX2:       # %bb.0:
94 ; AVX2-NEXT:    vmovdqa (%rdi), %xmm0
95 ; AVX2-NEXT:    vmovdqa 16(%rdi), %xmm1
96 ; AVX2-NEXT:    vmovdqa 32(%rdi), %xmm2
97 ; AVX2-NEXT:    vpblendw {{.*#+}} xmm3 = xmm0[0,1],xmm2[2],xmm0[3,4],xmm2[5],xmm0[6,7]
98 ; AVX2-NEXT:    vpblendw {{.*#+}} xmm3 = xmm3[0],xmm1[1],xmm3[2,3],xmm1[4],xmm3[5,6],xmm1[7]
99 ; AVX2-NEXT:    vpshufb {{.*#+}} xmm3 = xmm3[0,1,6,7,12,13,2,3,8,9,14,15,4,5,10,11]
100 ; AVX2-NEXT:    vpblendw {{.*#+}} xmm4 = xmm2[0],xmm0[1,2],xmm2[3],xmm0[4,5],xmm2[6],xmm0[7]
101 ; AVX2-NEXT:    vpblendw {{.*#+}} xmm4 = xmm4[0,1],xmm1[2],xmm4[3,4],xmm1[5],xmm4[6,7]
102 ; AVX2-NEXT:    vpshufb {{.*#+}} xmm4 = xmm4[2,3,8,9,14,15,4,5,10,11,0,1,6,7,12,13]
103 ; AVX2-NEXT:    vpblendw {{.*#+}} xmm0 = xmm0[0],xmm2[1],xmm0[2,3],xmm2[4],xmm0[5,6],xmm2[7]
104 ; AVX2-NEXT:    vpblendw {{.*#+}} xmm0 = xmm1[0],xmm0[1,2],xmm1[3],xmm0[4,5],xmm1[6],xmm0[7]
105 ; AVX2-NEXT:    vpshufb {{.*#+}} xmm0 = xmm0[4,5,10,11,0,1,6,7,12,13,2,3,8,9,14,15]
106 ; AVX2-NEXT:    vmovdqa %xmm3, (%rsi)
107 ; AVX2-NEXT:    vmovdqa %xmm4, (%rdx)
108 ; AVX2-NEXT:    vmovdqa %xmm0, (%rcx)
109 ; AVX2-NEXT:    retq
110   %wide.vec = load <24 x i16>, <24 x i16>* %in.vec, align 32
112   %strided.vec0 = shufflevector <24 x i16> %wide.vec, <24 x i16> poison, <8 x i32> <i32 0, i32 3, i32 6, i32 9, i32 12, i32 15, i32 18, i32 21>
113   %strided.vec1 = shufflevector <24 x i16> %wide.vec, <24 x i16> poison, <8 x i32> <i32 1, i32 4, i32 7, i32 10, i32 13, i32 16, i32 19, i32 22>
114   %strided.vec2 = shufflevector <24 x i16> %wide.vec, <24 x i16> poison, <8 x i32> <i32 2, i32 5, i32 8, i32 11, i32 14, i32 17, i32 20, i32 23>
116   store <8 x i16> %strided.vec0, <8 x i16>* %out.vec0, align 32
117   store <8 x i16> %strided.vec1, <8 x i16>* %out.vec1, align 32
118   store <8 x i16> %strided.vec2, <8 x i16>* %out.vec2, align 32
120   ret void
123 define void @vf16(<48 x i16>* %in.vec, <16 x i16>* %out.vec0, <16 x i16>* %out.vec1, <16 x i16>* %out.vec2) nounwind {
124 ; AVX2-LABEL: vf16:
125 ; AVX2:       # %bb.0:
126 ; AVX2-NEXT:    vmovdqa (%rdi), %ymm0
127 ; AVX2-NEXT:    vmovdqa 32(%rdi), %ymm1
128 ; AVX2-NEXT:    vmovdqa {{.*#+}} ymm2 = <255,255,u,u,0,0,255,255,u,u,0,0,255,255,u,u,0,0,255,255,u,u,0,0,255,255,u,u,0,0,255,255>
129 ; AVX2-NEXT:    vpblendvb %ymm2, %ymm0, %ymm1, %ymm2
130 ; AVX2-NEXT:    vpermq {{.*#+}} ymm3 = ymm2[2,3,0,1]
131 ; AVX2-NEXT:    vpblendw {{.*#+}} ymm2 = ymm2[0],ymm3[1],ymm2[2,3],ymm3[4],ymm2[5,6],ymm3[7],ymm2[8],ymm3[9],ymm2[10,11],ymm3[12],ymm2[13,14],ymm3[15]
132 ; AVX2-NEXT:    vpshufb {{.*#+}} ymm2 = ymm2[0,1,6,7,12,13,2,3,4,5,14,15,8,9,10,11,16,17,22,23,28,29,18,19,20,21,30,31,24,25,26,27]
133 ; AVX2-NEXT:    vmovdqa 80(%rdi), %xmm3
134 ; AVX2-NEXT:    vmovdqa 64(%rdi), %xmm4
135 ; AVX2-NEXT:    vpblendw {{.*#+}} xmm5 = xmm4[0,1],xmm3[2],xmm4[3,4],xmm3[5],xmm4[6,7]
136 ; AVX2-NEXT:    vpshufb {{.*#+}} xmm5 = xmm5[u,u,u,u,u,u,2,3,8,9,14,15,4,5,10,11]
137 ; AVX2-NEXT:    vinserti128 $1, %xmm5, %ymm0, %ymm5
138 ; AVX2-NEXT:    vpblendw {{.*#+}} ymm5 = ymm2[0,1,2],ymm5[3,4,5,6,7],ymm2[8,9,10],ymm5[11,12,13,14,15]
139 ; AVX2-NEXT:    vpshufhw {{.*#+}} xmm2 = xmm2[0,1,2,3,6,5,4,7]
140 ; AVX2-NEXT:    vpblendd {{.*#+}} ymm2 = ymm2[0,1,2,3],ymm5[4,5,6,7]
141 ; AVX2-NEXT:    vmovdqa {{.*#+}} ymm5 = <255,255,0,0,u,u,255,255,0,0,u,u,255,255,0,0,u,u,255,255,0,0,u,u,255,255,0,0,u,u,255,255>
142 ; AVX2-NEXT:    vpblendvb %ymm5, %ymm1, %ymm0, %ymm5
143 ; AVX2-NEXT:    vpermq {{.*#+}} ymm6 = ymm5[2,3,0,1]
144 ; AVX2-NEXT:    vpblendw {{.*#+}} ymm5 = ymm5[0,1],ymm6[2],ymm5[3,4],ymm6[5],ymm5[6,7,8,9],ymm6[10],ymm5[11,12],ymm6[13],ymm5[14,15]
145 ; AVX2-NEXT:    vpshufb {{.*#+}} ymm5 = ymm5[2,3,8,9,14,15,4,5,12,13,10,11,0,1,6,7,18,19,24,25,30,31,20,21,28,29,26,27,16,17,22,23]
146 ; AVX2-NEXT:    vpblendw {{.*#+}} xmm6 = xmm3[0,1],xmm4[2],xmm3[3,4],xmm4[5],xmm3[6,7]
147 ; AVX2-NEXT:    vpshufb {{.*#+}} xmm6 = xmm6[u,u,u,u,u,u,4,5,10,11,0,1,6,7,12,13]
148 ; AVX2-NEXT:    vinserti128 $1, %xmm6, %ymm0, %ymm6
149 ; AVX2-NEXT:    vpblendw {{.*#+}} ymm6 = ymm5[0,1,2],ymm6[3,4,5,6,7],ymm5[8,9,10],ymm6[11,12,13,14,15]
150 ; AVX2-NEXT:    vpshufhw {{.*#+}} xmm5 = xmm5[0,1,2,3,5,6,7,4]
151 ; AVX2-NEXT:    vpblendd {{.*#+}} ymm5 = ymm5[0,1,2,3],ymm6[4,5,6,7]
152 ; AVX2-NEXT:    vmovdqa {{.*#+}} ymm6 = <u,u,255,255,0,0,u,u,255,255,0,0,u,u,255,255,0,0,u,u,255,255,0,0,u,u,255,255,0,0,u,u>
153 ; AVX2-NEXT:    vpblendvb %ymm6, %ymm1, %ymm0, %ymm0
154 ; AVX2-NEXT:    vextracti128 $1, %ymm0, %xmm1
155 ; AVX2-NEXT:    vpblendw {{.*#+}} ymm0 = ymm1[0],ymm0[1,2],ymm1[3],ymm0[4,5],ymm1[6],ymm0[7],ymm1[8],ymm0[9,10],ymm1[11],ymm0[12,13],ymm1[14],ymm0[15]
156 ; AVX2-NEXT:    vpshufb {{.*#+}} ymm0 = ymm0[4,5,10,11,0,1,6,7,12,13,2,3,8,9,14,15,20,21,26,27,u,u,u,u,u,u,u,u,u,u,u,u]
157 ; AVX2-NEXT:    vpblendw {{.*#+}} xmm1 = xmm4[0],xmm3[1],xmm4[2,3],xmm3[4],xmm4[5,6],xmm3[7]
158 ; AVX2-NEXT:    vpshufb {{.*#+}} xmm1 = xmm1[u,u,u,u,0,1,6,7,12,13,2,3,8,9,14,15]
159 ; AVX2-NEXT:    vinserti128 $1, %xmm1, %ymm0, %ymm1
160 ; AVX2-NEXT:    vpblendd {{.*#+}} ymm0 = ymm0[0,1,2,3,4],ymm1[5,6,7]
161 ; AVX2-NEXT:    vmovdqa %ymm2, (%rsi)
162 ; AVX2-NEXT:    vmovdqa %ymm5, (%rdx)
163 ; AVX2-NEXT:    vmovdqa %ymm0, (%rcx)
164 ; AVX2-NEXT:    vzeroupper
165 ; AVX2-NEXT:    retq
166   %wide.vec = load <48 x i16>, <48 x i16>* %in.vec, align 32
168   %strided.vec0 = shufflevector <48 x i16> %wide.vec, <48 x i16> poison, <16 x i32> <i32 0, i32 3, i32 6, i32 9, i32 12, i32 15, i32 18, i32 21, i32 24, i32 27, i32 30, i32 33, i32 36, i32 39, i32 42, i32 45>
169   %strided.vec1 = shufflevector <48 x i16> %wide.vec, <48 x i16> poison, <16 x i32> <i32 1, i32 4, i32 7, i32 10, i32 13, i32 16, i32 19, i32 22, i32 25, i32 28, i32 31, i32 34, i32 37, i32 40, i32 43, i32 46>
170   %strided.vec2 = shufflevector <48 x i16> %wide.vec, <48 x i16> poison, <16 x i32> <i32 2, i32 5, i32 8, i32 11, i32 14, i32 17, i32 20, i32 23, i32 26, i32 29, i32 32, i32 35, i32 38, i32 41, i32 44, i32 47>
172   store <16 x i16> %strided.vec0, <16 x i16>* %out.vec0, align 32
173   store <16 x i16> %strided.vec1, <16 x i16>* %out.vec1, align 32
174   store <16 x i16> %strided.vec2, <16 x i16>* %out.vec2, align 32
176   ret void
179 define void @vf32(<96 x i16>* %in.vec, <32 x i16>* %out.vec0, <32 x i16>* %out.vec1, <32 x i16>* %out.vec2) nounwind {
180 ; AVX2-LABEL: vf32:
181 ; AVX2:       # %bb.0:
182 ; AVX2-NEXT:    vmovdqa (%rdi), %ymm11
183 ; AVX2-NEXT:    vmovdqa 32(%rdi), %ymm15
184 ; AVX2-NEXT:    vmovdqa 96(%rdi), %ymm3
185 ; AVX2-NEXT:    vmovdqa 128(%rdi), %ymm4
186 ; AVX2-NEXT:    vmovdqa {{.*#+}} ymm9 = <255,255,u,u,0,0,255,255,u,u,0,0,255,255,u,u,0,0,255,255,u,u,0,0,255,255,u,u,0,0,255,255>
187 ; AVX2-NEXT:    vpblendvb %ymm9, %ymm3, %ymm4, %ymm5
188 ; AVX2-NEXT:    vpermq {{.*#+}} ymm6 = ymm5[2,3,0,1]
189 ; AVX2-NEXT:    vpblendw {{.*#+}} ymm5 = ymm5[0],ymm6[1],ymm5[2,3],ymm6[4],ymm5[5,6],ymm6[7],ymm5[8],ymm6[9],ymm5[10,11],ymm6[12],ymm5[13,14],ymm6[15]
190 ; AVX2-NEXT:    vmovdqa {{.*#+}} ymm7 = [0,1,6,7,12,13,2,3,4,5,14,15,8,9,10,11,16,17,22,23,28,29,18,19,20,21,30,31,24,25,26,27]
191 ; AVX2-NEXT:    vpshufb %ymm7, %ymm5, %ymm8
192 ; AVX2-NEXT:    vmovdqa 176(%rdi), %xmm5
193 ; AVX2-NEXT:    vmovdqa 160(%rdi), %xmm6
194 ; AVX2-NEXT:    vpblendw {{.*#+}} xmm2 = xmm6[0,1],xmm5[2],xmm6[3,4],xmm5[5],xmm6[6,7]
195 ; AVX2-NEXT:    vmovdqa {{.*#+}} xmm10 = [4,5,14,15,0,1,2,3,8,9,14,15,4,5,10,11]
196 ; AVX2-NEXT:    vpshufb %xmm10, %xmm2, %xmm2
197 ; AVX2-NEXT:    vinserti128 $1, %xmm2, %ymm0, %ymm2
198 ; AVX2-NEXT:    vpblendw {{.*#+}} ymm2 = ymm8[0,1,2],ymm2[3,4,5,6,7],ymm8[8,9,10],ymm2[11,12,13,14,15]
199 ; AVX2-NEXT:    vpshufhw {{.*#+}} xmm8 = xmm8[0,1,2,3,6,5,4,7]
200 ; AVX2-NEXT:    vpblendd {{.*#+}} ymm8 = ymm8[0,1,2,3],ymm2[4,5,6,7]
201 ; AVX2-NEXT:    vpblendvb %ymm9, %ymm11, %ymm15, %ymm2
202 ; AVX2-NEXT:    vpermq {{.*#+}} ymm9 = ymm2[2,3,0,1]
203 ; AVX2-NEXT:    vpblendw {{.*#+}} ymm2 = ymm2[0],ymm9[1],ymm2[2,3],ymm9[4],ymm2[5,6],ymm9[7],ymm2[8],ymm9[9],ymm2[10,11],ymm9[12],ymm2[13,14],ymm9[15]
204 ; AVX2-NEXT:    vpshufb %ymm7, %ymm2, %ymm9
205 ; AVX2-NEXT:    vmovdqa 80(%rdi), %xmm7
206 ; AVX2-NEXT:    vmovdqa 64(%rdi), %xmm2
207 ; AVX2-NEXT:    vpblendw {{.*#+}} xmm0 = xmm2[0,1],xmm7[2],xmm2[3,4],xmm7[5],xmm2[6,7]
208 ; AVX2-NEXT:    vpshufb %xmm10, %xmm0, %xmm0
209 ; AVX2-NEXT:    vinserti128 $1, %xmm0, %ymm0, %ymm0
210 ; AVX2-NEXT:    vpblendw {{.*#+}} ymm0 = ymm9[0,1,2],ymm0[3,4,5,6,7],ymm9[8,9,10],ymm0[11,12,13,14,15]
211 ; AVX2-NEXT:    vpshufhw {{.*#+}} xmm9 = xmm9[0,1,2,3,6,5,4,7]
212 ; AVX2-NEXT:    vpblendd {{.*#+}} ymm9 = ymm9[0,1,2,3],ymm0[4,5,6,7]
213 ; AVX2-NEXT:    vmovdqa {{.*#+}} ymm13 = <255,255,0,0,u,u,255,255,0,0,u,u,255,255,0,0,u,u,255,255,0,0,u,u,255,255,0,0,u,u,255,255>
214 ; AVX2-NEXT:    vpblendvb %ymm13, %ymm4, %ymm3, %ymm10
215 ; AVX2-NEXT:    vpermq {{.*#+}} ymm12 = ymm10[2,3,0,1]
216 ; AVX2-NEXT:    vpblendw {{.*#+}} ymm10 = ymm10[0,1],ymm12[2],ymm10[3,4],ymm12[5],ymm10[6,7,8,9],ymm12[10],ymm10[11,12],ymm12[13],ymm10[14,15]
217 ; AVX2-NEXT:    vmovdqa {{.*#+}} ymm12 = [2,3,8,9,14,15,4,5,12,13,10,11,0,1,6,7,18,19,24,25,30,31,20,21,28,29,26,27,16,17,22,23]
218 ; AVX2-NEXT:    vpshufb %ymm12, %ymm10, %ymm10
219 ; AVX2-NEXT:    vpblendw {{.*#+}} xmm0 = xmm5[0,1],xmm6[2],xmm5[3,4],xmm6[5],xmm5[6,7]
220 ; AVX2-NEXT:    vmovdqa {{.*#+}} xmm14 = [4,5,4,5,4,5,4,5,10,11,0,1,6,7,12,13]
221 ; AVX2-NEXT:    vpshufb %xmm14, %xmm0, %xmm0
222 ; AVX2-NEXT:    vinserti128 $1, %xmm0, %ymm0, %ymm0
223 ; AVX2-NEXT:    vpblendw {{.*#+}} ymm0 = ymm10[0,1,2],ymm0[3,4,5,6,7],ymm10[8,9,10],ymm0[11,12,13,14,15]
224 ; AVX2-NEXT:    vpshufhw {{.*#+}} xmm10 = xmm10[0,1,2,3,5,6,7,4]
225 ; AVX2-NEXT:    vpblendd {{.*#+}} ymm10 = ymm10[0,1,2,3],ymm0[4,5,6,7]
226 ; AVX2-NEXT:    vpblendvb %ymm13, %ymm15, %ymm11, %ymm0
227 ; AVX2-NEXT:    vpermq {{.*#+}} ymm13 = ymm0[2,3,0,1]
228 ; AVX2-NEXT:    vpblendw {{.*#+}} ymm0 = ymm0[0,1],ymm13[2],ymm0[3,4],ymm13[5],ymm0[6,7,8,9],ymm13[10],ymm0[11,12],ymm13[13],ymm0[14,15]
229 ; AVX2-NEXT:    vpshufb %ymm12, %ymm0, %ymm0
230 ; AVX2-NEXT:    vpblendw {{.*#+}} xmm1 = xmm7[0,1],xmm2[2],xmm7[3,4],xmm2[5],xmm7[6,7]
231 ; AVX2-NEXT:    vpshufb %xmm14, %xmm1, %xmm1
232 ; AVX2-NEXT:    vinserti128 $1, %xmm1, %ymm0, %ymm1
233 ; AVX2-NEXT:    vpblendw {{.*#+}} ymm1 = ymm0[0,1,2],ymm1[3,4,5,6,7],ymm0[8,9,10],ymm1[11,12,13,14,15]
234 ; AVX2-NEXT:    vpshufhw {{.*#+}} xmm0 = xmm0[0,1,2,3,5,6,7,4]
235 ; AVX2-NEXT:    vpblendd {{.*#+}} ymm0 = ymm0[0,1,2,3],ymm1[4,5,6,7]
236 ; AVX2-NEXT:    vmovdqa {{.*#+}} ymm1 = <u,u,255,255,0,0,u,u,255,255,0,0,u,u,255,255,0,0,u,u,255,255,0,0,u,u,255,255,0,0,u,u>
237 ; AVX2-NEXT:    vpblendvb %ymm1, %ymm4, %ymm3, %ymm3
238 ; AVX2-NEXT:    vpermq {{.*#+}} ymm4 = ymm3[2,3,0,1]
239 ; AVX2-NEXT:    vpblendw {{.*#+}} ymm3 = ymm4[0],ymm3[1,2],ymm4[3],ymm3[4,5],ymm4[6],ymm3[7],ymm4[8],ymm3[9,10],ymm4[11],ymm3[12,13],ymm4[14],ymm3[15]
240 ; AVX2-NEXT:    vmovdqa {{.*#+}} ymm4 = [4,5,10,11,0,1,6,7,12,13,2,3,8,9,14,15,20,21,26,27,16,17,22,23,28,29,18,19,24,25,30,31]
241 ; AVX2-NEXT:    vpshufb %ymm4, %ymm3, %ymm3
242 ; AVX2-NEXT:    vpblendw {{.*#+}} xmm5 = xmm6[0],xmm5[1],xmm6[2,3],xmm5[4],xmm6[5,6],xmm5[7]
243 ; AVX2-NEXT:    vmovdqa {{.*#+}} xmm6 = [0,1,2,3,0,1,6,7,12,13,2,3,8,9,14,15]
244 ; AVX2-NEXT:    vpshufb %xmm6, %xmm5, %xmm5
245 ; AVX2-NEXT:    vinserti128 $1, %xmm5, %ymm0, %ymm5
246 ; AVX2-NEXT:    vpblendd {{.*#+}} ymm3 = ymm3[0,1,2,3,4],ymm5[5,6,7]
247 ; AVX2-NEXT:    vpblendvb %ymm1, %ymm15, %ymm11, %ymm1
248 ; AVX2-NEXT:    vpermq {{.*#+}} ymm5 = ymm1[2,3,0,1]
249 ; AVX2-NEXT:    vpblendw {{.*#+}} ymm1 = ymm5[0],ymm1[1,2],ymm5[3],ymm1[4,5],ymm5[6],ymm1[7],ymm5[8],ymm1[9,10],ymm5[11],ymm1[12,13],ymm5[14],ymm1[15]
250 ; AVX2-NEXT:    vpshufb %ymm4, %ymm1, %ymm1
251 ; AVX2-NEXT:    vpblendw {{.*#+}} xmm2 = xmm2[0],xmm7[1],xmm2[2,3],xmm7[4],xmm2[5,6],xmm7[7]
252 ; AVX2-NEXT:    vpshufb %xmm6, %xmm2, %xmm2
253 ; AVX2-NEXT:    vinserti128 $1, %xmm2, %ymm0, %ymm2
254 ; AVX2-NEXT:    vpblendd {{.*#+}} ymm1 = ymm1[0,1,2,3,4],ymm2[5,6,7]
255 ; AVX2-NEXT:    vmovdqa %ymm9, (%rsi)
256 ; AVX2-NEXT:    vmovdqa %ymm8, 32(%rsi)
257 ; AVX2-NEXT:    vmovdqa %ymm10, 32(%rdx)
258 ; AVX2-NEXT:    vmovdqa %ymm0, (%rdx)
259 ; AVX2-NEXT:    vmovdqa %ymm3, 32(%rcx)
260 ; AVX2-NEXT:    vmovdqa %ymm1, (%rcx)
261 ; AVX2-NEXT:    vzeroupper
262 ; AVX2-NEXT:    retq
263   %wide.vec = load <96 x i16>, <96 x i16>* %in.vec, align 32
265   %strided.vec0 = shufflevector <96 x i16> %wide.vec, <96 x i16> poison, <32 x i32> <i32 0, i32 3, i32 6, i32 9, i32 12, i32 15, i32 18, i32 21, i32 24, i32 27, i32 30, i32 33, i32 36, i32 39, i32 42, i32 45, i32 48, i32 51, i32 54, i32 57, i32 60, i32 63, i32 66, i32 69, i32 72, i32 75, i32 78, i32 81, i32 84, i32 87, i32 90, i32 93>
266   %strided.vec1 = shufflevector <96 x i16> %wide.vec, <96 x i16> poison, <32 x i32> <i32 1, i32 4, i32 7, i32 10, i32 13, i32 16, i32 19, i32 22, i32 25, i32 28, i32 31, i32 34, i32 37, i32 40, i32 43, i32 46, i32 49, i32 52, i32 55, i32 58, i32 61, i32 64, i32 67, i32 70, i32 73, i32 76, i32 79, i32 82, i32 85, i32 88, i32 91, i32 94>
267   %strided.vec2 = shufflevector <96 x i16> %wide.vec, <96 x i16> poison, <32 x i32> <i32 2, i32 5, i32 8, i32 11, i32 14, i32 17, i32 20, i32 23, i32 26, i32 29, i32 32, i32 35, i32 38, i32 41, i32 44, i32 47, i32 50, i32 53, i32 56, i32 59, i32 62, i32 65, i32 68, i32 71, i32 74, i32 77, i32 80, i32 83, i32 86, i32 89, i32 92, i32 95>
269   store <32 x i16> %strided.vec0, <32 x i16>* %out.vec0, align 32
270   store <32 x i16> %strided.vec1, <32 x i16>* %out.vec1, align 32
271   store <32 x i16> %strided.vec2, <32 x i16>* %out.vec2, align 32
273   ret void