[AArch64,ELF] Restrict MOVZ/MOVK to non-PIC large code model (#70178)
[llvm-project.git] / llvm / test / CodeGen / X86 / vector-fshr-512.ll
blob2bd03507a0249c4b840868884c3b583a86d570c7
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+avx512f | FileCheck %s --check-prefixes=AVX512F
3 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+avx512f,+avx512vl | FileCheck %s --check-prefixes=AVX512VL
4 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+avx512f,+avx512bw | FileCheck %s --check-prefixes=AVX512BW
5 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+avx512f,+avx512vbmi,+avx512vbmi2 | FileCheck %s --check-prefixes=AVX512VBMI2
6 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+avx512f,+avx512bw,+avx512vl | FileCheck %s --check-prefixes=AVX512VLBW
7 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+avx512f,+avx512vbmi,+avx512vbmi2,+avx512vl | FileCheck %s --check-prefixes=AVX512VLVBMI2
9 declare <8 x i64> @llvm.fshr.v8i64(<8 x i64>, <8 x i64>, <8 x i64>)
10 declare <16 x i32> @llvm.fshr.v16i32(<16 x i32>, <16 x i32>, <16 x i32>)
11 declare <32 x i16> @llvm.fshr.v32i16(<32 x i16>, <32 x i16>, <32 x i16>)
12 declare <64 x i8> @llvm.fshr.v64i8(<64 x i8>, <64 x i8>, <64 x i8>)
15 ; Variable Shifts
18 define <8 x i64> @var_funnnel_v8i64(<8 x i64> %x, <8 x i64> %y, <8 x i64> %amt) nounwind {
19 ; AVX512F-LABEL: var_funnnel_v8i64:
20 ; AVX512F:       # %bb.0:
21 ; AVX512F-NEXT:    vpbroadcastq {{.*#+}} zmm3 = [63,63,63,63,63,63,63,63]
22 ; AVX512F-NEXT:    vpandq %zmm3, %zmm2, %zmm4
23 ; AVX512F-NEXT:    vpsrlvq %zmm4, %zmm1, %zmm1
24 ; AVX512F-NEXT:    vpandnq %zmm3, %zmm2, %zmm2
25 ; AVX512F-NEXT:    vpaddq %zmm0, %zmm0, %zmm0
26 ; AVX512F-NEXT:    vpsllvq %zmm2, %zmm0, %zmm0
27 ; AVX512F-NEXT:    vporq %zmm1, %zmm0, %zmm0
28 ; AVX512F-NEXT:    retq
30 ; AVX512VL-LABEL: var_funnnel_v8i64:
31 ; AVX512VL:       # %bb.0:
32 ; AVX512VL-NEXT:    vpbroadcastq {{.*#+}} zmm3 = [63,63,63,63,63,63,63,63]
33 ; AVX512VL-NEXT:    vpandq %zmm3, %zmm2, %zmm4
34 ; AVX512VL-NEXT:    vpsrlvq %zmm4, %zmm1, %zmm1
35 ; AVX512VL-NEXT:    vpandnq %zmm3, %zmm2, %zmm2
36 ; AVX512VL-NEXT:    vpaddq %zmm0, %zmm0, %zmm0
37 ; AVX512VL-NEXT:    vpsllvq %zmm2, %zmm0, %zmm0
38 ; AVX512VL-NEXT:    vporq %zmm1, %zmm0, %zmm0
39 ; AVX512VL-NEXT:    retq
41 ; AVX512BW-LABEL: var_funnnel_v8i64:
42 ; AVX512BW:       # %bb.0:
43 ; AVX512BW-NEXT:    vpbroadcastq {{.*#+}} zmm3 = [63,63,63,63,63,63,63,63]
44 ; AVX512BW-NEXT:    vpandq %zmm3, %zmm2, %zmm4
45 ; AVX512BW-NEXT:    vpsrlvq %zmm4, %zmm1, %zmm1
46 ; AVX512BW-NEXT:    vpandnq %zmm3, %zmm2, %zmm2
47 ; AVX512BW-NEXT:    vpaddq %zmm0, %zmm0, %zmm0
48 ; AVX512BW-NEXT:    vpsllvq %zmm2, %zmm0, %zmm0
49 ; AVX512BW-NEXT:    vporq %zmm1, %zmm0, %zmm0
50 ; AVX512BW-NEXT:    retq
52 ; AVX512VBMI2-LABEL: var_funnnel_v8i64:
53 ; AVX512VBMI2:       # %bb.0:
54 ; AVX512VBMI2-NEXT:    vpshrdvq %zmm2, %zmm0, %zmm1
55 ; AVX512VBMI2-NEXT:    vmovdqa64 %zmm1, %zmm0
56 ; AVX512VBMI2-NEXT:    retq
58 ; AVX512VLBW-LABEL: var_funnnel_v8i64:
59 ; AVX512VLBW:       # %bb.0:
60 ; AVX512VLBW-NEXT:    vpbroadcastq {{.*#+}} zmm3 = [63,63,63,63,63,63,63,63]
61 ; AVX512VLBW-NEXT:    vpandq %zmm3, %zmm2, %zmm4
62 ; AVX512VLBW-NEXT:    vpsrlvq %zmm4, %zmm1, %zmm1
63 ; AVX512VLBW-NEXT:    vpandnq %zmm3, %zmm2, %zmm2
64 ; AVX512VLBW-NEXT:    vpaddq %zmm0, %zmm0, %zmm0
65 ; AVX512VLBW-NEXT:    vpsllvq %zmm2, %zmm0, %zmm0
66 ; AVX512VLBW-NEXT:    vporq %zmm1, %zmm0, %zmm0
67 ; AVX512VLBW-NEXT:    retq
69 ; AVX512VLVBMI2-LABEL: var_funnnel_v8i64:
70 ; AVX512VLVBMI2:       # %bb.0:
71 ; AVX512VLVBMI2-NEXT:    vpshrdvq %zmm2, %zmm0, %zmm1
72 ; AVX512VLVBMI2-NEXT:    vmovdqa64 %zmm1, %zmm0
73 ; AVX512VLVBMI2-NEXT:    retq
74   %res = call <8 x i64> @llvm.fshr.v8i64(<8 x i64> %x, <8 x i64> %y, <8 x i64> %amt)
75   ret <8 x i64> %res
78 define <16 x i32> @var_funnnel_v16i32(<16 x i32> %x, <16 x i32> %y, <16 x i32> %amt) nounwind {
79 ; AVX512F-LABEL: var_funnnel_v16i32:
80 ; AVX512F:       # %bb.0:
81 ; AVX512F-NEXT:    vpbroadcastd {{.*#+}} zmm3 = [31,31,31,31,31,31,31,31,31,31,31,31,31,31,31,31]
82 ; AVX512F-NEXT:    vpandd %zmm3, %zmm2, %zmm4
83 ; AVX512F-NEXT:    vpsrlvd %zmm4, %zmm1, %zmm1
84 ; AVX512F-NEXT:    vpandnd %zmm3, %zmm2, %zmm2
85 ; AVX512F-NEXT:    vpaddd %zmm0, %zmm0, %zmm0
86 ; AVX512F-NEXT:    vpsllvd %zmm2, %zmm0, %zmm0
87 ; AVX512F-NEXT:    vpord %zmm1, %zmm0, %zmm0
88 ; AVX512F-NEXT:    retq
90 ; AVX512VL-LABEL: var_funnnel_v16i32:
91 ; AVX512VL:       # %bb.0:
92 ; AVX512VL-NEXT:    vpbroadcastd {{.*#+}} zmm3 = [31,31,31,31,31,31,31,31,31,31,31,31,31,31,31,31]
93 ; AVX512VL-NEXT:    vpandd %zmm3, %zmm2, %zmm4
94 ; AVX512VL-NEXT:    vpsrlvd %zmm4, %zmm1, %zmm1
95 ; AVX512VL-NEXT:    vpandnd %zmm3, %zmm2, %zmm2
96 ; AVX512VL-NEXT:    vpaddd %zmm0, %zmm0, %zmm0
97 ; AVX512VL-NEXT:    vpsllvd %zmm2, %zmm0, %zmm0
98 ; AVX512VL-NEXT:    vpord %zmm1, %zmm0, %zmm0
99 ; AVX512VL-NEXT:    retq
101 ; AVX512BW-LABEL: var_funnnel_v16i32:
102 ; AVX512BW:       # %bb.0:
103 ; AVX512BW-NEXT:    vpbroadcastd {{.*#+}} zmm3 = [31,31,31,31,31,31,31,31,31,31,31,31,31,31,31,31]
104 ; AVX512BW-NEXT:    vpandd %zmm3, %zmm2, %zmm4
105 ; AVX512BW-NEXT:    vpsrlvd %zmm4, %zmm1, %zmm1
106 ; AVX512BW-NEXT:    vpandnd %zmm3, %zmm2, %zmm2
107 ; AVX512BW-NEXT:    vpaddd %zmm0, %zmm0, %zmm0
108 ; AVX512BW-NEXT:    vpsllvd %zmm2, %zmm0, %zmm0
109 ; AVX512BW-NEXT:    vpord %zmm1, %zmm0, %zmm0
110 ; AVX512BW-NEXT:    retq
112 ; AVX512VBMI2-LABEL: var_funnnel_v16i32:
113 ; AVX512VBMI2:       # %bb.0:
114 ; AVX512VBMI2-NEXT:    vpshrdvd %zmm2, %zmm0, %zmm1
115 ; AVX512VBMI2-NEXT:    vmovdqa64 %zmm1, %zmm0
116 ; AVX512VBMI2-NEXT:    retq
118 ; AVX512VLBW-LABEL: var_funnnel_v16i32:
119 ; AVX512VLBW:       # %bb.0:
120 ; AVX512VLBW-NEXT:    vpbroadcastd {{.*#+}} zmm3 = [31,31,31,31,31,31,31,31,31,31,31,31,31,31,31,31]
121 ; AVX512VLBW-NEXT:    vpandd %zmm3, %zmm2, %zmm4
122 ; AVX512VLBW-NEXT:    vpsrlvd %zmm4, %zmm1, %zmm1
123 ; AVX512VLBW-NEXT:    vpandnd %zmm3, %zmm2, %zmm2
124 ; AVX512VLBW-NEXT:    vpaddd %zmm0, %zmm0, %zmm0
125 ; AVX512VLBW-NEXT:    vpsllvd %zmm2, %zmm0, %zmm0
126 ; AVX512VLBW-NEXT:    vpord %zmm1, %zmm0, %zmm0
127 ; AVX512VLBW-NEXT:    retq
129 ; AVX512VLVBMI2-LABEL: var_funnnel_v16i32:
130 ; AVX512VLVBMI2:       # %bb.0:
131 ; AVX512VLVBMI2-NEXT:    vpshrdvd %zmm2, %zmm0, %zmm1
132 ; AVX512VLVBMI2-NEXT:    vmovdqa64 %zmm1, %zmm0
133 ; AVX512VLVBMI2-NEXT:    retq
134   %res = call <16 x i32> @llvm.fshr.v16i32(<16 x i32> %x, <16 x i32> %y, <16 x i32> %amt)
135   ret <16 x i32> %res
138 define <32 x i16> @var_funnnel_v32i16(<32 x i16> %x, <32 x i16> %y, <32 x i16> %amt) nounwind {
139 ; AVX512F-LABEL: var_funnnel_v32i16:
140 ; AVX512F:       # %bb.0:
141 ; AVX512F-NEXT:    vpmovzxwd {{.*#+}} zmm3 = ymm1[0],zero,ymm1[1],zero,ymm1[2],zero,ymm1[3],zero,ymm1[4],zero,ymm1[5],zero,ymm1[6],zero,ymm1[7],zero,ymm1[8],zero,ymm1[9],zero,ymm1[10],zero,ymm1[11],zero,ymm1[12],zero,ymm1[13],zero,ymm1[14],zero,ymm1[15],zero
142 ; AVX512F-NEXT:    vpmovzxwd {{.*#+}} zmm4 = ymm0[0],zero,ymm0[1],zero,ymm0[2],zero,ymm0[3],zero,ymm0[4],zero,ymm0[5],zero,ymm0[6],zero,ymm0[7],zero,ymm0[8],zero,ymm0[9],zero,ymm0[10],zero,ymm0[11],zero,ymm0[12],zero,ymm0[13],zero,ymm0[14],zero,ymm0[15],zero
143 ; AVX512F-NEXT:    vpslld $16, %zmm4, %zmm4
144 ; AVX512F-NEXT:    vpord %zmm3, %zmm4, %zmm3
145 ; AVX512F-NEXT:    vpandd {{\.?LCPI[0-9]+_[0-9]+}}(%rip){1to16}, %zmm2, %zmm2
146 ; AVX512F-NEXT:    vpmovzxwd {{.*#+}} zmm4 = ymm2[0],zero,ymm2[1],zero,ymm2[2],zero,ymm2[3],zero,ymm2[4],zero,ymm2[5],zero,ymm2[6],zero,ymm2[7],zero,ymm2[8],zero,ymm2[9],zero,ymm2[10],zero,ymm2[11],zero,ymm2[12],zero,ymm2[13],zero,ymm2[14],zero,ymm2[15],zero
147 ; AVX512F-NEXT:    vpsrlvd %zmm4, %zmm3, %zmm3
148 ; AVX512F-NEXT:    vpmovdw %zmm3, %ymm3
149 ; AVX512F-NEXT:    vextracti64x4 $1, %zmm1, %ymm1
150 ; AVX512F-NEXT:    vpmovzxwd {{.*#+}} zmm1 = ymm1[0],zero,ymm1[1],zero,ymm1[2],zero,ymm1[3],zero,ymm1[4],zero,ymm1[5],zero,ymm1[6],zero,ymm1[7],zero,ymm1[8],zero,ymm1[9],zero,ymm1[10],zero,ymm1[11],zero,ymm1[12],zero,ymm1[13],zero,ymm1[14],zero,ymm1[15],zero
151 ; AVX512F-NEXT:    vextracti64x4 $1, %zmm0, %ymm0
152 ; AVX512F-NEXT:    vpmovzxwd {{.*#+}} zmm0 = ymm0[0],zero,ymm0[1],zero,ymm0[2],zero,ymm0[3],zero,ymm0[4],zero,ymm0[5],zero,ymm0[6],zero,ymm0[7],zero,ymm0[8],zero,ymm0[9],zero,ymm0[10],zero,ymm0[11],zero,ymm0[12],zero,ymm0[13],zero,ymm0[14],zero,ymm0[15],zero
153 ; AVX512F-NEXT:    vpslld $16, %zmm0, %zmm0
154 ; AVX512F-NEXT:    vpord %zmm1, %zmm0, %zmm0
155 ; AVX512F-NEXT:    vextracti64x4 $1, %zmm2, %ymm1
156 ; AVX512F-NEXT:    vpmovzxwd {{.*#+}} zmm1 = ymm1[0],zero,ymm1[1],zero,ymm1[2],zero,ymm1[3],zero,ymm1[4],zero,ymm1[5],zero,ymm1[6],zero,ymm1[7],zero,ymm1[8],zero,ymm1[9],zero,ymm1[10],zero,ymm1[11],zero,ymm1[12],zero,ymm1[13],zero,ymm1[14],zero,ymm1[15],zero
157 ; AVX512F-NEXT:    vpsrlvd %zmm1, %zmm0, %zmm0
158 ; AVX512F-NEXT:    vpmovdw %zmm0, %ymm0
159 ; AVX512F-NEXT:    vinserti64x4 $1, %ymm0, %zmm3, %zmm0
160 ; AVX512F-NEXT:    retq
162 ; AVX512VL-LABEL: var_funnnel_v32i16:
163 ; AVX512VL:       # %bb.0:
164 ; AVX512VL-NEXT:    vpmovzxwd {{.*#+}} zmm3 = ymm1[0],zero,ymm1[1],zero,ymm1[2],zero,ymm1[3],zero,ymm1[4],zero,ymm1[5],zero,ymm1[6],zero,ymm1[7],zero,ymm1[8],zero,ymm1[9],zero,ymm1[10],zero,ymm1[11],zero,ymm1[12],zero,ymm1[13],zero,ymm1[14],zero,ymm1[15],zero
165 ; AVX512VL-NEXT:    vpmovzxwd {{.*#+}} zmm4 = ymm0[0],zero,ymm0[1],zero,ymm0[2],zero,ymm0[3],zero,ymm0[4],zero,ymm0[5],zero,ymm0[6],zero,ymm0[7],zero,ymm0[8],zero,ymm0[9],zero,ymm0[10],zero,ymm0[11],zero,ymm0[12],zero,ymm0[13],zero,ymm0[14],zero,ymm0[15],zero
166 ; AVX512VL-NEXT:    vpslld $16, %zmm4, %zmm4
167 ; AVX512VL-NEXT:    vpord %zmm3, %zmm4, %zmm3
168 ; AVX512VL-NEXT:    vpandd {{\.?LCPI[0-9]+_[0-9]+}}(%rip){1to16}, %zmm2, %zmm2
169 ; AVX512VL-NEXT:    vpmovzxwd {{.*#+}} zmm4 = ymm2[0],zero,ymm2[1],zero,ymm2[2],zero,ymm2[3],zero,ymm2[4],zero,ymm2[5],zero,ymm2[6],zero,ymm2[7],zero,ymm2[8],zero,ymm2[9],zero,ymm2[10],zero,ymm2[11],zero,ymm2[12],zero,ymm2[13],zero,ymm2[14],zero,ymm2[15],zero
170 ; AVX512VL-NEXT:    vpsrlvd %zmm4, %zmm3, %zmm3
171 ; AVX512VL-NEXT:    vpmovdw %zmm3, %ymm3
172 ; AVX512VL-NEXT:    vextracti64x4 $1, %zmm1, %ymm1
173 ; AVX512VL-NEXT:    vpmovzxwd {{.*#+}} zmm1 = ymm1[0],zero,ymm1[1],zero,ymm1[2],zero,ymm1[3],zero,ymm1[4],zero,ymm1[5],zero,ymm1[6],zero,ymm1[7],zero,ymm1[8],zero,ymm1[9],zero,ymm1[10],zero,ymm1[11],zero,ymm1[12],zero,ymm1[13],zero,ymm1[14],zero,ymm1[15],zero
174 ; AVX512VL-NEXT:    vextracti64x4 $1, %zmm0, %ymm0
175 ; AVX512VL-NEXT:    vpmovzxwd {{.*#+}} zmm0 = ymm0[0],zero,ymm0[1],zero,ymm0[2],zero,ymm0[3],zero,ymm0[4],zero,ymm0[5],zero,ymm0[6],zero,ymm0[7],zero,ymm0[8],zero,ymm0[9],zero,ymm0[10],zero,ymm0[11],zero,ymm0[12],zero,ymm0[13],zero,ymm0[14],zero,ymm0[15],zero
176 ; AVX512VL-NEXT:    vpslld $16, %zmm0, %zmm0
177 ; AVX512VL-NEXT:    vpord %zmm1, %zmm0, %zmm0
178 ; AVX512VL-NEXT:    vextracti64x4 $1, %zmm2, %ymm1
179 ; AVX512VL-NEXT:    vpmovzxwd {{.*#+}} zmm1 = ymm1[0],zero,ymm1[1],zero,ymm1[2],zero,ymm1[3],zero,ymm1[4],zero,ymm1[5],zero,ymm1[6],zero,ymm1[7],zero,ymm1[8],zero,ymm1[9],zero,ymm1[10],zero,ymm1[11],zero,ymm1[12],zero,ymm1[13],zero,ymm1[14],zero,ymm1[15],zero
180 ; AVX512VL-NEXT:    vpsrlvd %zmm1, %zmm0, %zmm0
181 ; AVX512VL-NEXT:    vpmovdw %zmm0, %ymm0
182 ; AVX512VL-NEXT:    vinserti64x4 $1, %ymm0, %zmm3, %zmm0
183 ; AVX512VL-NEXT:    retq
185 ; AVX512BW-LABEL: var_funnnel_v32i16:
186 ; AVX512BW:       # %bb.0:
187 ; AVX512BW-NEXT:    vpbroadcastw {{.*#+}} zmm3 = [15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15]
188 ; AVX512BW-NEXT:    vpandq %zmm3, %zmm2, %zmm4
189 ; AVX512BW-NEXT:    vpsrlvw %zmm4, %zmm1, %zmm1
190 ; AVX512BW-NEXT:    vpandnq %zmm3, %zmm2, %zmm2
191 ; AVX512BW-NEXT:    vpaddw %zmm0, %zmm0, %zmm0
192 ; AVX512BW-NEXT:    vpsllvw %zmm2, %zmm0, %zmm0
193 ; AVX512BW-NEXT:    vporq %zmm1, %zmm0, %zmm0
194 ; AVX512BW-NEXT:    retq
196 ; AVX512VBMI2-LABEL: var_funnnel_v32i16:
197 ; AVX512VBMI2:       # %bb.0:
198 ; AVX512VBMI2-NEXT:    vpshrdvw %zmm2, %zmm0, %zmm1
199 ; AVX512VBMI2-NEXT:    vmovdqa64 %zmm1, %zmm0
200 ; AVX512VBMI2-NEXT:    retq
202 ; AVX512VLBW-LABEL: var_funnnel_v32i16:
203 ; AVX512VLBW:       # %bb.0:
204 ; AVX512VLBW-NEXT:    vpbroadcastw {{.*#+}} zmm3 = [15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15]
205 ; AVX512VLBW-NEXT:    vpandq %zmm3, %zmm2, %zmm4
206 ; AVX512VLBW-NEXT:    vpsrlvw %zmm4, %zmm1, %zmm1
207 ; AVX512VLBW-NEXT:    vpandnq %zmm3, %zmm2, %zmm2
208 ; AVX512VLBW-NEXT:    vpaddw %zmm0, %zmm0, %zmm0
209 ; AVX512VLBW-NEXT:    vpsllvw %zmm2, %zmm0, %zmm0
210 ; AVX512VLBW-NEXT:    vporq %zmm1, %zmm0, %zmm0
211 ; AVX512VLBW-NEXT:    retq
213 ; AVX512VLVBMI2-LABEL: var_funnnel_v32i16:
214 ; AVX512VLVBMI2:       # %bb.0:
215 ; AVX512VLVBMI2-NEXT:    vpshrdvw %zmm2, %zmm0, %zmm1
216 ; AVX512VLVBMI2-NEXT:    vmovdqa64 %zmm1, %zmm0
217 ; AVX512VLVBMI2-NEXT:    retq
218   %res = call <32 x i16> @llvm.fshr.v32i16(<32 x i16> %x, <32 x i16> %y, <32 x i16> %amt)
219   ret <32 x i16> %res
222 define <64 x i8> @var_funnnel_v64i8(<64 x i8> %x, <64 x i8> %y, <64 x i8> %amt) nounwind {
223 ; AVX512F-LABEL: var_funnnel_v64i8:
224 ; AVX512F:       # %bb.0:
225 ; AVX512F-NEXT:    vextracti64x4 $1, %zmm0, %ymm3
226 ; AVX512F-NEXT:    vpaddb %ymm3, %ymm3, %ymm4
227 ; AVX512F-NEXT:    vpsllw $4, %ymm4, %ymm3
228 ; AVX512F-NEXT:    vpbroadcastb {{.*#+}} ymm5 = [240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240]
229 ; AVX512F-NEXT:    vpand %ymm5, %ymm3, %ymm6
230 ; AVX512F-NEXT:    vpandd {{\.?LCPI[0-9]+_[0-9]+}}(%rip){1to16}, %zmm2, %zmm2
231 ; AVX512F-NEXT:    vextracti64x4 $1, %zmm2, %ymm3
232 ; AVX512F-NEXT:    vpbroadcastb {{.*#+}} ymm7 = [7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7]
233 ; AVX512F-NEXT:    vpxor %ymm7, %ymm3, %ymm8
234 ; AVX512F-NEXT:    vpsllw $5, %ymm8, %ymm8
235 ; AVX512F-NEXT:    vpblendvb %ymm8, %ymm6, %ymm4, %ymm4
236 ; AVX512F-NEXT:    vpsllw $2, %ymm4, %ymm6
237 ; AVX512F-NEXT:    vpbroadcastb {{.*#+}} ymm9 = [252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252]
238 ; AVX512F-NEXT:    vpand %ymm6, %ymm9, %ymm6
239 ; AVX512F-NEXT:    vpaddb %ymm8, %ymm8, %ymm8
240 ; AVX512F-NEXT:    vpblendvb %ymm8, %ymm6, %ymm4, %ymm4
241 ; AVX512F-NEXT:    vpaddb %ymm4, %ymm4, %ymm6
242 ; AVX512F-NEXT:    vpaddb %ymm8, %ymm8, %ymm8
243 ; AVX512F-NEXT:    vpblendvb %ymm8, %ymm6, %ymm4, %ymm4
244 ; AVX512F-NEXT:    vpaddb %ymm0, %ymm0, %ymm0
245 ; AVX512F-NEXT:    vpsllw $4, %ymm0, %ymm6
246 ; AVX512F-NEXT:    vpand %ymm5, %ymm6, %ymm5
247 ; AVX512F-NEXT:    vpxor %ymm7, %ymm2, %ymm6
248 ; AVX512F-NEXT:    vpsllw $5, %ymm6, %ymm6
249 ; AVX512F-NEXT:    vpblendvb %ymm6, %ymm5, %ymm0, %ymm0
250 ; AVX512F-NEXT:    vpsllw $2, %ymm0, %ymm5
251 ; AVX512F-NEXT:    vpand %ymm5, %ymm9, %ymm5
252 ; AVX512F-NEXT:    vpaddb %ymm6, %ymm6, %ymm6
253 ; AVX512F-NEXT:    vpblendvb %ymm6, %ymm5, %ymm0, %ymm0
254 ; AVX512F-NEXT:    vpaddb %ymm0, %ymm0, %ymm5
255 ; AVX512F-NEXT:    vpaddb %ymm6, %ymm6, %ymm6
256 ; AVX512F-NEXT:    vpblendvb %ymm6, %ymm5, %ymm0, %ymm0
257 ; AVX512F-NEXT:    vinserti64x4 $1, %ymm4, %zmm0, %zmm0
258 ; AVX512F-NEXT:    vextracti64x4 $1, %zmm1, %ymm4
259 ; AVX512F-NEXT:    vpsrlw $4, %ymm4, %ymm5
260 ; AVX512F-NEXT:    vpbroadcastb {{.*#+}} ymm6 = [15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15]
261 ; AVX512F-NEXT:    vpand %ymm6, %ymm5, %ymm5
262 ; AVX512F-NEXT:    vpsllw $5, %ymm3, %ymm3
263 ; AVX512F-NEXT:    vpblendvb %ymm3, %ymm5, %ymm4, %ymm4
264 ; AVX512F-NEXT:    vpsrlw $2, %ymm4, %ymm5
265 ; AVX512F-NEXT:    vpbroadcastb {{.*#+}} ymm7 = [63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63]
266 ; AVX512F-NEXT:    vpand %ymm7, %ymm5, %ymm5
267 ; AVX512F-NEXT:    vpaddb %ymm3, %ymm3, %ymm3
268 ; AVX512F-NEXT:    vpblendvb %ymm3, %ymm5, %ymm4, %ymm4
269 ; AVX512F-NEXT:    vpsrlw $1, %ymm4, %ymm5
270 ; AVX512F-NEXT:    vpbroadcastb {{.*#+}} ymm8 = [127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127]
271 ; AVX512F-NEXT:    vpand %ymm5, %ymm8, %ymm5
272 ; AVX512F-NEXT:    vpaddb %ymm3, %ymm3, %ymm3
273 ; AVX512F-NEXT:    vpblendvb %ymm3, %ymm5, %ymm4, %ymm3
274 ; AVX512F-NEXT:    vpsrlw $4, %ymm1, %ymm4
275 ; AVX512F-NEXT:    vpand %ymm6, %ymm4, %ymm4
276 ; AVX512F-NEXT:    vpsllw $5, %ymm2, %ymm2
277 ; AVX512F-NEXT:    vpblendvb %ymm2, %ymm4, %ymm1, %ymm1
278 ; AVX512F-NEXT:    vpsrlw $2, %ymm1, %ymm4
279 ; AVX512F-NEXT:    vpand %ymm7, %ymm4, %ymm4
280 ; AVX512F-NEXT:    vpaddb %ymm2, %ymm2, %ymm2
281 ; AVX512F-NEXT:    vpblendvb %ymm2, %ymm4, %ymm1, %ymm1
282 ; AVX512F-NEXT:    vpsrlw $1, %ymm1, %ymm4
283 ; AVX512F-NEXT:    vpand %ymm4, %ymm8, %ymm4
284 ; AVX512F-NEXT:    vpaddb %ymm2, %ymm2, %ymm2
285 ; AVX512F-NEXT:    vpblendvb %ymm2, %ymm4, %ymm1, %ymm1
286 ; AVX512F-NEXT:    vinserti64x4 $1, %ymm3, %zmm1, %zmm1
287 ; AVX512F-NEXT:    vporq %zmm1, %zmm0, %zmm0
288 ; AVX512F-NEXT:    retq
290 ; AVX512VL-LABEL: var_funnnel_v64i8:
291 ; AVX512VL:       # %bb.0:
292 ; AVX512VL-NEXT:    vextracti64x4 $1, %zmm0, %ymm3
293 ; AVX512VL-NEXT:    vpaddb %ymm3, %ymm3, %ymm4
294 ; AVX512VL-NEXT:    vpsllw $4, %ymm4, %ymm3
295 ; AVX512VL-NEXT:    vpbroadcastd {{.*#+}} ymm5 = [240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240,240]
296 ; AVX512VL-NEXT:    vpand %ymm5, %ymm3, %ymm6
297 ; AVX512VL-NEXT:    vpandd {{\.?LCPI[0-9]+_[0-9]+}}(%rip){1to16}, %zmm2, %zmm2
298 ; AVX512VL-NEXT:    vextracti64x4 $1, %zmm2, %ymm3
299 ; AVX512VL-NEXT:    vpbroadcastd {{.*#+}} ymm7 = [7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7,7]
300 ; AVX512VL-NEXT:    vpxor %ymm7, %ymm3, %ymm8
301 ; AVX512VL-NEXT:    vpsllw $5, %ymm8, %ymm8
302 ; AVX512VL-NEXT:    vpblendvb %ymm8, %ymm6, %ymm4, %ymm4
303 ; AVX512VL-NEXT:    vpsllw $2, %ymm4, %ymm6
304 ; AVX512VL-NEXT:    vpbroadcastd {{.*#+}} ymm9 = [252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252,252]
305 ; AVX512VL-NEXT:    vpand %ymm6, %ymm9, %ymm6
306 ; AVX512VL-NEXT:    vpaddb %ymm8, %ymm8, %ymm8
307 ; AVX512VL-NEXT:    vpblendvb %ymm8, %ymm6, %ymm4, %ymm4
308 ; AVX512VL-NEXT:    vpaddb %ymm4, %ymm4, %ymm6
309 ; AVX512VL-NEXT:    vpaddb %ymm8, %ymm8, %ymm8
310 ; AVX512VL-NEXT:    vpblendvb %ymm8, %ymm6, %ymm4, %ymm4
311 ; AVX512VL-NEXT:    vpaddb %ymm0, %ymm0, %ymm0
312 ; AVX512VL-NEXT:    vpsllw $4, %ymm0, %ymm6
313 ; AVX512VL-NEXT:    vpand %ymm5, %ymm6, %ymm5
314 ; AVX512VL-NEXT:    vpxor %ymm7, %ymm2, %ymm6
315 ; AVX512VL-NEXT:    vpsllw $5, %ymm6, %ymm6
316 ; AVX512VL-NEXT:    vpblendvb %ymm6, %ymm5, %ymm0, %ymm0
317 ; AVX512VL-NEXT:    vpsllw $2, %ymm0, %ymm5
318 ; AVX512VL-NEXT:    vpand %ymm5, %ymm9, %ymm5
319 ; AVX512VL-NEXT:    vpaddb %ymm6, %ymm6, %ymm6
320 ; AVX512VL-NEXT:    vpblendvb %ymm6, %ymm5, %ymm0, %ymm0
321 ; AVX512VL-NEXT:    vpaddb %ymm0, %ymm0, %ymm5
322 ; AVX512VL-NEXT:    vpaddb %ymm6, %ymm6, %ymm6
323 ; AVX512VL-NEXT:    vpblendvb %ymm6, %ymm5, %ymm0, %ymm0
324 ; AVX512VL-NEXT:    vinserti64x4 $1, %ymm4, %zmm0, %zmm0
325 ; AVX512VL-NEXT:    vextracti64x4 $1, %zmm1, %ymm4
326 ; AVX512VL-NEXT:    vpsrlw $4, %ymm4, %ymm5
327 ; AVX512VL-NEXT:    vpbroadcastd {{.*#+}} ymm6 = [15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15,15]
328 ; AVX512VL-NEXT:    vpand %ymm6, %ymm5, %ymm5
329 ; AVX512VL-NEXT:    vpsllw $5, %ymm3, %ymm3
330 ; AVX512VL-NEXT:    vpblendvb %ymm3, %ymm5, %ymm4, %ymm4
331 ; AVX512VL-NEXT:    vpsrlw $2, %ymm4, %ymm5
332 ; AVX512VL-NEXT:    vpbroadcastd {{.*#+}} ymm7 = [63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63,63]
333 ; AVX512VL-NEXT:    vpand %ymm7, %ymm5, %ymm5
334 ; AVX512VL-NEXT:    vpaddb %ymm3, %ymm3, %ymm3
335 ; AVX512VL-NEXT:    vpblendvb %ymm3, %ymm5, %ymm4, %ymm4
336 ; AVX512VL-NEXT:    vpsrlw $1, %ymm4, %ymm5
337 ; AVX512VL-NEXT:    vpbroadcastd {{.*#+}} ymm8 = [127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127,127]
338 ; AVX512VL-NEXT:    vpand %ymm5, %ymm8, %ymm5
339 ; AVX512VL-NEXT:    vpaddb %ymm3, %ymm3, %ymm3
340 ; AVX512VL-NEXT:    vpblendvb %ymm3, %ymm5, %ymm4, %ymm3
341 ; AVX512VL-NEXT:    vpsrlw $4, %ymm1, %ymm4
342 ; AVX512VL-NEXT:    vpand %ymm6, %ymm4, %ymm4
343 ; AVX512VL-NEXT:    vpsllw $5, %ymm2, %ymm2
344 ; AVX512VL-NEXT:    vpblendvb %ymm2, %ymm4, %ymm1, %ymm1
345 ; AVX512VL-NEXT:    vpsrlw $2, %ymm1, %ymm4
346 ; AVX512VL-NEXT:    vpand %ymm7, %ymm4, %ymm4
347 ; AVX512VL-NEXT:    vpaddb %ymm2, %ymm2, %ymm2
348 ; AVX512VL-NEXT:    vpblendvb %ymm2, %ymm4, %ymm1, %ymm1
349 ; AVX512VL-NEXT:    vpsrlw $1, %ymm1, %ymm4
350 ; AVX512VL-NEXT:    vpand %ymm4, %ymm8, %ymm4
351 ; AVX512VL-NEXT:    vpaddb %ymm2, %ymm2, %ymm2
352 ; AVX512VL-NEXT:    vpblendvb %ymm2, %ymm4, %ymm1, %ymm1
353 ; AVX512VL-NEXT:    vinserti64x4 $1, %ymm3, %zmm1, %zmm1
354 ; AVX512VL-NEXT:    vporq %zmm1, %zmm0, %zmm0
355 ; AVX512VL-NEXT:    retq
357 ; AVX512BW-LABEL: var_funnnel_v64i8:
358 ; AVX512BW:       # %bb.0:
359 ; AVX512BW-NEXT:    vpunpckhbw {{.*#+}} zmm3 = zmm1[8],zmm0[8],zmm1[9],zmm0[9],zmm1[10],zmm0[10],zmm1[11],zmm0[11],zmm1[12],zmm0[12],zmm1[13],zmm0[13],zmm1[14],zmm0[14],zmm1[15],zmm0[15],zmm1[24],zmm0[24],zmm1[25],zmm0[25],zmm1[26],zmm0[26],zmm1[27],zmm0[27],zmm1[28],zmm0[28],zmm1[29],zmm0[29],zmm1[30],zmm0[30],zmm1[31],zmm0[31],zmm1[40],zmm0[40],zmm1[41],zmm0[41],zmm1[42],zmm0[42],zmm1[43],zmm0[43],zmm1[44],zmm0[44],zmm1[45],zmm0[45],zmm1[46],zmm0[46],zmm1[47],zmm0[47],zmm1[56],zmm0[56],zmm1[57],zmm0[57],zmm1[58],zmm0[58],zmm1[59],zmm0[59],zmm1[60],zmm0[60],zmm1[61],zmm0[61],zmm1[62],zmm0[62],zmm1[63],zmm0[63]
360 ; AVX512BW-NEXT:    vpandd {{\.?LCPI[0-9]+_[0-9]+}}(%rip){1to16}, %zmm2, %zmm2
361 ; AVX512BW-NEXT:    vpxor %xmm4, %xmm4, %xmm4
362 ; AVX512BW-NEXT:    vpunpckhbw {{.*#+}} zmm5 = zmm2[8],zmm4[8],zmm2[9],zmm4[9],zmm2[10],zmm4[10],zmm2[11],zmm4[11],zmm2[12],zmm4[12],zmm2[13],zmm4[13],zmm2[14],zmm4[14],zmm2[15],zmm4[15],zmm2[24],zmm4[24],zmm2[25],zmm4[25],zmm2[26],zmm4[26],zmm2[27],zmm4[27],zmm2[28],zmm4[28],zmm2[29],zmm4[29],zmm2[30],zmm4[30],zmm2[31],zmm4[31],zmm2[40],zmm4[40],zmm2[41],zmm4[41],zmm2[42],zmm4[42],zmm2[43],zmm4[43],zmm2[44],zmm4[44],zmm2[45],zmm4[45],zmm2[46],zmm4[46],zmm2[47],zmm4[47],zmm2[56],zmm4[56],zmm2[57],zmm4[57],zmm2[58],zmm4[58],zmm2[59],zmm4[59],zmm2[60],zmm4[60],zmm2[61],zmm4[61],zmm2[62],zmm4[62],zmm2[63],zmm4[63]
363 ; AVX512BW-NEXT:    vpsrlvw %zmm5, %zmm3, %zmm3
364 ; AVX512BW-NEXT:    vpbroadcastw {{.*#+}} zmm5 = [255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255]
365 ; AVX512BW-NEXT:    vpandq %zmm5, %zmm3, %zmm3
366 ; AVX512BW-NEXT:    vpunpcklbw {{.*#+}} zmm0 = zmm1[0],zmm0[0],zmm1[1],zmm0[1],zmm1[2],zmm0[2],zmm1[3],zmm0[3],zmm1[4],zmm0[4],zmm1[5],zmm0[5],zmm1[6],zmm0[6],zmm1[7],zmm0[7],zmm1[16],zmm0[16],zmm1[17],zmm0[17],zmm1[18],zmm0[18],zmm1[19],zmm0[19],zmm1[20],zmm0[20],zmm1[21],zmm0[21],zmm1[22],zmm0[22],zmm1[23],zmm0[23],zmm1[32],zmm0[32],zmm1[33],zmm0[33],zmm1[34],zmm0[34],zmm1[35],zmm0[35],zmm1[36],zmm0[36],zmm1[37],zmm0[37],zmm1[38],zmm0[38],zmm1[39],zmm0[39],zmm1[48],zmm0[48],zmm1[49],zmm0[49],zmm1[50],zmm0[50],zmm1[51],zmm0[51],zmm1[52],zmm0[52],zmm1[53],zmm0[53],zmm1[54],zmm0[54],zmm1[55],zmm0[55]
367 ; AVX512BW-NEXT:    vpunpcklbw {{.*#+}} zmm1 = zmm2[0],zmm4[0],zmm2[1],zmm4[1],zmm2[2],zmm4[2],zmm2[3],zmm4[3],zmm2[4],zmm4[4],zmm2[5],zmm4[5],zmm2[6],zmm4[6],zmm2[7],zmm4[7],zmm2[16],zmm4[16],zmm2[17],zmm4[17],zmm2[18],zmm4[18],zmm2[19],zmm4[19],zmm2[20],zmm4[20],zmm2[21],zmm4[21],zmm2[22],zmm4[22],zmm2[23],zmm4[23],zmm2[32],zmm4[32],zmm2[33],zmm4[33],zmm2[34],zmm4[34],zmm2[35],zmm4[35],zmm2[36],zmm4[36],zmm2[37],zmm4[37],zmm2[38],zmm4[38],zmm2[39],zmm4[39],zmm2[48],zmm4[48],zmm2[49],zmm4[49],zmm2[50],zmm4[50],zmm2[51],zmm4[51],zmm2[52],zmm4[52],zmm2[53],zmm4[53],zmm2[54],zmm4[54],zmm2[55],zmm4[55]
368 ; AVX512BW-NEXT:    vpsrlvw %zmm1, %zmm0, %zmm0
369 ; AVX512BW-NEXT:    vpandq %zmm5, %zmm0, %zmm0
370 ; AVX512BW-NEXT:    vpackuswb %zmm3, %zmm0, %zmm0
371 ; AVX512BW-NEXT:    retq
373 ; AVX512VBMI2-LABEL: var_funnnel_v64i8:
374 ; AVX512VBMI2:       # %bb.0:
375 ; AVX512VBMI2-NEXT:    vpunpckhbw {{.*#+}} zmm3 = zmm1[8],zmm0[8],zmm1[9],zmm0[9],zmm1[10],zmm0[10],zmm1[11],zmm0[11],zmm1[12],zmm0[12],zmm1[13],zmm0[13],zmm1[14],zmm0[14],zmm1[15],zmm0[15],zmm1[24],zmm0[24],zmm1[25],zmm0[25],zmm1[26],zmm0[26],zmm1[27],zmm0[27],zmm1[28],zmm0[28],zmm1[29],zmm0[29],zmm1[30],zmm0[30],zmm1[31],zmm0[31],zmm1[40],zmm0[40],zmm1[41],zmm0[41],zmm1[42],zmm0[42],zmm1[43],zmm0[43],zmm1[44],zmm0[44],zmm1[45],zmm0[45],zmm1[46],zmm0[46],zmm1[47],zmm0[47],zmm1[56],zmm0[56],zmm1[57],zmm0[57],zmm1[58],zmm0[58],zmm1[59],zmm0[59],zmm1[60],zmm0[60],zmm1[61],zmm0[61],zmm1[62],zmm0[62],zmm1[63],zmm0[63]
376 ; AVX512VBMI2-NEXT:    vpandd {{\.?LCPI[0-9]+_[0-9]+}}(%rip){1to16}, %zmm2, %zmm2
377 ; AVX512VBMI2-NEXT:    vpxor %xmm4, %xmm4, %xmm4
378 ; AVX512VBMI2-NEXT:    vpunpckhbw {{.*#+}} zmm5 = zmm2[8],zmm4[8],zmm2[9],zmm4[9],zmm2[10],zmm4[10],zmm2[11],zmm4[11],zmm2[12],zmm4[12],zmm2[13],zmm4[13],zmm2[14],zmm4[14],zmm2[15],zmm4[15],zmm2[24],zmm4[24],zmm2[25],zmm4[25],zmm2[26],zmm4[26],zmm2[27],zmm4[27],zmm2[28],zmm4[28],zmm2[29],zmm4[29],zmm2[30],zmm4[30],zmm2[31],zmm4[31],zmm2[40],zmm4[40],zmm2[41],zmm4[41],zmm2[42],zmm4[42],zmm2[43],zmm4[43],zmm2[44],zmm4[44],zmm2[45],zmm4[45],zmm2[46],zmm4[46],zmm2[47],zmm4[47],zmm2[56],zmm4[56],zmm2[57],zmm4[57],zmm2[58],zmm4[58],zmm2[59],zmm4[59],zmm2[60],zmm4[60],zmm2[61],zmm4[61],zmm2[62],zmm4[62],zmm2[63],zmm4[63]
379 ; AVX512VBMI2-NEXT:    vpsrlvw %zmm5, %zmm3, %zmm3
380 ; AVX512VBMI2-NEXT:    vpunpcklbw {{.*#+}} zmm0 = zmm1[0],zmm0[0],zmm1[1],zmm0[1],zmm1[2],zmm0[2],zmm1[3],zmm0[3],zmm1[4],zmm0[4],zmm1[5],zmm0[5],zmm1[6],zmm0[6],zmm1[7],zmm0[7],zmm1[16],zmm0[16],zmm1[17],zmm0[17],zmm1[18],zmm0[18],zmm1[19],zmm0[19],zmm1[20],zmm0[20],zmm1[21],zmm0[21],zmm1[22],zmm0[22],zmm1[23],zmm0[23],zmm1[32],zmm0[32],zmm1[33],zmm0[33],zmm1[34],zmm0[34],zmm1[35],zmm0[35],zmm1[36],zmm0[36],zmm1[37],zmm0[37],zmm1[38],zmm0[38],zmm1[39],zmm0[39],zmm1[48],zmm0[48],zmm1[49],zmm0[49],zmm1[50],zmm0[50],zmm1[51],zmm0[51],zmm1[52],zmm0[52],zmm1[53],zmm0[53],zmm1[54],zmm0[54],zmm1[55],zmm0[55]
381 ; AVX512VBMI2-NEXT:    vpunpcklbw {{.*#+}} zmm1 = zmm2[0],zmm4[0],zmm2[1],zmm4[1],zmm2[2],zmm4[2],zmm2[3],zmm4[3],zmm2[4],zmm4[4],zmm2[5],zmm4[5],zmm2[6],zmm4[6],zmm2[7],zmm4[7],zmm2[16],zmm4[16],zmm2[17],zmm4[17],zmm2[18],zmm4[18],zmm2[19],zmm4[19],zmm2[20],zmm4[20],zmm2[21],zmm4[21],zmm2[22],zmm4[22],zmm2[23],zmm4[23],zmm2[32],zmm4[32],zmm2[33],zmm4[33],zmm2[34],zmm4[34],zmm2[35],zmm4[35],zmm2[36],zmm4[36],zmm2[37],zmm4[37],zmm2[38],zmm4[38],zmm2[39],zmm4[39],zmm2[48],zmm4[48],zmm2[49],zmm4[49],zmm2[50],zmm4[50],zmm2[51],zmm4[51],zmm2[52],zmm4[52],zmm2[53],zmm4[53],zmm2[54],zmm4[54],zmm2[55],zmm4[55]
382 ; AVX512VBMI2-NEXT:    vpsrlvw %zmm1, %zmm0, %zmm1
383 ; AVX512VBMI2-NEXT:    vmovdqa64 {{.*#+}} zmm0 = [0,2,4,6,8,10,12,14,64,66,68,70,72,74,76,78,16,18,20,22,24,26,28,30,80,82,84,86,88,90,92,94,32,34,36,38,40,42,44,46,96,98,100,102,104,106,108,110,48,50,52,54,56,58,60,62,112,114,116,118,120,122,124,126]
384 ; AVX512VBMI2-NEXT:    vpermi2b %zmm3, %zmm1, %zmm0
385 ; AVX512VBMI2-NEXT:    retq
387 ; AVX512VLBW-LABEL: var_funnnel_v64i8:
388 ; AVX512VLBW:       # %bb.0:
389 ; AVX512VLBW-NEXT:    vpunpckhbw {{.*#+}} zmm3 = zmm1[8],zmm0[8],zmm1[9],zmm0[9],zmm1[10],zmm0[10],zmm1[11],zmm0[11],zmm1[12],zmm0[12],zmm1[13],zmm0[13],zmm1[14],zmm0[14],zmm1[15],zmm0[15],zmm1[24],zmm0[24],zmm1[25],zmm0[25],zmm1[26],zmm0[26],zmm1[27],zmm0[27],zmm1[28],zmm0[28],zmm1[29],zmm0[29],zmm1[30],zmm0[30],zmm1[31],zmm0[31],zmm1[40],zmm0[40],zmm1[41],zmm0[41],zmm1[42],zmm0[42],zmm1[43],zmm0[43],zmm1[44],zmm0[44],zmm1[45],zmm0[45],zmm1[46],zmm0[46],zmm1[47],zmm0[47],zmm1[56],zmm0[56],zmm1[57],zmm0[57],zmm1[58],zmm0[58],zmm1[59],zmm0[59],zmm1[60],zmm0[60],zmm1[61],zmm0[61],zmm1[62],zmm0[62],zmm1[63],zmm0[63]
390 ; AVX512VLBW-NEXT:    vpandd {{\.?LCPI[0-9]+_[0-9]+}}(%rip){1to16}, %zmm2, %zmm2
391 ; AVX512VLBW-NEXT:    vpxor %xmm4, %xmm4, %xmm4
392 ; AVX512VLBW-NEXT:    vpunpckhbw {{.*#+}} zmm5 = zmm2[8],zmm4[8],zmm2[9],zmm4[9],zmm2[10],zmm4[10],zmm2[11],zmm4[11],zmm2[12],zmm4[12],zmm2[13],zmm4[13],zmm2[14],zmm4[14],zmm2[15],zmm4[15],zmm2[24],zmm4[24],zmm2[25],zmm4[25],zmm2[26],zmm4[26],zmm2[27],zmm4[27],zmm2[28],zmm4[28],zmm2[29],zmm4[29],zmm2[30],zmm4[30],zmm2[31],zmm4[31],zmm2[40],zmm4[40],zmm2[41],zmm4[41],zmm2[42],zmm4[42],zmm2[43],zmm4[43],zmm2[44],zmm4[44],zmm2[45],zmm4[45],zmm2[46],zmm4[46],zmm2[47],zmm4[47],zmm2[56],zmm4[56],zmm2[57],zmm4[57],zmm2[58],zmm4[58],zmm2[59],zmm4[59],zmm2[60],zmm4[60],zmm2[61],zmm4[61],zmm2[62],zmm4[62],zmm2[63],zmm4[63]
393 ; AVX512VLBW-NEXT:    vpsrlvw %zmm5, %zmm3, %zmm3
394 ; AVX512VLBW-NEXT:    vpbroadcastw {{.*#+}} zmm5 = [255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255]
395 ; AVX512VLBW-NEXT:    vpandq %zmm5, %zmm3, %zmm3
396 ; AVX512VLBW-NEXT:    vpunpcklbw {{.*#+}} zmm0 = zmm1[0],zmm0[0],zmm1[1],zmm0[1],zmm1[2],zmm0[2],zmm1[3],zmm0[3],zmm1[4],zmm0[4],zmm1[5],zmm0[5],zmm1[6],zmm0[6],zmm1[7],zmm0[7],zmm1[16],zmm0[16],zmm1[17],zmm0[17],zmm1[18],zmm0[18],zmm1[19],zmm0[19],zmm1[20],zmm0[20],zmm1[21],zmm0[21],zmm1[22],zmm0[22],zmm1[23],zmm0[23],zmm1[32],zmm0[32],zmm1[33],zmm0[33],zmm1[34],zmm0[34],zmm1[35],zmm0[35],zmm1[36],zmm0[36],zmm1[37],zmm0[37],zmm1[38],zmm0[38],zmm1[39],zmm0[39],zmm1[48],zmm0[48],zmm1[49],zmm0[49],zmm1[50],zmm0[50],zmm1[51],zmm0[51],zmm1[52],zmm0[52],zmm1[53],zmm0[53],zmm1[54],zmm0[54],zmm1[55],zmm0[55]
397 ; AVX512VLBW-NEXT:    vpunpcklbw {{.*#+}} zmm1 = zmm2[0],zmm4[0],zmm2[1],zmm4[1],zmm2[2],zmm4[2],zmm2[3],zmm4[3],zmm2[4],zmm4[4],zmm2[5],zmm4[5],zmm2[6],zmm4[6],zmm2[7],zmm4[7],zmm2[16],zmm4[16],zmm2[17],zmm4[17],zmm2[18],zmm4[18],zmm2[19],zmm4[19],zmm2[20],zmm4[20],zmm2[21],zmm4[21],zmm2[22],zmm4[22],zmm2[23],zmm4[23],zmm2[32],zmm4[32],zmm2[33],zmm4[33],zmm2[34],zmm4[34],zmm2[35],zmm4[35],zmm2[36],zmm4[36],zmm2[37],zmm4[37],zmm2[38],zmm4[38],zmm2[39],zmm4[39],zmm2[48],zmm4[48],zmm2[49],zmm4[49],zmm2[50],zmm4[50],zmm2[51],zmm4[51],zmm2[52],zmm4[52],zmm2[53],zmm4[53],zmm2[54],zmm4[54],zmm2[55],zmm4[55]
398 ; AVX512VLBW-NEXT:    vpsrlvw %zmm1, %zmm0, %zmm0
399 ; AVX512VLBW-NEXT:    vpandq %zmm5, %zmm0, %zmm0
400 ; AVX512VLBW-NEXT:    vpackuswb %zmm3, %zmm0, %zmm0
401 ; AVX512VLBW-NEXT:    retq
403 ; AVX512VLVBMI2-LABEL: var_funnnel_v64i8:
404 ; AVX512VLVBMI2:       # %bb.0:
405 ; AVX512VLVBMI2-NEXT:    vpunpckhbw {{.*#+}} zmm3 = zmm1[8],zmm0[8],zmm1[9],zmm0[9],zmm1[10],zmm0[10],zmm1[11],zmm0[11],zmm1[12],zmm0[12],zmm1[13],zmm0[13],zmm1[14],zmm0[14],zmm1[15],zmm0[15],zmm1[24],zmm0[24],zmm1[25],zmm0[25],zmm1[26],zmm0[26],zmm1[27],zmm0[27],zmm1[28],zmm0[28],zmm1[29],zmm0[29],zmm1[30],zmm0[30],zmm1[31],zmm0[31],zmm1[40],zmm0[40],zmm1[41],zmm0[41],zmm1[42],zmm0[42],zmm1[43],zmm0[43],zmm1[44],zmm0[44],zmm1[45],zmm0[45],zmm1[46],zmm0[46],zmm1[47],zmm0[47],zmm1[56],zmm0[56],zmm1[57],zmm0[57],zmm1[58],zmm0[58],zmm1[59],zmm0[59],zmm1[60],zmm0[60],zmm1[61],zmm0[61],zmm1[62],zmm0[62],zmm1[63],zmm0[63]
406 ; AVX512VLVBMI2-NEXT:    vpandd {{\.?LCPI[0-9]+_[0-9]+}}(%rip){1to16}, %zmm2, %zmm2
407 ; AVX512VLVBMI2-NEXT:    vpxor %xmm4, %xmm4, %xmm4
408 ; AVX512VLVBMI2-NEXT:    vpunpckhbw {{.*#+}} zmm5 = zmm2[8],zmm4[8],zmm2[9],zmm4[9],zmm2[10],zmm4[10],zmm2[11],zmm4[11],zmm2[12],zmm4[12],zmm2[13],zmm4[13],zmm2[14],zmm4[14],zmm2[15],zmm4[15],zmm2[24],zmm4[24],zmm2[25],zmm4[25],zmm2[26],zmm4[26],zmm2[27],zmm4[27],zmm2[28],zmm4[28],zmm2[29],zmm4[29],zmm2[30],zmm4[30],zmm2[31],zmm4[31],zmm2[40],zmm4[40],zmm2[41],zmm4[41],zmm2[42],zmm4[42],zmm2[43],zmm4[43],zmm2[44],zmm4[44],zmm2[45],zmm4[45],zmm2[46],zmm4[46],zmm2[47],zmm4[47],zmm2[56],zmm4[56],zmm2[57],zmm4[57],zmm2[58],zmm4[58],zmm2[59],zmm4[59],zmm2[60],zmm4[60],zmm2[61],zmm4[61],zmm2[62],zmm4[62],zmm2[63],zmm4[63]
409 ; AVX512VLVBMI2-NEXT:    vpsrlvw %zmm5, %zmm3, %zmm3
410 ; AVX512VLVBMI2-NEXT:    vpunpcklbw {{.*#+}} zmm0 = zmm1[0],zmm0[0],zmm1[1],zmm0[1],zmm1[2],zmm0[2],zmm1[3],zmm0[3],zmm1[4],zmm0[4],zmm1[5],zmm0[5],zmm1[6],zmm0[6],zmm1[7],zmm0[7],zmm1[16],zmm0[16],zmm1[17],zmm0[17],zmm1[18],zmm0[18],zmm1[19],zmm0[19],zmm1[20],zmm0[20],zmm1[21],zmm0[21],zmm1[22],zmm0[22],zmm1[23],zmm0[23],zmm1[32],zmm0[32],zmm1[33],zmm0[33],zmm1[34],zmm0[34],zmm1[35],zmm0[35],zmm1[36],zmm0[36],zmm1[37],zmm0[37],zmm1[38],zmm0[38],zmm1[39],zmm0[39],zmm1[48],zmm0[48],zmm1[49],zmm0[49],zmm1[50],zmm0[50],zmm1[51],zmm0[51],zmm1[52],zmm0[52],zmm1[53],zmm0[53],zmm1[54],zmm0[54],zmm1[55],zmm0[55]
411 ; AVX512VLVBMI2-NEXT:    vpunpcklbw {{.*#+}} zmm1 = zmm2[0],zmm4[0],zmm2[1],zmm4[1],zmm2[2],zmm4[2],zmm2[3],zmm4[3],zmm2[4],zmm4[4],zmm2[5],zmm4[5],zmm2[6],zmm4[6],zmm2[7],zmm4[7],zmm2[16],zmm4[16],zmm2[17],zmm4[17],zmm2[18],zmm4[18],zmm2[19],zmm4[19],zmm2[20],zmm4[20],zmm2[21],zmm4[21],zmm2[22],zmm4[22],zmm2[23],zmm4[23],zmm2[32],zmm4[32],zmm2[33],zmm4[33],zmm2[34],zmm4[34],zmm2[35],zmm4[35],zmm2[36],zmm4[36],zmm2[37],zmm4[37],zmm2[38],zmm4[38],zmm2[39],zmm4[39],zmm2[48],zmm4[48],zmm2[49],zmm4[49],zmm2[50],zmm4[50],zmm2[51],zmm4[51],zmm2[52],zmm4[52],zmm2[53],zmm4[53],zmm2[54],zmm4[54],zmm2[55],zmm4[55]
412 ; AVX512VLVBMI2-NEXT:    vpsrlvw %zmm1, %zmm0, %zmm1
413 ; AVX512VLVBMI2-NEXT:    vmovdqa64 {{.*#+}} zmm0 = [0,2,4,6,8,10,12,14,64,66,68,70,72,74,76,78,16,18,20,22,24,26,28,30,80,82,84,86,88,90,92,94,32,34,36,38,40,42,44,46,96,98,100,102,104,106,108,110,48,50,52,54,56,58,60,62,112,114,116,118,120,122,124,126]
414 ; AVX512VLVBMI2-NEXT:    vpermi2b %zmm3, %zmm1, %zmm0
415 ; AVX512VLVBMI2-NEXT:    retq
416   %res = call <64 x i8> @llvm.fshr.v64i8(<64 x i8> %x, <64 x i8> %y, <64 x i8> %amt)
417   ret <64 x i8> %res
421 ; Uniform Variable Shifts
424 define <8 x i64> @splatvar_funnnel_v8i64(<8 x i64> %x, <8 x i64> %y, <8 x i64> %amt) nounwind {
425 ; AVX512F-LABEL: splatvar_funnnel_v8i64:
426 ; AVX512F:       # %bb.0:
427 ; AVX512F-NEXT:    vpbroadcastq {{.*#+}} xmm3 = [63,63]
428 ; AVX512F-NEXT:    vpand %xmm3, %xmm2, %xmm4
429 ; AVX512F-NEXT:    vpsrlq %xmm4, %zmm1, %zmm1
430 ; AVX512F-NEXT:    vpandn %xmm3, %xmm2, %xmm2
431 ; AVX512F-NEXT:    vpaddq %zmm0, %zmm0, %zmm0
432 ; AVX512F-NEXT:    vpsllq %xmm2, %zmm0, %zmm0
433 ; AVX512F-NEXT:    vporq %zmm1, %zmm0, %zmm0
434 ; AVX512F-NEXT:    retq
436 ; AVX512VL-LABEL: splatvar_funnnel_v8i64:
437 ; AVX512VL:       # %bb.0:
438 ; AVX512VL-NEXT:    vpbroadcastq {{.*#+}} xmm3 = [63,63]
439 ; AVX512VL-NEXT:    vpand %xmm3, %xmm2, %xmm4
440 ; AVX512VL-NEXT:    vpsrlq %xmm4, %zmm1, %zmm1
441 ; AVX512VL-NEXT:    vpandn %xmm3, %xmm2, %xmm2
442 ; AVX512VL-NEXT:    vpaddq %zmm0, %zmm0, %zmm0
443 ; AVX512VL-NEXT:    vpsllq %xmm2, %zmm0, %zmm0
444 ; AVX512VL-NEXT:    vporq %zmm1, %zmm0, %zmm0
445 ; AVX512VL-NEXT:    retq
447 ; AVX512BW-LABEL: splatvar_funnnel_v8i64:
448 ; AVX512BW:       # %bb.0:
449 ; AVX512BW-NEXT:    vpbroadcastq {{.*#+}} xmm3 = [63,63]
450 ; AVX512BW-NEXT:    vpand %xmm3, %xmm2, %xmm4
451 ; AVX512BW-NEXT:    vpsrlq %xmm4, %zmm1, %zmm1
452 ; AVX512BW-NEXT:    vpandn %xmm3, %xmm2, %xmm2
453 ; AVX512BW-NEXT:    vpaddq %zmm0, %zmm0, %zmm0
454 ; AVX512BW-NEXT:    vpsllq %xmm2, %zmm0, %zmm0
455 ; AVX512BW-NEXT:    vporq %zmm1, %zmm0, %zmm0
456 ; AVX512BW-NEXT:    retq
458 ; AVX512VBMI2-LABEL: splatvar_funnnel_v8i64:
459 ; AVX512VBMI2:       # %bb.0:
460 ; AVX512VBMI2-NEXT:    vpbroadcastq %xmm2, %zmm2
461 ; AVX512VBMI2-NEXT:    vpshrdvq %zmm2, %zmm0, %zmm1
462 ; AVX512VBMI2-NEXT:    vmovdqa64 %zmm1, %zmm0
463 ; AVX512VBMI2-NEXT:    retq
465 ; AVX512VLBW-LABEL: splatvar_funnnel_v8i64:
466 ; AVX512VLBW:       # %bb.0:
467 ; AVX512VLBW-NEXT:    vpbroadcastq {{.*#+}} xmm3 = [63,63]
468 ; AVX512VLBW-NEXT:    vpand %xmm3, %xmm2, %xmm4
469 ; AVX512VLBW-NEXT:    vpsrlq %xmm4, %zmm1, %zmm1
470 ; AVX512VLBW-NEXT:    vpandn %xmm3, %xmm2, %xmm2
471 ; AVX512VLBW-NEXT:    vpaddq %zmm0, %zmm0, %zmm0
472 ; AVX512VLBW-NEXT:    vpsllq %xmm2, %zmm0, %zmm0
473 ; AVX512VLBW-NEXT:    vporq %zmm1, %zmm0, %zmm0
474 ; AVX512VLBW-NEXT:    retq
476 ; AVX512VLVBMI2-LABEL: splatvar_funnnel_v8i64:
477 ; AVX512VLVBMI2:       # %bb.0:
478 ; AVX512VLVBMI2-NEXT:    vpbroadcastq %xmm2, %zmm2
479 ; AVX512VLVBMI2-NEXT:    vpshrdvq %zmm2, %zmm0, %zmm1
480 ; AVX512VLVBMI2-NEXT:    vmovdqa64 %zmm1, %zmm0
481 ; AVX512VLVBMI2-NEXT:    retq
482   %splat = shufflevector <8 x i64> %amt, <8 x i64> undef, <8 x i32> zeroinitializer
483   %res = call <8 x i64> @llvm.fshr.v8i64(<8 x i64> %x, <8 x i64> %y, <8 x i64> %splat)
484   ret <8 x i64> %res
487 define <16 x i32> @splatvar_funnnel_v16i32(<16 x i32> %x, <16 x i32> %y, <16 x i32> %amt) nounwind {
488 ; AVX512F-LABEL: splatvar_funnnel_v16i32:
489 ; AVX512F:       # %bb.0:
490 ; AVX512F-NEXT:    vpunpckhdq {{.*#+}} zmm3 = zmm1[2],zmm0[2],zmm1[3],zmm0[3],zmm1[6],zmm0[6],zmm1[7],zmm0[7],zmm1[10],zmm0[10],zmm1[11],zmm0[11],zmm1[14],zmm0[14],zmm1[15],zmm0[15]
491 ; AVX512F-NEXT:    vpand {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %xmm2, %xmm2
492 ; AVX512F-NEXT:    vpsrlq %xmm2, %zmm3, %zmm3
493 ; AVX512F-NEXT:    vpunpckldq {{.*#+}} zmm0 = zmm1[0],zmm0[0],zmm1[1],zmm0[1],zmm1[4],zmm0[4],zmm1[5],zmm0[5],zmm1[8],zmm0[8],zmm1[9],zmm0[9],zmm1[12],zmm0[12],zmm1[13],zmm0[13]
494 ; AVX512F-NEXT:    vpsrlq %xmm2, %zmm0, %zmm0
495 ; AVX512F-NEXT:    vshufps {{.*#+}} zmm0 = zmm0[0,2],zmm3[0,2],zmm0[4,6],zmm3[4,6],zmm0[8,10],zmm3[8,10],zmm0[12,14],zmm3[12,14]
496 ; AVX512F-NEXT:    retq
498 ; AVX512VL-LABEL: splatvar_funnnel_v16i32:
499 ; AVX512VL:       # %bb.0:
500 ; AVX512VL-NEXT:    vpunpckhdq {{.*#+}} zmm3 = zmm1[2],zmm0[2],zmm1[3],zmm0[3],zmm1[6],zmm0[6],zmm1[7],zmm0[7],zmm1[10],zmm0[10],zmm1[11],zmm0[11],zmm1[14],zmm0[14],zmm1[15],zmm0[15]
501 ; AVX512VL-NEXT:    vpand {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %xmm2, %xmm2
502 ; AVX512VL-NEXT:    vpsrlq %xmm2, %zmm3, %zmm3
503 ; AVX512VL-NEXT:    vpunpckldq {{.*#+}} zmm0 = zmm1[0],zmm0[0],zmm1[1],zmm0[1],zmm1[4],zmm0[4],zmm1[5],zmm0[5],zmm1[8],zmm0[8],zmm1[9],zmm0[9],zmm1[12],zmm0[12],zmm1[13],zmm0[13]
504 ; AVX512VL-NEXT:    vpsrlq %xmm2, %zmm0, %zmm0
505 ; AVX512VL-NEXT:    vshufps {{.*#+}} zmm0 = zmm0[0,2],zmm3[0,2],zmm0[4,6],zmm3[4,6],zmm0[8,10],zmm3[8,10],zmm0[12,14],zmm3[12,14]
506 ; AVX512VL-NEXT:    retq
508 ; AVX512BW-LABEL: splatvar_funnnel_v16i32:
509 ; AVX512BW:       # %bb.0:
510 ; AVX512BW-NEXT:    vpunpckhdq {{.*#+}} zmm3 = zmm1[2],zmm0[2],zmm1[3],zmm0[3],zmm1[6],zmm0[6],zmm1[7],zmm0[7],zmm1[10],zmm0[10],zmm1[11],zmm0[11],zmm1[14],zmm0[14],zmm1[15],zmm0[15]
511 ; AVX512BW-NEXT:    vpand {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %xmm2, %xmm2
512 ; AVX512BW-NEXT:    vpsrlq %xmm2, %zmm3, %zmm3
513 ; AVX512BW-NEXT:    vpunpckldq {{.*#+}} zmm0 = zmm1[0],zmm0[0],zmm1[1],zmm0[1],zmm1[4],zmm0[4],zmm1[5],zmm0[5],zmm1[8],zmm0[8],zmm1[9],zmm0[9],zmm1[12],zmm0[12],zmm1[13],zmm0[13]
514 ; AVX512BW-NEXT:    vpsrlq %xmm2, %zmm0, %zmm0
515 ; AVX512BW-NEXT:    vshufps {{.*#+}} zmm0 = zmm0[0,2],zmm3[0,2],zmm0[4,6],zmm3[4,6],zmm0[8,10],zmm3[8,10],zmm0[12,14],zmm3[12,14]
516 ; AVX512BW-NEXT:    retq
518 ; AVX512VBMI2-LABEL: splatvar_funnnel_v16i32:
519 ; AVX512VBMI2:       # %bb.0:
520 ; AVX512VBMI2-NEXT:    vpbroadcastd %xmm2, %zmm2
521 ; AVX512VBMI2-NEXT:    vpshrdvd %zmm2, %zmm0, %zmm1
522 ; AVX512VBMI2-NEXT:    vmovdqa64 %zmm1, %zmm0
523 ; AVX512VBMI2-NEXT:    retq
525 ; AVX512VLBW-LABEL: splatvar_funnnel_v16i32:
526 ; AVX512VLBW:       # %bb.0:
527 ; AVX512VLBW-NEXT:    vpunpckhdq {{.*#+}} zmm3 = zmm1[2],zmm0[2],zmm1[3],zmm0[3],zmm1[6],zmm0[6],zmm1[7],zmm0[7],zmm1[10],zmm0[10],zmm1[11],zmm0[11],zmm1[14],zmm0[14],zmm1[15],zmm0[15]
528 ; AVX512VLBW-NEXT:    vpand {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %xmm2, %xmm2
529 ; AVX512VLBW-NEXT:    vpsrlq %xmm2, %zmm3, %zmm3
530 ; AVX512VLBW-NEXT:    vpunpckldq {{.*#+}} zmm0 = zmm1[0],zmm0[0],zmm1[1],zmm0[1],zmm1[4],zmm0[4],zmm1[5],zmm0[5],zmm1[8],zmm0[8],zmm1[9],zmm0[9],zmm1[12],zmm0[12],zmm1[13],zmm0[13]
531 ; AVX512VLBW-NEXT:    vpsrlq %xmm2, %zmm0, %zmm0
532 ; AVX512VLBW-NEXT:    vshufps {{.*#+}} zmm0 = zmm0[0,2],zmm3[0,2],zmm0[4,6],zmm3[4,6],zmm0[8,10],zmm3[8,10],zmm0[12,14],zmm3[12,14]
533 ; AVX512VLBW-NEXT:    retq
535 ; AVX512VLVBMI2-LABEL: splatvar_funnnel_v16i32:
536 ; AVX512VLVBMI2:       # %bb.0:
537 ; AVX512VLVBMI2-NEXT:    vpbroadcastd %xmm2, %zmm2
538 ; AVX512VLVBMI2-NEXT:    vpshrdvd %zmm2, %zmm0, %zmm1
539 ; AVX512VLVBMI2-NEXT:    vmovdqa64 %zmm1, %zmm0
540 ; AVX512VLVBMI2-NEXT:    retq
541   %splat = shufflevector <16 x i32> %amt, <16 x i32> undef, <16 x i32> zeroinitializer
542   %res = call <16 x i32> @llvm.fshr.v16i32(<16 x i32> %x, <16 x i32> %y, <16 x i32> %splat)
543   ret <16 x i32> %res
546 define <32 x i16> @splatvar_funnnel_v32i16(<32 x i16> %x, <32 x i16> %y, <32 x i16> %amt) nounwind {
547 ; AVX512F-LABEL: splatvar_funnnel_v32i16:
548 ; AVX512F:       # %bb.0:
549 ; AVX512F-NEXT:    vpbroadcastq {{.*#+}} xmm3 = [15,0,0,0,15,0,0,0]
550 ; AVX512F-NEXT:    vpand %xmm3, %xmm2, %xmm4
551 ; AVX512F-NEXT:    vextracti64x4 $1, %zmm1, %ymm5
552 ; AVX512F-NEXT:    vpsrlw %xmm4, %ymm5, %ymm5
553 ; AVX512F-NEXT:    vpsrlw %xmm4, %ymm1, %ymm1
554 ; AVX512F-NEXT:    vinserti64x4 $1, %ymm5, %zmm1, %zmm1
555 ; AVX512F-NEXT:    vpandn %xmm3, %xmm2, %xmm2
556 ; AVX512F-NEXT:    vextracti64x4 $1, %zmm0, %ymm3
557 ; AVX512F-NEXT:    vpaddw %ymm3, %ymm3, %ymm3
558 ; AVX512F-NEXT:    vpsllw %xmm2, %ymm3, %ymm3
559 ; AVX512F-NEXT:    vpaddw %ymm0, %ymm0, %ymm0
560 ; AVX512F-NEXT:    vpsllw %xmm2, %ymm0, %ymm0
561 ; AVX512F-NEXT:    vinserti64x4 $1, %ymm3, %zmm0, %zmm0
562 ; AVX512F-NEXT:    vporq %zmm1, %zmm0, %zmm0
563 ; AVX512F-NEXT:    retq
565 ; AVX512VL-LABEL: splatvar_funnnel_v32i16:
566 ; AVX512VL:       # %bb.0:
567 ; AVX512VL-NEXT:    vpbroadcastq {{.*#+}} xmm3 = [15,0,0,0,15,0,0,0]
568 ; AVX512VL-NEXT:    vpand %xmm3, %xmm2, %xmm4
569 ; AVX512VL-NEXT:    vextracti64x4 $1, %zmm1, %ymm5
570 ; AVX512VL-NEXT:    vpsrlw %xmm4, %ymm5, %ymm5
571 ; AVX512VL-NEXT:    vpsrlw %xmm4, %ymm1, %ymm1
572 ; AVX512VL-NEXT:    vinserti64x4 $1, %ymm5, %zmm1, %zmm1
573 ; AVX512VL-NEXT:    vpandn %xmm3, %xmm2, %xmm2
574 ; AVX512VL-NEXT:    vextracti64x4 $1, %zmm0, %ymm3
575 ; AVX512VL-NEXT:    vpaddw %ymm3, %ymm3, %ymm3
576 ; AVX512VL-NEXT:    vpsllw %xmm2, %ymm3, %ymm3
577 ; AVX512VL-NEXT:    vpaddw %ymm0, %ymm0, %ymm0
578 ; AVX512VL-NEXT:    vpsllw %xmm2, %ymm0, %ymm0
579 ; AVX512VL-NEXT:    vinserti64x4 $1, %ymm3, %zmm0, %zmm0
580 ; AVX512VL-NEXT:    vporq %zmm1, %zmm0, %zmm0
581 ; AVX512VL-NEXT:    retq
583 ; AVX512BW-LABEL: splatvar_funnnel_v32i16:
584 ; AVX512BW:       # %bb.0:
585 ; AVX512BW-NEXT:    vpbroadcastq {{.*#+}} xmm3 = [15,0,0,0,15,0,0,0]
586 ; AVX512BW-NEXT:    vpand %xmm3, %xmm2, %xmm4
587 ; AVX512BW-NEXT:    vpsrlw %xmm4, %zmm1, %zmm1
588 ; AVX512BW-NEXT:    vpandn %xmm3, %xmm2, %xmm2
589 ; AVX512BW-NEXT:    vpaddw %zmm0, %zmm0, %zmm0
590 ; AVX512BW-NEXT:    vpsllw %xmm2, %zmm0, %zmm0
591 ; AVX512BW-NEXT:    vporq %zmm1, %zmm0, %zmm0
592 ; AVX512BW-NEXT:    retq
594 ; AVX512VBMI2-LABEL: splatvar_funnnel_v32i16:
595 ; AVX512VBMI2:       # %bb.0:
596 ; AVX512VBMI2-NEXT:    vpbroadcastw %xmm2, %zmm2
597 ; AVX512VBMI2-NEXT:    vpshrdvw %zmm2, %zmm0, %zmm1
598 ; AVX512VBMI2-NEXT:    vmovdqa64 %zmm1, %zmm0
599 ; AVX512VBMI2-NEXT:    retq
601 ; AVX512VLBW-LABEL: splatvar_funnnel_v32i16:
602 ; AVX512VLBW:       # %bb.0:
603 ; AVX512VLBW-NEXT:    vpbroadcastq {{.*#+}} xmm3 = [15,0,0,0,15,0,0,0]
604 ; AVX512VLBW-NEXT:    vpand %xmm3, %xmm2, %xmm4
605 ; AVX512VLBW-NEXT:    vpsrlw %xmm4, %zmm1, %zmm1
606 ; AVX512VLBW-NEXT:    vpandn %xmm3, %xmm2, %xmm2
607 ; AVX512VLBW-NEXT:    vpaddw %zmm0, %zmm0, %zmm0
608 ; AVX512VLBW-NEXT:    vpsllw %xmm2, %zmm0, %zmm0
609 ; AVX512VLBW-NEXT:    vporq %zmm1, %zmm0, %zmm0
610 ; AVX512VLBW-NEXT:    retq
612 ; AVX512VLVBMI2-LABEL: splatvar_funnnel_v32i16:
613 ; AVX512VLVBMI2:       # %bb.0:
614 ; AVX512VLVBMI2-NEXT:    vpbroadcastw %xmm2, %zmm2
615 ; AVX512VLVBMI2-NEXT:    vpshrdvw %zmm2, %zmm0, %zmm1
616 ; AVX512VLVBMI2-NEXT:    vmovdqa64 %zmm1, %zmm0
617 ; AVX512VLVBMI2-NEXT:    retq
618   %splat = shufflevector <32 x i16> %amt, <32 x i16> undef, <32 x i32> zeroinitializer
619   %res = call <32 x i16> @llvm.fshr.v32i16(<32 x i16> %x, <32 x i16> %y, <32 x i16> %splat)
620   ret <32 x i16> %res
623 define <64 x i8> @splatvar_funnnel_v64i8(<64 x i8> %x, <64 x i8> %y, <64 x i8> %amt) nounwind {
624 ; AVX512F-LABEL: splatvar_funnnel_v64i8:
625 ; AVX512F:       # %bb.0:
626 ; AVX512F-NEXT:    vextracti64x4 $1, %zmm0, %ymm3
627 ; AVX512F-NEXT:    vextracti64x4 $1, %zmm1, %ymm4
628 ; AVX512F-NEXT:    vpunpckhbw {{.*#+}} ymm5 = ymm4[8],ymm3[8],ymm4[9],ymm3[9],ymm4[10],ymm3[10],ymm4[11],ymm3[11],ymm4[12],ymm3[12],ymm4[13],ymm3[13],ymm4[14],ymm3[14],ymm4[15],ymm3[15],ymm4[24],ymm3[24],ymm4[25],ymm3[25],ymm4[26],ymm3[26],ymm4[27],ymm3[27],ymm4[28],ymm3[28],ymm4[29],ymm3[29],ymm4[30],ymm3[30],ymm4[31],ymm3[31]
629 ; AVX512F-NEXT:    vpand {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %xmm2, %xmm2
630 ; AVX512F-NEXT:    vpsrlw %xmm2, %ymm5, %ymm5
631 ; AVX512F-NEXT:    vpbroadcastw {{.*#+}} ymm6 = [255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255]
632 ; AVX512F-NEXT:    vpand %ymm6, %ymm5, %ymm5
633 ; AVX512F-NEXT:    vpunpcklbw {{.*#+}} ymm3 = ymm4[0],ymm3[0],ymm4[1],ymm3[1],ymm4[2],ymm3[2],ymm4[3],ymm3[3],ymm4[4],ymm3[4],ymm4[5],ymm3[5],ymm4[6],ymm3[6],ymm4[7],ymm3[7],ymm4[16],ymm3[16],ymm4[17],ymm3[17],ymm4[18],ymm3[18],ymm4[19],ymm3[19],ymm4[20],ymm3[20],ymm4[21],ymm3[21],ymm4[22],ymm3[22],ymm4[23],ymm3[23]
634 ; AVX512F-NEXT:    vpsrlw %xmm2, %ymm3, %ymm3
635 ; AVX512F-NEXT:    vpand %ymm6, %ymm3, %ymm3
636 ; AVX512F-NEXT:    vpackuswb %ymm5, %ymm3, %ymm3
637 ; AVX512F-NEXT:    vpunpckhbw {{.*#+}} ymm4 = ymm1[8],ymm0[8],ymm1[9],ymm0[9],ymm1[10],ymm0[10],ymm1[11],ymm0[11],ymm1[12],ymm0[12],ymm1[13],ymm0[13],ymm1[14],ymm0[14],ymm1[15],ymm0[15],ymm1[24],ymm0[24],ymm1[25],ymm0[25],ymm1[26],ymm0[26],ymm1[27],ymm0[27],ymm1[28],ymm0[28],ymm1[29],ymm0[29],ymm1[30],ymm0[30],ymm1[31],ymm0[31]
638 ; AVX512F-NEXT:    vpsrlw %xmm2, %ymm4, %ymm4
639 ; AVX512F-NEXT:    vpand %ymm6, %ymm4, %ymm4
640 ; AVX512F-NEXT:    vpunpcklbw {{.*#+}} ymm0 = ymm1[0],ymm0[0],ymm1[1],ymm0[1],ymm1[2],ymm0[2],ymm1[3],ymm0[3],ymm1[4],ymm0[4],ymm1[5],ymm0[5],ymm1[6],ymm0[6],ymm1[7],ymm0[7],ymm1[16],ymm0[16],ymm1[17],ymm0[17],ymm1[18],ymm0[18],ymm1[19],ymm0[19],ymm1[20],ymm0[20],ymm1[21],ymm0[21],ymm1[22],ymm0[22],ymm1[23],ymm0[23]
641 ; AVX512F-NEXT:    vpsrlw %xmm2, %ymm0, %ymm0
642 ; AVX512F-NEXT:    vpand %ymm6, %ymm0, %ymm0
643 ; AVX512F-NEXT:    vpackuswb %ymm4, %ymm0, %ymm0
644 ; AVX512F-NEXT:    vinserti64x4 $1, %ymm3, %zmm0, %zmm0
645 ; AVX512F-NEXT:    retq
647 ; AVX512VL-LABEL: splatvar_funnnel_v64i8:
648 ; AVX512VL:       # %bb.0:
649 ; AVX512VL-NEXT:    vextracti64x4 $1, %zmm0, %ymm3
650 ; AVX512VL-NEXT:    vextracti64x4 $1, %zmm1, %ymm4
651 ; AVX512VL-NEXT:    vpunpckhbw {{.*#+}} ymm5 = ymm4[8],ymm3[8],ymm4[9],ymm3[9],ymm4[10],ymm3[10],ymm4[11],ymm3[11],ymm4[12],ymm3[12],ymm4[13],ymm3[13],ymm4[14],ymm3[14],ymm4[15],ymm3[15],ymm4[24],ymm3[24],ymm4[25],ymm3[25],ymm4[26],ymm3[26],ymm4[27],ymm3[27],ymm4[28],ymm3[28],ymm4[29],ymm3[29],ymm4[30],ymm3[30],ymm4[31],ymm3[31]
652 ; AVX512VL-NEXT:    vpand {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %xmm2, %xmm2
653 ; AVX512VL-NEXT:    vpsrlw %xmm2, %ymm5, %ymm5
654 ; AVX512VL-NEXT:    vpbroadcastd {{.*#+}} ymm6 = [255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255]
655 ; AVX512VL-NEXT:    vpand %ymm6, %ymm5, %ymm5
656 ; AVX512VL-NEXT:    vpunpcklbw {{.*#+}} ymm3 = ymm4[0],ymm3[0],ymm4[1],ymm3[1],ymm4[2],ymm3[2],ymm4[3],ymm3[3],ymm4[4],ymm3[4],ymm4[5],ymm3[5],ymm4[6],ymm3[6],ymm4[7],ymm3[7],ymm4[16],ymm3[16],ymm4[17],ymm3[17],ymm4[18],ymm3[18],ymm4[19],ymm3[19],ymm4[20],ymm3[20],ymm4[21],ymm3[21],ymm4[22],ymm3[22],ymm4[23],ymm3[23]
657 ; AVX512VL-NEXT:    vpsrlw %xmm2, %ymm3, %ymm3
658 ; AVX512VL-NEXT:    vpand %ymm6, %ymm3, %ymm3
659 ; AVX512VL-NEXT:    vpackuswb %ymm5, %ymm3, %ymm3
660 ; AVX512VL-NEXT:    vpunpckhbw {{.*#+}} ymm4 = ymm1[8],ymm0[8],ymm1[9],ymm0[9],ymm1[10],ymm0[10],ymm1[11],ymm0[11],ymm1[12],ymm0[12],ymm1[13],ymm0[13],ymm1[14],ymm0[14],ymm1[15],ymm0[15],ymm1[24],ymm0[24],ymm1[25],ymm0[25],ymm1[26],ymm0[26],ymm1[27],ymm0[27],ymm1[28],ymm0[28],ymm1[29],ymm0[29],ymm1[30],ymm0[30],ymm1[31],ymm0[31]
661 ; AVX512VL-NEXT:    vpsrlw %xmm2, %ymm4, %ymm4
662 ; AVX512VL-NEXT:    vpand %ymm6, %ymm4, %ymm4
663 ; AVX512VL-NEXT:    vpunpcklbw {{.*#+}} ymm0 = ymm1[0],ymm0[0],ymm1[1],ymm0[1],ymm1[2],ymm0[2],ymm1[3],ymm0[3],ymm1[4],ymm0[4],ymm1[5],ymm0[5],ymm1[6],ymm0[6],ymm1[7],ymm0[7],ymm1[16],ymm0[16],ymm1[17],ymm0[17],ymm1[18],ymm0[18],ymm1[19],ymm0[19],ymm1[20],ymm0[20],ymm1[21],ymm0[21],ymm1[22],ymm0[22],ymm1[23],ymm0[23]
664 ; AVX512VL-NEXT:    vpsrlw %xmm2, %ymm0, %ymm0
665 ; AVX512VL-NEXT:    vpand %ymm6, %ymm0, %ymm0
666 ; AVX512VL-NEXT:    vpackuswb %ymm4, %ymm0, %ymm0
667 ; AVX512VL-NEXT:    vinserti64x4 $1, %ymm3, %zmm0, %zmm0
668 ; AVX512VL-NEXT:    retq
670 ; AVX512BW-LABEL: splatvar_funnnel_v64i8:
671 ; AVX512BW:       # %bb.0:
672 ; AVX512BW-NEXT:    vpunpckhbw {{.*#+}} zmm3 = zmm1[8],zmm0[8],zmm1[9],zmm0[9],zmm1[10],zmm0[10],zmm1[11],zmm0[11],zmm1[12],zmm0[12],zmm1[13],zmm0[13],zmm1[14],zmm0[14],zmm1[15],zmm0[15],zmm1[24],zmm0[24],zmm1[25],zmm0[25],zmm1[26],zmm0[26],zmm1[27],zmm0[27],zmm1[28],zmm0[28],zmm1[29],zmm0[29],zmm1[30],zmm0[30],zmm1[31],zmm0[31],zmm1[40],zmm0[40],zmm1[41],zmm0[41],zmm1[42],zmm0[42],zmm1[43],zmm0[43],zmm1[44],zmm0[44],zmm1[45],zmm0[45],zmm1[46],zmm0[46],zmm1[47],zmm0[47],zmm1[56],zmm0[56],zmm1[57],zmm0[57],zmm1[58],zmm0[58],zmm1[59],zmm0[59],zmm1[60],zmm0[60],zmm1[61],zmm0[61],zmm1[62],zmm0[62],zmm1[63],zmm0[63]
673 ; AVX512BW-NEXT:    vpand {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %xmm2, %xmm2
674 ; AVX512BW-NEXT:    vpsrlw %xmm2, %zmm3, %zmm3
675 ; AVX512BW-NEXT:    vpbroadcastw {{.*#+}} zmm4 = [255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255]
676 ; AVX512BW-NEXT:    vpandq %zmm4, %zmm3, %zmm3
677 ; AVX512BW-NEXT:    vpunpcklbw {{.*#+}} zmm0 = zmm1[0],zmm0[0],zmm1[1],zmm0[1],zmm1[2],zmm0[2],zmm1[3],zmm0[3],zmm1[4],zmm0[4],zmm1[5],zmm0[5],zmm1[6],zmm0[6],zmm1[7],zmm0[7],zmm1[16],zmm0[16],zmm1[17],zmm0[17],zmm1[18],zmm0[18],zmm1[19],zmm0[19],zmm1[20],zmm0[20],zmm1[21],zmm0[21],zmm1[22],zmm0[22],zmm1[23],zmm0[23],zmm1[32],zmm0[32],zmm1[33],zmm0[33],zmm1[34],zmm0[34],zmm1[35],zmm0[35],zmm1[36],zmm0[36],zmm1[37],zmm0[37],zmm1[38],zmm0[38],zmm1[39],zmm0[39],zmm1[48],zmm0[48],zmm1[49],zmm0[49],zmm1[50],zmm0[50],zmm1[51],zmm0[51],zmm1[52],zmm0[52],zmm1[53],zmm0[53],zmm1[54],zmm0[54],zmm1[55],zmm0[55]
678 ; AVX512BW-NEXT:    vpsrlw %xmm2, %zmm0, %zmm0
679 ; AVX512BW-NEXT:    vpandq %zmm4, %zmm0, %zmm0
680 ; AVX512BW-NEXT:    vpackuswb %zmm3, %zmm0, %zmm0
681 ; AVX512BW-NEXT:    retq
683 ; AVX512VBMI2-LABEL: splatvar_funnnel_v64i8:
684 ; AVX512VBMI2:       # %bb.0:
685 ; AVX512VBMI2-NEXT:    vpunpckhbw {{.*#+}} zmm3 = zmm1[8],zmm0[8],zmm1[9],zmm0[9],zmm1[10],zmm0[10],zmm1[11],zmm0[11],zmm1[12],zmm0[12],zmm1[13],zmm0[13],zmm1[14],zmm0[14],zmm1[15],zmm0[15],zmm1[24],zmm0[24],zmm1[25],zmm0[25],zmm1[26],zmm0[26],zmm1[27],zmm0[27],zmm1[28],zmm0[28],zmm1[29],zmm0[29],zmm1[30],zmm0[30],zmm1[31],zmm0[31],zmm1[40],zmm0[40],zmm1[41],zmm0[41],zmm1[42],zmm0[42],zmm1[43],zmm0[43],zmm1[44],zmm0[44],zmm1[45],zmm0[45],zmm1[46],zmm0[46],zmm1[47],zmm0[47],zmm1[56],zmm0[56],zmm1[57],zmm0[57],zmm1[58],zmm0[58],zmm1[59],zmm0[59],zmm1[60],zmm0[60],zmm1[61],zmm0[61],zmm1[62],zmm0[62],zmm1[63],zmm0[63]
686 ; AVX512VBMI2-NEXT:    vpand {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %xmm2, %xmm2
687 ; AVX512VBMI2-NEXT:    vpsrlw %xmm2, %zmm3, %zmm3
688 ; AVX512VBMI2-NEXT:    vpunpcklbw {{.*#+}} zmm0 = zmm1[0],zmm0[0],zmm1[1],zmm0[1],zmm1[2],zmm0[2],zmm1[3],zmm0[3],zmm1[4],zmm0[4],zmm1[5],zmm0[5],zmm1[6],zmm0[6],zmm1[7],zmm0[7],zmm1[16],zmm0[16],zmm1[17],zmm0[17],zmm1[18],zmm0[18],zmm1[19],zmm0[19],zmm1[20],zmm0[20],zmm1[21],zmm0[21],zmm1[22],zmm0[22],zmm1[23],zmm0[23],zmm1[32],zmm0[32],zmm1[33],zmm0[33],zmm1[34],zmm0[34],zmm1[35],zmm0[35],zmm1[36],zmm0[36],zmm1[37],zmm0[37],zmm1[38],zmm0[38],zmm1[39],zmm0[39],zmm1[48],zmm0[48],zmm1[49],zmm0[49],zmm1[50],zmm0[50],zmm1[51],zmm0[51],zmm1[52],zmm0[52],zmm1[53],zmm0[53],zmm1[54],zmm0[54],zmm1[55],zmm0[55]
689 ; AVX512VBMI2-NEXT:    vpsrlw %xmm2, %zmm0, %zmm1
690 ; AVX512VBMI2-NEXT:    vmovdqa64 {{.*#+}} zmm0 = [0,2,4,6,8,10,12,14,64,66,68,70,72,74,76,78,16,18,20,22,24,26,28,30,80,82,84,86,88,90,92,94,32,34,36,38,40,42,44,46,96,98,100,102,104,106,108,110,48,50,52,54,56,58,60,62,112,114,116,118,120,122,124,126]
691 ; AVX512VBMI2-NEXT:    vpermi2b %zmm3, %zmm1, %zmm0
692 ; AVX512VBMI2-NEXT:    retq
694 ; AVX512VLBW-LABEL: splatvar_funnnel_v64i8:
695 ; AVX512VLBW:       # %bb.0:
696 ; AVX512VLBW-NEXT:    vpunpckhbw {{.*#+}} zmm3 = zmm1[8],zmm0[8],zmm1[9],zmm0[9],zmm1[10],zmm0[10],zmm1[11],zmm0[11],zmm1[12],zmm0[12],zmm1[13],zmm0[13],zmm1[14],zmm0[14],zmm1[15],zmm0[15],zmm1[24],zmm0[24],zmm1[25],zmm0[25],zmm1[26],zmm0[26],zmm1[27],zmm0[27],zmm1[28],zmm0[28],zmm1[29],zmm0[29],zmm1[30],zmm0[30],zmm1[31],zmm0[31],zmm1[40],zmm0[40],zmm1[41],zmm0[41],zmm1[42],zmm0[42],zmm1[43],zmm0[43],zmm1[44],zmm0[44],zmm1[45],zmm0[45],zmm1[46],zmm0[46],zmm1[47],zmm0[47],zmm1[56],zmm0[56],zmm1[57],zmm0[57],zmm1[58],zmm0[58],zmm1[59],zmm0[59],zmm1[60],zmm0[60],zmm1[61],zmm0[61],zmm1[62],zmm0[62],zmm1[63],zmm0[63]
697 ; AVX512VLBW-NEXT:    vpand {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %xmm2, %xmm2
698 ; AVX512VLBW-NEXT:    vpsrlw %xmm2, %zmm3, %zmm3
699 ; AVX512VLBW-NEXT:    vpbroadcastw {{.*#+}} zmm4 = [255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255]
700 ; AVX512VLBW-NEXT:    vpandq %zmm4, %zmm3, %zmm3
701 ; AVX512VLBW-NEXT:    vpunpcklbw {{.*#+}} zmm0 = zmm1[0],zmm0[0],zmm1[1],zmm0[1],zmm1[2],zmm0[2],zmm1[3],zmm0[3],zmm1[4],zmm0[4],zmm1[5],zmm0[5],zmm1[6],zmm0[6],zmm1[7],zmm0[7],zmm1[16],zmm0[16],zmm1[17],zmm0[17],zmm1[18],zmm0[18],zmm1[19],zmm0[19],zmm1[20],zmm0[20],zmm1[21],zmm0[21],zmm1[22],zmm0[22],zmm1[23],zmm0[23],zmm1[32],zmm0[32],zmm1[33],zmm0[33],zmm1[34],zmm0[34],zmm1[35],zmm0[35],zmm1[36],zmm0[36],zmm1[37],zmm0[37],zmm1[38],zmm0[38],zmm1[39],zmm0[39],zmm1[48],zmm0[48],zmm1[49],zmm0[49],zmm1[50],zmm0[50],zmm1[51],zmm0[51],zmm1[52],zmm0[52],zmm1[53],zmm0[53],zmm1[54],zmm0[54],zmm1[55],zmm0[55]
702 ; AVX512VLBW-NEXT:    vpsrlw %xmm2, %zmm0, %zmm0
703 ; AVX512VLBW-NEXT:    vpandq %zmm4, %zmm0, %zmm0
704 ; AVX512VLBW-NEXT:    vpackuswb %zmm3, %zmm0, %zmm0
705 ; AVX512VLBW-NEXT:    retq
707 ; AVX512VLVBMI2-LABEL: splatvar_funnnel_v64i8:
708 ; AVX512VLVBMI2:       # %bb.0:
709 ; AVX512VLVBMI2-NEXT:    vpunpckhbw {{.*#+}} zmm3 = zmm1[8],zmm0[8],zmm1[9],zmm0[9],zmm1[10],zmm0[10],zmm1[11],zmm0[11],zmm1[12],zmm0[12],zmm1[13],zmm0[13],zmm1[14],zmm0[14],zmm1[15],zmm0[15],zmm1[24],zmm0[24],zmm1[25],zmm0[25],zmm1[26],zmm0[26],zmm1[27],zmm0[27],zmm1[28],zmm0[28],zmm1[29],zmm0[29],zmm1[30],zmm0[30],zmm1[31],zmm0[31],zmm1[40],zmm0[40],zmm1[41],zmm0[41],zmm1[42],zmm0[42],zmm1[43],zmm0[43],zmm1[44],zmm0[44],zmm1[45],zmm0[45],zmm1[46],zmm0[46],zmm1[47],zmm0[47],zmm1[56],zmm0[56],zmm1[57],zmm0[57],zmm1[58],zmm0[58],zmm1[59],zmm0[59],zmm1[60],zmm0[60],zmm1[61],zmm0[61],zmm1[62],zmm0[62],zmm1[63],zmm0[63]
710 ; AVX512VLVBMI2-NEXT:    vpand {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %xmm2, %xmm2
711 ; AVX512VLVBMI2-NEXT:    vpsrlw %xmm2, %zmm3, %zmm3
712 ; AVX512VLVBMI2-NEXT:    vpunpcklbw {{.*#+}} zmm0 = zmm1[0],zmm0[0],zmm1[1],zmm0[1],zmm1[2],zmm0[2],zmm1[3],zmm0[3],zmm1[4],zmm0[4],zmm1[5],zmm0[5],zmm1[6],zmm0[6],zmm1[7],zmm0[7],zmm1[16],zmm0[16],zmm1[17],zmm0[17],zmm1[18],zmm0[18],zmm1[19],zmm0[19],zmm1[20],zmm0[20],zmm1[21],zmm0[21],zmm1[22],zmm0[22],zmm1[23],zmm0[23],zmm1[32],zmm0[32],zmm1[33],zmm0[33],zmm1[34],zmm0[34],zmm1[35],zmm0[35],zmm1[36],zmm0[36],zmm1[37],zmm0[37],zmm1[38],zmm0[38],zmm1[39],zmm0[39],zmm1[48],zmm0[48],zmm1[49],zmm0[49],zmm1[50],zmm0[50],zmm1[51],zmm0[51],zmm1[52],zmm0[52],zmm1[53],zmm0[53],zmm1[54],zmm0[54],zmm1[55],zmm0[55]
713 ; AVX512VLVBMI2-NEXT:    vpsrlw %xmm2, %zmm0, %zmm1
714 ; AVX512VLVBMI2-NEXT:    vmovdqa64 {{.*#+}} zmm0 = [0,2,4,6,8,10,12,14,64,66,68,70,72,74,76,78,16,18,20,22,24,26,28,30,80,82,84,86,88,90,92,94,32,34,36,38,40,42,44,46,96,98,100,102,104,106,108,110,48,50,52,54,56,58,60,62,112,114,116,118,120,122,124,126]
715 ; AVX512VLVBMI2-NEXT:    vpermi2b %zmm3, %zmm1, %zmm0
716 ; AVX512VLVBMI2-NEXT:    retq
717   %splat = shufflevector <64 x i8> %amt, <64 x i8> undef, <64 x i32> zeroinitializer
718   %res = call <64 x i8> @llvm.fshr.v64i8(<64 x i8> %x, <64 x i8> %y, <64 x i8> %splat)
719   ret <64 x i8> %res
723 ; Constant Shifts
726 define <8 x i64> @constant_funnnel_v8i64(<8 x i64> %x, <8 x i64> %y) nounwind {
727 ; AVX512F-LABEL: constant_funnnel_v8i64:
728 ; AVX512F:       # %bb.0:
729 ; AVX512F-NEXT:    vpsrlvq {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm1, %zmm1
730 ; AVX512F-NEXT:    vpsllvq {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm0, %zmm0
731 ; AVX512F-NEXT:    vporq %zmm1, %zmm0, %zmm0
732 ; AVX512F-NEXT:    retq
734 ; AVX512VL-LABEL: constant_funnnel_v8i64:
735 ; AVX512VL:       # %bb.0:
736 ; AVX512VL-NEXT:    vpsrlvq {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm1, %zmm1
737 ; AVX512VL-NEXT:    vpsllvq {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm0, %zmm0
738 ; AVX512VL-NEXT:    vporq %zmm1, %zmm0, %zmm0
739 ; AVX512VL-NEXT:    retq
741 ; AVX512BW-LABEL: constant_funnnel_v8i64:
742 ; AVX512BW:       # %bb.0:
743 ; AVX512BW-NEXT:    vpsrlvq {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm1, %zmm1
744 ; AVX512BW-NEXT:    vpsllvq {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm0, %zmm0
745 ; AVX512BW-NEXT:    vporq %zmm1, %zmm0, %zmm0
746 ; AVX512BW-NEXT:    retq
748 ; AVX512VBMI2-LABEL: constant_funnnel_v8i64:
749 ; AVX512VBMI2:       # %bb.0:
750 ; AVX512VBMI2-NEXT:    vpshrdvq {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm0, %zmm1
751 ; AVX512VBMI2-NEXT:    vmovdqa64 %zmm1, %zmm0
752 ; AVX512VBMI2-NEXT:    retq
754 ; AVX512VLBW-LABEL: constant_funnnel_v8i64:
755 ; AVX512VLBW:       # %bb.0:
756 ; AVX512VLBW-NEXT:    vpsrlvq {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm1, %zmm1
757 ; AVX512VLBW-NEXT:    vpsllvq {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm0, %zmm0
758 ; AVX512VLBW-NEXT:    vporq %zmm1, %zmm0, %zmm0
759 ; AVX512VLBW-NEXT:    retq
761 ; AVX512VLVBMI2-LABEL: constant_funnnel_v8i64:
762 ; AVX512VLVBMI2:       # %bb.0:
763 ; AVX512VLVBMI2-NEXT:    vpshrdvq {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm0, %zmm1
764 ; AVX512VLVBMI2-NEXT:    vmovdqa64 %zmm1, %zmm0
765 ; AVX512VLVBMI2-NEXT:    retq
766   %res = call <8 x i64> @llvm.fshr.v8i64(<8 x i64> %x, <8 x i64> %y, <8 x i64> <i64 4, i64 14, i64 50, i64 60, i64 4, i64 14, i64 50, i64 60>)
767   ret <8 x i64> %res
770 define <16 x i32> @constant_funnnel_v16i32(<16 x i32> %x, <16 x i32> %y) nounwind {
771 ; AVX512F-LABEL: constant_funnnel_v16i32:
772 ; AVX512F:       # %bb.0:
773 ; AVX512F-NEXT:    vpsrlvd {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm1, %zmm1
774 ; AVX512F-NEXT:    vpsllvd {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm0, %zmm0
775 ; AVX512F-NEXT:    vpord %zmm1, %zmm0, %zmm0
776 ; AVX512F-NEXT:    retq
778 ; AVX512VL-LABEL: constant_funnnel_v16i32:
779 ; AVX512VL:       # %bb.0:
780 ; AVX512VL-NEXT:    vpsrlvd {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm1, %zmm1
781 ; AVX512VL-NEXT:    vpsllvd {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm0, %zmm0
782 ; AVX512VL-NEXT:    vpord %zmm1, %zmm0, %zmm0
783 ; AVX512VL-NEXT:    retq
785 ; AVX512BW-LABEL: constant_funnnel_v16i32:
786 ; AVX512BW:       # %bb.0:
787 ; AVX512BW-NEXT:    vpsrlvd {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm1, %zmm1
788 ; AVX512BW-NEXT:    vpsllvd {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm0, %zmm0
789 ; AVX512BW-NEXT:    vpord %zmm1, %zmm0, %zmm0
790 ; AVX512BW-NEXT:    retq
792 ; AVX512VBMI2-LABEL: constant_funnnel_v16i32:
793 ; AVX512VBMI2:       # %bb.0:
794 ; AVX512VBMI2-NEXT:    vpshrdvd {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm0, %zmm1
795 ; AVX512VBMI2-NEXT:    vmovdqa64 %zmm1, %zmm0
796 ; AVX512VBMI2-NEXT:    retq
798 ; AVX512VLBW-LABEL: constant_funnnel_v16i32:
799 ; AVX512VLBW:       # %bb.0:
800 ; AVX512VLBW-NEXT:    vpsrlvd {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm1, %zmm1
801 ; AVX512VLBW-NEXT:    vpsllvd {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm0, %zmm0
802 ; AVX512VLBW-NEXT:    vpord %zmm1, %zmm0, %zmm0
803 ; AVX512VLBW-NEXT:    retq
805 ; AVX512VLVBMI2-LABEL: constant_funnnel_v16i32:
806 ; AVX512VLVBMI2:       # %bb.0:
807 ; AVX512VLVBMI2-NEXT:    vpshrdvd {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm0, %zmm1
808 ; AVX512VLVBMI2-NEXT:    vmovdqa64 %zmm1, %zmm0
809 ; AVX512VLVBMI2-NEXT:    retq
810   %res = call <16 x i32> @llvm.fshr.v16i32(<16 x i32> %x, <16 x i32> %y, <16 x i32> <i32 4, i32 5, i32 6, i32 7, i32 8, i32 9, i32 10, i32 11, i32 4, i32 5, i32 6, i32 7, i32 8, i32 9, i32 10, i32 11>)
811   ret <16 x i32> %res
814 define <32 x i16> @constant_funnnel_v32i16(<32 x i16> %x, <32 x i16> %y) nounwind {
815 ; AVX512F-LABEL: constant_funnnel_v32i16:
816 ; AVX512F:       # %bb.0:
817 ; AVX512F-NEXT:    vextracti64x4 $1, %zmm1, %ymm2
818 ; AVX512F-NEXT:    vmovdqa {{.*#+}} ymm3 = <u,32768,16384,8192,4096,2048,1024,512,256,128,64,32,16,8,4,2>
819 ; AVX512F-NEXT:    vpmulhuw %ymm3, %ymm2, %ymm4
820 ; AVX512F-NEXT:    vpblendw {{.*#+}} xmm2 = xmm2[0],xmm4[1,2,3,4,5,6,7]
821 ; AVX512F-NEXT:    vpblendd {{.*#+}} ymm2 = ymm2[0,1,2,3],ymm4[4,5,6,7]
822 ; AVX512F-NEXT:    vpmulhuw %ymm3, %ymm1, %ymm3
823 ; AVX512F-NEXT:    vpblendw {{.*#+}} xmm1 = xmm1[0],xmm3[1,2,3,4,5,6,7]
824 ; AVX512F-NEXT:    vpblendd {{.*#+}} ymm1 = ymm1[0,1,2,3],ymm3[4,5,6,7]
825 ; AVX512F-NEXT:    vinserti64x4 $1, %ymm2, %zmm1, %zmm1
826 ; AVX512F-NEXT:    vextracti64x4 $1, %zmm0, %ymm2
827 ; AVX512F-NEXT:    vmovdqa {{.*#+}} ymm3 = [0,32768,16384,8192,4096,2048,1024,512,256,128,64,32,16,8,4,2]
828 ; AVX512F-NEXT:    vpmullw %ymm3, %ymm2, %ymm2
829 ; AVX512F-NEXT:    vpmullw %ymm3, %ymm0, %ymm0
830 ; AVX512F-NEXT:    vinserti64x4 $1, %ymm2, %zmm0, %zmm0
831 ; AVX512F-NEXT:    vporq %zmm1, %zmm0, %zmm0
832 ; AVX512F-NEXT:    retq
834 ; AVX512VL-LABEL: constant_funnnel_v32i16:
835 ; AVX512VL:       # %bb.0:
836 ; AVX512VL-NEXT:    vextracti64x4 $1, %zmm1, %ymm2
837 ; AVX512VL-NEXT:    vmovdqa {{.*#+}} ymm3 = <u,32768,16384,8192,4096,2048,1024,512,256,128,64,32,16,8,4,2>
838 ; AVX512VL-NEXT:    vpmulhuw %ymm3, %ymm2, %ymm4
839 ; AVX512VL-NEXT:    vpblendw {{.*#+}} xmm2 = xmm2[0],xmm4[1,2,3,4,5,6,7]
840 ; AVX512VL-NEXT:    vpblendd {{.*#+}} ymm2 = ymm2[0,1,2,3],ymm4[4,5,6,7]
841 ; AVX512VL-NEXT:    vpmulhuw %ymm3, %ymm1, %ymm3
842 ; AVX512VL-NEXT:    vpblendw {{.*#+}} xmm1 = xmm1[0],xmm3[1,2,3,4,5,6,7]
843 ; AVX512VL-NEXT:    vpblendd {{.*#+}} ymm1 = ymm1[0,1,2,3],ymm3[4,5,6,7]
844 ; AVX512VL-NEXT:    vinserti64x4 $1, %ymm2, %zmm1, %zmm1
845 ; AVX512VL-NEXT:    vextracti64x4 $1, %zmm0, %ymm2
846 ; AVX512VL-NEXT:    vmovdqa {{.*#+}} ymm3 = [0,32768,16384,8192,4096,2048,1024,512,256,128,64,32,16,8,4,2]
847 ; AVX512VL-NEXT:    vpmullw %ymm3, %ymm2, %ymm2
848 ; AVX512VL-NEXT:    vpmullw %ymm3, %ymm0, %ymm0
849 ; AVX512VL-NEXT:    vinserti64x4 $1, %ymm2, %zmm0, %zmm0
850 ; AVX512VL-NEXT:    vporq %zmm1, %zmm0, %zmm0
851 ; AVX512VL-NEXT:    retq
853 ; AVX512BW-LABEL: constant_funnnel_v32i16:
854 ; AVX512BW:       # %bb.0:
855 ; AVX512BW-NEXT:    vpsrlvw {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm1, %zmm1
856 ; AVX512BW-NEXT:    vpaddw %zmm0, %zmm0, %zmm0
857 ; AVX512BW-NEXT:    vpsllvw {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm0, %zmm0
858 ; AVX512BW-NEXT:    vporq %zmm1, %zmm0, %zmm0
859 ; AVX512BW-NEXT:    retq
861 ; AVX512VBMI2-LABEL: constant_funnnel_v32i16:
862 ; AVX512VBMI2:       # %bb.0:
863 ; AVX512VBMI2-NEXT:    vpshrdvw {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm0, %zmm1
864 ; AVX512VBMI2-NEXT:    vmovdqa64 %zmm1, %zmm0
865 ; AVX512VBMI2-NEXT:    retq
867 ; AVX512VLBW-LABEL: constant_funnnel_v32i16:
868 ; AVX512VLBW:       # %bb.0:
869 ; AVX512VLBW-NEXT:    vpsrlvw {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm1, %zmm1
870 ; AVX512VLBW-NEXT:    vpaddw %zmm0, %zmm0, %zmm0
871 ; AVX512VLBW-NEXT:    vpsllvw {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm0, %zmm0
872 ; AVX512VLBW-NEXT:    vporq %zmm1, %zmm0, %zmm0
873 ; AVX512VLBW-NEXT:    retq
875 ; AVX512VLVBMI2-LABEL: constant_funnnel_v32i16:
876 ; AVX512VLVBMI2:       # %bb.0:
877 ; AVX512VLVBMI2-NEXT:    vpshrdvw {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm0, %zmm1
878 ; AVX512VLVBMI2-NEXT:    vmovdqa64 %zmm1, %zmm0
879 ; AVX512VLVBMI2-NEXT:    retq
880   %res = call <32 x i16> @llvm.fshr.v32i16(<32 x i16> %x, <32 x i16> %y, <32 x i16> <i16 0, i16 1, i16 2, i16 3, i16 4, i16 5, i16 6, i16 7, i16 8, i16 9, i16 10, i16 11, i16 12, i16 13, i16 14, i16 15, i16 0, i16 1, i16 2, i16 3, i16 4, i16 5, i16 6, i16 7, i16 8, i16 9, i16 10, i16 11, i16 12, i16 13, i16 14, i16 15>)
881   ret <32 x i16> %res
884 define <64 x i8> @constant_funnnel_v64i8(<64 x i8> %x, <64 x i8> %y) nounwind {
885 ; AVX512F-LABEL: constant_funnnel_v64i8:
886 ; AVX512F:       # %bb.0:
887 ; AVX512F-NEXT:    vextracti64x4 $1, %zmm1, %ymm2
888 ; AVX512F-NEXT:    vpxor %xmm3, %xmm3, %xmm3
889 ; AVX512F-NEXT:    vpunpckhbw {{.*#+}} ymm4 = ymm2[8],ymm3[8],ymm2[9],ymm3[9],ymm2[10],ymm3[10],ymm2[11],ymm3[11],ymm2[12],ymm3[12],ymm2[13],ymm3[13],ymm2[14],ymm3[14],ymm2[15],ymm3[15],ymm2[24],ymm3[24],ymm2[25],ymm3[25],ymm2[26],ymm3[26],ymm2[27],ymm3[27],ymm2[28],ymm3[28],ymm2[29],ymm3[29],ymm2[30],ymm3[30],ymm2[31],ymm3[31]
890 ; AVX512F-NEXT:    vbroadcasti128 {{.*#+}} ymm5 = [256,2,4,8,16,32,64,128,256,2,4,8,16,32,64,128]
891 ; AVX512F-NEXT:    # ymm5 = mem[0,1,0,1]
892 ; AVX512F-NEXT:    vpmullw %ymm5, %ymm4, %ymm4
893 ; AVX512F-NEXT:    vpsrlw $8, %ymm4, %ymm4
894 ; AVX512F-NEXT:    vpunpcklbw {{.*#+}} ymm2 = ymm2[0],ymm3[0],ymm2[1],ymm3[1],ymm2[2],ymm3[2],ymm2[3],ymm3[3],ymm2[4],ymm3[4],ymm2[5],ymm3[5],ymm2[6],ymm3[6],ymm2[7],ymm3[7],ymm2[16],ymm3[16],ymm2[17],ymm3[17],ymm2[18],ymm3[18],ymm2[19],ymm3[19],ymm2[20],ymm3[20],ymm2[21],ymm3[21],ymm2[22],ymm3[22],ymm2[23],ymm3[23]
895 ; AVX512F-NEXT:    vbroadcasti128 {{.*#+}} ymm6 = [256,128,64,32,16,8,4,2,256,128,64,32,16,8,4,2]
896 ; AVX512F-NEXT:    # ymm6 = mem[0,1,0,1]
897 ; AVX512F-NEXT:    vpmullw %ymm6, %ymm2, %ymm2
898 ; AVX512F-NEXT:    vpsrlw $8, %ymm2, %ymm2
899 ; AVX512F-NEXT:    vpackuswb %ymm4, %ymm2, %ymm2
900 ; AVX512F-NEXT:    vpunpckhbw {{.*#+}} ymm4 = ymm1[8],ymm3[8],ymm1[9],ymm3[9],ymm1[10],ymm3[10],ymm1[11],ymm3[11],ymm1[12],ymm3[12],ymm1[13],ymm3[13],ymm1[14],ymm3[14],ymm1[15],ymm3[15],ymm1[24],ymm3[24],ymm1[25],ymm3[25],ymm1[26],ymm3[26],ymm1[27],ymm3[27],ymm1[28],ymm3[28],ymm1[29],ymm3[29],ymm1[30],ymm3[30],ymm1[31],ymm3[31]
901 ; AVX512F-NEXT:    vpmullw %ymm5, %ymm4, %ymm4
902 ; AVX512F-NEXT:    vpsrlw $8, %ymm4, %ymm4
903 ; AVX512F-NEXT:    vpunpcklbw {{.*#+}} ymm1 = ymm1[0],ymm3[0],ymm1[1],ymm3[1],ymm1[2],ymm3[2],ymm1[3],ymm3[3],ymm1[4],ymm3[4],ymm1[5],ymm3[5],ymm1[6],ymm3[6],ymm1[7],ymm3[7],ymm1[16],ymm3[16],ymm1[17],ymm3[17],ymm1[18],ymm3[18],ymm1[19],ymm3[19],ymm1[20],ymm3[20],ymm1[21],ymm3[21],ymm1[22],ymm3[22],ymm1[23],ymm3[23]
904 ; AVX512F-NEXT:    vpmullw %ymm6, %ymm1, %ymm1
905 ; AVX512F-NEXT:    vpsrlw $8, %ymm1, %ymm1
906 ; AVX512F-NEXT:    vpackuswb %ymm4, %ymm1, %ymm1
907 ; AVX512F-NEXT:    vinserti64x4 $1, %ymm2, %zmm1, %zmm1
908 ; AVX512F-NEXT:    vextracti64x4 $1, %zmm0, %ymm2
909 ; AVX512F-NEXT:    vpaddb %ymm2, %ymm2, %ymm2
910 ; AVX512F-NEXT:    vpunpckhbw {{.*#+}} ymm3 = ymm2[8,8,9,9,10,10,11,11,12,12,13,13,14,14,15,15,24,24,25,25,26,26,27,27,28,28,29,29,30,30,31,31]
911 ; AVX512F-NEXT:    vbroadcasti128 {{.*#+}} ymm4 = [128,1,2,4,8,16,32,64,128,1,2,4,8,16,32,64]
912 ; AVX512F-NEXT:    # ymm4 = mem[0,1,0,1]
913 ; AVX512F-NEXT:    vpmullw %ymm4, %ymm3, %ymm3
914 ; AVX512F-NEXT:    vpbroadcastw {{.*#+}} ymm5 = [255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255]
915 ; AVX512F-NEXT:    vpand %ymm5, %ymm3, %ymm3
916 ; AVX512F-NEXT:    vpunpcklbw {{.*#+}} ymm2 = ymm2[0,0,1,1,2,2,3,3,4,4,5,5,6,6,7,7,16,16,17,17,18,18,19,19,20,20,21,21,22,22,23,23]
917 ; AVX512F-NEXT:    vbroadcasti128 {{.*#+}} ymm6 = [128,64,32,16,8,4,2,1,128,64,32,16,8,4,2,1]
918 ; AVX512F-NEXT:    # ymm6 = mem[0,1,0,1]
919 ; AVX512F-NEXT:    vpmullw %ymm6, %ymm2, %ymm2
920 ; AVX512F-NEXT:    vpand %ymm5, %ymm2, %ymm2
921 ; AVX512F-NEXT:    vpackuswb %ymm3, %ymm2, %ymm2
922 ; AVX512F-NEXT:    vpaddb %ymm0, %ymm0, %ymm0
923 ; AVX512F-NEXT:    vpunpckhbw {{.*#+}} ymm3 = ymm0[8,8,9,9,10,10,11,11,12,12,13,13,14,14,15,15,24,24,25,25,26,26,27,27,28,28,29,29,30,30,31,31]
924 ; AVX512F-NEXT:    vpmullw %ymm4, %ymm3, %ymm3
925 ; AVX512F-NEXT:    vpand %ymm5, %ymm3, %ymm3
926 ; AVX512F-NEXT:    vpunpcklbw {{.*#+}} ymm0 = ymm0[0,0,1,1,2,2,3,3,4,4,5,5,6,6,7,7,16,16,17,17,18,18,19,19,20,20,21,21,22,22,23,23]
927 ; AVX512F-NEXT:    vpmullw %ymm6, %ymm0, %ymm0
928 ; AVX512F-NEXT:    vpand %ymm5, %ymm0, %ymm0
929 ; AVX512F-NEXT:    vpackuswb %ymm3, %ymm0, %ymm0
930 ; AVX512F-NEXT:    vinserti64x4 $1, %ymm2, %zmm0, %zmm0
931 ; AVX512F-NEXT:    vporq %zmm1, %zmm0, %zmm0
932 ; AVX512F-NEXT:    retq
934 ; AVX512VL-LABEL: constant_funnnel_v64i8:
935 ; AVX512VL:       # %bb.0:
936 ; AVX512VL-NEXT:    vextracti64x4 $1, %zmm1, %ymm2
937 ; AVX512VL-NEXT:    vpxor %xmm3, %xmm3, %xmm3
938 ; AVX512VL-NEXT:    vpunpckhbw {{.*#+}} ymm4 = ymm2[8],ymm3[8],ymm2[9],ymm3[9],ymm2[10],ymm3[10],ymm2[11],ymm3[11],ymm2[12],ymm3[12],ymm2[13],ymm3[13],ymm2[14],ymm3[14],ymm2[15],ymm3[15],ymm2[24],ymm3[24],ymm2[25],ymm3[25],ymm2[26],ymm3[26],ymm2[27],ymm3[27],ymm2[28],ymm3[28],ymm2[29],ymm3[29],ymm2[30],ymm3[30],ymm2[31],ymm3[31]
939 ; AVX512VL-NEXT:    vbroadcasti128 {{.*#+}} ymm5 = [256,2,4,8,16,32,64,128,256,2,4,8,16,32,64,128]
940 ; AVX512VL-NEXT:    # ymm5 = mem[0,1,0,1]
941 ; AVX512VL-NEXT:    vpmullw %ymm5, %ymm4, %ymm4
942 ; AVX512VL-NEXT:    vpsrlw $8, %ymm4, %ymm4
943 ; AVX512VL-NEXT:    vpunpcklbw {{.*#+}} ymm2 = ymm2[0],ymm3[0],ymm2[1],ymm3[1],ymm2[2],ymm3[2],ymm2[3],ymm3[3],ymm2[4],ymm3[4],ymm2[5],ymm3[5],ymm2[6],ymm3[6],ymm2[7],ymm3[7],ymm2[16],ymm3[16],ymm2[17],ymm3[17],ymm2[18],ymm3[18],ymm2[19],ymm3[19],ymm2[20],ymm3[20],ymm2[21],ymm3[21],ymm2[22],ymm3[22],ymm2[23],ymm3[23]
944 ; AVX512VL-NEXT:    vbroadcasti128 {{.*#+}} ymm6 = [256,128,64,32,16,8,4,2,256,128,64,32,16,8,4,2]
945 ; AVX512VL-NEXT:    # ymm6 = mem[0,1,0,1]
946 ; AVX512VL-NEXT:    vpmullw %ymm6, %ymm2, %ymm2
947 ; AVX512VL-NEXT:    vpsrlw $8, %ymm2, %ymm2
948 ; AVX512VL-NEXT:    vpackuswb %ymm4, %ymm2, %ymm2
949 ; AVX512VL-NEXT:    vpunpckhbw {{.*#+}} ymm4 = ymm1[8],ymm3[8],ymm1[9],ymm3[9],ymm1[10],ymm3[10],ymm1[11],ymm3[11],ymm1[12],ymm3[12],ymm1[13],ymm3[13],ymm1[14],ymm3[14],ymm1[15],ymm3[15],ymm1[24],ymm3[24],ymm1[25],ymm3[25],ymm1[26],ymm3[26],ymm1[27],ymm3[27],ymm1[28],ymm3[28],ymm1[29],ymm3[29],ymm1[30],ymm3[30],ymm1[31],ymm3[31]
950 ; AVX512VL-NEXT:    vpmullw %ymm5, %ymm4, %ymm4
951 ; AVX512VL-NEXT:    vpsrlw $8, %ymm4, %ymm4
952 ; AVX512VL-NEXT:    vpunpcklbw {{.*#+}} ymm1 = ymm1[0],ymm3[0],ymm1[1],ymm3[1],ymm1[2],ymm3[2],ymm1[3],ymm3[3],ymm1[4],ymm3[4],ymm1[5],ymm3[5],ymm1[6],ymm3[6],ymm1[7],ymm3[7],ymm1[16],ymm3[16],ymm1[17],ymm3[17],ymm1[18],ymm3[18],ymm1[19],ymm3[19],ymm1[20],ymm3[20],ymm1[21],ymm3[21],ymm1[22],ymm3[22],ymm1[23],ymm3[23]
953 ; AVX512VL-NEXT:    vpmullw %ymm6, %ymm1, %ymm1
954 ; AVX512VL-NEXT:    vpsrlw $8, %ymm1, %ymm1
955 ; AVX512VL-NEXT:    vpackuswb %ymm4, %ymm1, %ymm1
956 ; AVX512VL-NEXT:    vinserti64x4 $1, %ymm2, %zmm1, %zmm1
957 ; AVX512VL-NEXT:    vextracti64x4 $1, %zmm0, %ymm2
958 ; AVX512VL-NEXT:    vpaddb %ymm2, %ymm2, %ymm2
959 ; AVX512VL-NEXT:    vpunpckhbw {{.*#+}} ymm3 = ymm2[8,8,9,9,10,10,11,11,12,12,13,13,14,14,15,15,24,24,25,25,26,26,27,27,28,28,29,29,30,30,31,31]
960 ; AVX512VL-NEXT:    vbroadcasti128 {{.*#+}} ymm4 = [128,1,2,4,8,16,32,64,128,1,2,4,8,16,32,64]
961 ; AVX512VL-NEXT:    # ymm4 = mem[0,1,0,1]
962 ; AVX512VL-NEXT:    vpmullw %ymm4, %ymm3, %ymm3
963 ; AVX512VL-NEXT:    vpbroadcastd {{.*#+}} ymm5 = [255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255]
964 ; AVX512VL-NEXT:    vpand %ymm5, %ymm3, %ymm3
965 ; AVX512VL-NEXT:    vpunpcklbw {{.*#+}} ymm2 = ymm2[0,0,1,1,2,2,3,3,4,4,5,5,6,6,7,7,16,16,17,17,18,18,19,19,20,20,21,21,22,22,23,23]
966 ; AVX512VL-NEXT:    vbroadcasti128 {{.*#+}} ymm6 = [128,64,32,16,8,4,2,1,128,64,32,16,8,4,2,1]
967 ; AVX512VL-NEXT:    # ymm6 = mem[0,1,0,1]
968 ; AVX512VL-NEXT:    vpmullw %ymm6, %ymm2, %ymm2
969 ; AVX512VL-NEXT:    vpand %ymm5, %ymm2, %ymm2
970 ; AVX512VL-NEXT:    vpackuswb %ymm3, %ymm2, %ymm2
971 ; AVX512VL-NEXT:    vpaddb %ymm0, %ymm0, %ymm0
972 ; AVX512VL-NEXT:    vpunpckhbw {{.*#+}} ymm3 = ymm0[8,8,9,9,10,10,11,11,12,12,13,13,14,14,15,15,24,24,25,25,26,26,27,27,28,28,29,29,30,30,31,31]
973 ; AVX512VL-NEXT:    vpmullw %ymm4, %ymm3, %ymm3
974 ; AVX512VL-NEXT:    vpand %ymm5, %ymm3, %ymm3
975 ; AVX512VL-NEXT:    vpunpcklbw {{.*#+}} ymm0 = ymm0[0,0,1,1,2,2,3,3,4,4,5,5,6,6,7,7,16,16,17,17,18,18,19,19,20,20,21,21,22,22,23,23]
976 ; AVX512VL-NEXT:    vpmullw %ymm6, %ymm0, %ymm0
977 ; AVX512VL-NEXT:    vpand %ymm5, %ymm0, %ymm0
978 ; AVX512VL-NEXT:    vpackuswb %ymm3, %ymm0, %ymm0
979 ; AVX512VL-NEXT:    vinserti64x4 $1, %ymm2, %zmm0, %zmm0
980 ; AVX512VL-NEXT:    vporq %zmm1, %zmm0, %zmm0
981 ; AVX512VL-NEXT:    retq
983 ; AVX512BW-LABEL: constant_funnnel_v64i8:
984 ; AVX512BW:       # %bb.0:
985 ; AVX512BW-NEXT:    vpunpckhbw {{.*#+}} zmm2 = zmm1[8],zmm0[8],zmm1[9],zmm0[9],zmm1[10],zmm0[10],zmm1[11],zmm0[11],zmm1[12],zmm0[12],zmm1[13],zmm0[13],zmm1[14],zmm0[14],zmm1[15],zmm0[15],zmm1[24],zmm0[24],zmm1[25],zmm0[25],zmm1[26],zmm0[26],zmm1[27],zmm0[27],zmm1[28],zmm0[28],zmm1[29],zmm0[29],zmm1[30],zmm0[30],zmm1[31],zmm0[31],zmm1[40],zmm0[40],zmm1[41],zmm0[41],zmm1[42],zmm0[42],zmm1[43],zmm0[43],zmm1[44],zmm0[44],zmm1[45],zmm0[45],zmm1[46],zmm0[46],zmm1[47],zmm0[47],zmm1[56],zmm0[56],zmm1[57],zmm0[57],zmm1[58],zmm0[58],zmm1[59],zmm0[59],zmm1[60],zmm0[60],zmm1[61],zmm0[61],zmm1[62],zmm0[62],zmm1[63],zmm0[63]
986 ; AVX512BW-NEXT:    vpsrlvw {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm2, %zmm2
987 ; AVX512BW-NEXT:    vpbroadcastw {{.*#+}} zmm3 = [255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255]
988 ; AVX512BW-NEXT:    vpandq %zmm3, %zmm2, %zmm2
989 ; AVX512BW-NEXT:    vpunpcklbw {{.*#+}} zmm0 = zmm1[0],zmm0[0],zmm1[1],zmm0[1],zmm1[2],zmm0[2],zmm1[3],zmm0[3],zmm1[4],zmm0[4],zmm1[5],zmm0[5],zmm1[6],zmm0[6],zmm1[7],zmm0[7],zmm1[16],zmm0[16],zmm1[17],zmm0[17],zmm1[18],zmm0[18],zmm1[19],zmm0[19],zmm1[20],zmm0[20],zmm1[21],zmm0[21],zmm1[22],zmm0[22],zmm1[23],zmm0[23],zmm1[32],zmm0[32],zmm1[33],zmm0[33],zmm1[34],zmm0[34],zmm1[35],zmm0[35],zmm1[36],zmm0[36],zmm1[37],zmm0[37],zmm1[38],zmm0[38],zmm1[39],zmm0[39],zmm1[48],zmm0[48],zmm1[49],zmm0[49],zmm1[50],zmm0[50],zmm1[51],zmm0[51],zmm1[52],zmm0[52],zmm1[53],zmm0[53],zmm1[54],zmm0[54],zmm1[55],zmm0[55]
990 ; AVX512BW-NEXT:    vpsrlvw {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm0, %zmm0
991 ; AVX512BW-NEXT:    vpandq %zmm3, %zmm0, %zmm0
992 ; AVX512BW-NEXT:    vpackuswb %zmm2, %zmm0, %zmm0
993 ; AVX512BW-NEXT:    retq
995 ; AVX512VBMI2-LABEL: constant_funnnel_v64i8:
996 ; AVX512VBMI2:       # %bb.0:
997 ; AVX512VBMI2-NEXT:    vpunpckhbw {{.*#+}} zmm2 = zmm1[8],zmm0[8],zmm1[9],zmm0[9],zmm1[10],zmm0[10],zmm1[11],zmm0[11],zmm1[12],zmm0[12],zmm1[13],zmm0[13],zmm1[14],zmm0[14],zmm1[15],zmm0[15],zmm1[24],zmm0[24],zmm1[25],zmm0[25],zmm1[26],zmm0[26],zmm1[27],zmm0[27],zmm1[28],zmm0[28],zmm1[29],zmm0[29],zmm1[30],zmm0[30],zmm1[31],zmm0[31],zmm1[40],zmm0[40],zmm1[41],zmm0[41],zmm1[42],zmm0[42],zmm1[43],zmm0[43],zmm1[44],zmm0[44],zmm1[45],zmm0[45],zmm1[46],zmm0[46],zmm1[47],zmm0[47],zmm1[56],zmm0[56],zmm1[57],zmm0[57],zmm1[58],zmm0[58],zmm1[59],zmm0[59],zmm1[60],zmm0[60],zmm1[61],zmm0[61],zmm1[62],zmm0[62],zmm1[63],zmm0[63]
998 ; AVX512VBMI2-NEXT:    vpsrlvw {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm2, %zmm2
999 ; AVX512VBMI2-NEXT:    vpunpcklbw {{.*#+}} zmm0 = zmm1[0],zmm0[0],zmm1[1],zmm0[1],zmm1[2],zmm0[2],zmm1[3],zmm0[3],zmm1[4],zmm0[4],zmm1[5],zmm0[5],zmm1[6],zmm0[6],zmm1[7],zmm0[7],zmm1[16],zmm0[16],zmm1[17],zmm0[17],zmm1[18],zmm0[18],zmm1[19],zmm0[19],zmm1[20],zmm0[20],zmm1[21],zmm0[21],zmm1[22],zmm0[22],zmm1[23],zmm0[23],zmm1[32],zmm0[32],zmm1[33],zmm0[33],zmm1[34],zmm0[34],zmm1[35],zmm0[35],zmm1[36],zmm0[36],zmm1[37],zmm0[37],zmm1[38],zmm0[38],zmm1[39],zmm0[39],zmm1[48],zmm0[48],zmm1[49],zmm0[49],zmm1[50],zmm0[50],zmm1[51],zmm0[51],zmm1[52],zmm0[52],zmm1[53],zmm0[53],zmm1[54],zmm0[54],zmm1[55],zmm0[55]
1000 ; AVX512VBMI2-NEXT:    vpsrlvw {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm0, %zmm1
1001 ; AVX512VBMI2-NEXT:    vmovdqa64 {{.*#+}} zmm0 = [0,2,4,6,8,10,12,14,64,66,68,70,72,74,76,78,16,18,20,22,24,26,28,30,80,82,84,86,88,90,92,94,32,34,36,38,40,42,44,46,96,98,100,102,104,106,108,110,48,50,52,54,56,58,60,62,112,114,116,118,120,122,124,126]
1002 ; AVX512VBMI2-NEXT:    vpermi2b %zmm2, %zmm1, %zmm0
1003 ; AVX512VBMI2-NEXT:    retq
1005 ; AVX512VLBW-LABEL: constant_funnnel_v64i8:
1006 ; AVX512VLBW:       # %bb.0:
1007 ; AVX512VLBW-NEXT:    vpunpckhbw {{.*#+}} zmm2 = zmm1[8],zmm0[8],zmm1[9],zmm0[9],zmm1[10],zmm0[10],zmm1[11],zmm0[11],zmm1[12],zmm0[12],zmm1[13],zmm0[13],zmm1[14],zmm0[14],zmm1[15],zmm0[15],zmm1[24],zmm0[24],zmm1[25],zmm0[25],zmm1[26],zmm0[26],zmm1[27],zmm0[27],zmm1[28],zmm0[28],zmm1[29],zmm0[29],zmm1[30],zmm0[30],zmm1[31],zmm0[31],zmm1[40],zmm0[40],zmm1[41],zmm0[41],zmm1[42],zmm0[42],zmm1[43],zmm0[43],zmm1[44],zmm0[44],zmm1[45],zmm0[45],zmm1[46],zmm0[46],zmm1[47],zmm0[47],zmm1[56],zmm0[56],zmm1[57],zmm0[57],zmm1[58],zmm0[58],zmm1[59],zmm0[59],zmm1[60],zmm0[60],zmm1[61],zmm0[61],zmm1[62],zmm0[62],zmm1[63],zmm0[63]
1008 ; AVX512VLBW-NEXT:    vpsrlvw {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm2, %zmm2
1009 ; AVX512VLBW-NEXT:    vpbroadcastw {{.*#+}} zmm3 = [255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255,255]
1010 ; AVX512VLBW-NEXT:    vpandq %zmm3, %zmm2, %zmm2
1011 ; AVX512VLBW-NEXT:    vpunpcklbw {{.*#+}} zmm0 = zmm1[0],zmm0[0],zmm1[1],zmm0[1],zmm1[2],zmm0[2],zmm1[3],zmm0[3],zmm1[4],zmm0[4],zmm1[5],zmm0[5],zmm1[6],zmm0[6],zmm1[7],zmm0[7],zmm1[16],zmm0[16],zmm1[17],zmm0[17],zmm1[18],zmm0[18],zmm1[19],zmm0[19],zmm1[20],zmm0[20],zmm1[21],zmm0[21],zmm1[22],zmm0[22],zmm1[23],zmm0[23],zmm1[32],zmm0[32],zmm1[33],zmm0[33],zmm1[34],zmm0[34],zmm1[35],zmm0[35],zmm1[36],zmm0[36],zmm1[37],zmm0[37],zmm1[38],zmm0[38],zmm1[39],zmm0[39],zmm1[48],zmm0[48],zmm1[49],zmm0[49],zmm1[50],zmm0[50],zmm1[51],zmm0[51],zmm1[52],zmm0[52],zmm1[53],zmm0[53],zmm1[54],zmm0[54],zmm1[55],zmm0[55]
1012 ; AVX512VLBW-NEXT:    vpsrlvw {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm0, %zmm0
1013 ; AVX512VLBW-NEXT:    vpandq %zmm3, %zmm0, %zmm0
1014 ; AVX512VLBW-NEXT:    vpackuswb %zmm2, %zmm0, %zmm0
1015 ; AVX512VLBW-NEXT:    retq
1017 ; AVX512VLVBMI2-LABEL: constant_funnnel_v64i8:
1018 ; AVX512VLVBMI2:       # %bb.0:
1019 ; AVX512VLVBMI2-NEXT:    vpunpckhbw {{.*#+}} zmm2 = zmm1[8],zmm0[8],zmm1[9],zmm0[9],zmm1[10],zmm0[10],zmm1[11],zmm0[11],zmm1[12],zmm0[12],zmm1[13],zmm0[13],zmm1[14],zmm0[14],zmm1[15],zmm0[15],zmm1[24],zmm0[24],zmm1[25],zmm0[25],zmm1[26],zmm0[26],zmm1[27],zmm0[27],zmm1[28],zmm0[28],zmm1[29],zmm0[29],zmm1[30],zmm0[30],zmm1[31],zmm0[31],zmm1[40],zmm0[40],zmm1[41],zmm0[41],zmm1[42],zmm0[42],zmm1[43],zmm0[43],zmm1[44],zmm0[44],zmm1[45],zmm0[45],zmm1[46],zmm0[46],zmm1[47],zmm0[47],zmm1[56],zmm0[56],zmm1[57],zmm0[57],zmm1[58],zmm0[58],zmm1[59],zmm0[59],zmm1[60],zmm0[60],zmm1[61],zmm0[61],zmm1[62],zmm0[62],zmm1[63],zmm0[63]
1020 ; AVX512VLVBMI2-NEXT:    vpsrlvw {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm2, %zmm2
1021 ; AVX512VLVBMI2-NEXT:    vpunpcklbw {{.*#+}} zmm0 = zmm1[0],zmm0[0],zmm1[1],zmm0[1],zmm1[2],zmm0[2],zmm1[3],zmm0[3],zmm1[4],zmm0[4],zmm1[5],zmm0[5],zmm1[6],zmm0[6],zmm1[7],zmm0[7],zmm1[16],zmm0[16],zmm1[17],zmm0[17],zmm1[18],zmm0[18],zmm1[19],zmm0[19],zmm1[20],zmm0[20],zmm1[21],zmm0[21],zmm1[22],zmm0[22],zmm1[23],zmm0[23],zmm1[32],zmm0[32],zmm1[33],zmm0[33],zmm1[34],zmm0[34],zmm1[35],zmm0[35],zmm1[36],zmm0[36],zmm1[37],zmm0[37],zmm1[38],zmm0[38],zmm1[39],zmm0[39],zmm1[48],zmm0[48],zmm1[49],zmm0[49],zmm1[50],zmm0[50],zmm1[51],zmm0[51],zmm1[52],zmm0[52],zmm1[53],zmm0[53],zmm1[54],zmm0[54],zmm1[55],zmm0[55]
1022 ; AVX512VLVBMI2-NEXT:    vpsrlvw {{\.?LCPI[0-9]+_[0-9]+}}(%rip), %zmm0, %zmm1
1023 ; AVX512VLVBMI2-NEXT:    vmovdqa64 {{.*#+}} zmm0 = [0,2,4,6,8,10,12,14,64,66,68,70,72,74,76,78,16,18,20,22,24,26,28,30,80,82,84,86,88,90,92,94,32,34,36,38,40,42,44,46,96,98,100,102,104,106,108,110,48,50,52,54,56,58,60,62,112,114,116,118,120,122,124,126]
1024 ; AVX512VLVBMI2-NEXT:    vpermi2b %zmm2, %zmm1, %zmm0
1025 ; AVX512VLVBMI2-NEXT:    retq
1026   %res = call <64 x i8> @llvm.fshr.v64i8(<64 x i8> %x, <64 x i8> %y, <64 x i8> <i8 0, i8 1, i8 2, i8 3, i8 4, i8 5, i8 6, i8 7, i8 8, i8 7, i8 6, i8 5, i8 4, i8 3, i8 2, i8 1, i8 0, i8 1, i8 2, i8 3, i8 4, i8 5, i8 6, i8 7, i8 8, i8 7, i8 6, i8 5, i8 4, i8 3, i8 2, i8 1, i8 0, i8 1, i8 2, i8 3, i8 4, i8 5, i8 6, i8 7, i8 8, i8 7, i8 6, i8 5, i8 4, i8 3, i8 2, i8 1, i8 0, i8 1, i8 2, i8 3, i8 4, i8 5, i8 6, i8 7, i8 8, i8 7, i8 6, i8 5, i8 4, i8 3, i8 2, i8 1>)
1027   ret <64 x i8> %res
1031 ; Uniform Constant Shifts
1034 define <8 x i64> @splatconstant_funnnel_v8i64(<8 x i64> %x, <8 x i64> %y) nounwind {
1035 ; AVX512F-LABEL: splatconstant_funnnel_v8i64:
1036 ; AVX512F:       # %bb.0:
1037 ; AVX512F-NEXT:    vpsrlq $14, %zmm1, %zmm1
1038 ; AVX512F-NEXT:    vpsllq $50, %zmm0, %zmm0
1039 ; AVX512F-NEXT:    vporq %zmm1, %zmm0, %zmm0
1040 ; AVX512F-NEXT:    retq
1042 ; AVX512VL-LABEL: splatconstant_funnnel_v8i64:
1043 ; AVX512VL:       # %bb.0:
1044 ; AVX512VL-NEXT:    vpsrlq $14, %zmm1, %zmm1
1045 ; AVX512VL-NEXT:    vpsllq $50, %zmm0, %zmm0
1046 ; AVX512VL-NEXT:    vporq %zmm1, %zmm0, %zmm0
1047 ; AVX512VL-NEXT:    retq
1049 ; AVX512BW-LABEL: splatconstant_funnnel_v8i64:
1050 ; AVX512BW:       # %bb.0:
1051 ; AVX512BW-NEXT:    vpsrlq $14, %zmm1, %zmm1
1052 ; AVX512BW-NEXT:    vpsllq $50, %zmm0, %zmm0
1053 ; AVX512BW-NEXT:    vporq %zmm1, %zmm0, %zmm0
1054 ; AVX512BW-NEXT:    retq
1056 ; AVX512VBMI2-LABEL: splatconstant_funnnel_v8i64:
1057 ; AVX512VBMI2:       # %bb.0:
1058 ; AVX512VBMI2-NEXT:    vpshrdq $14, %zmm0, %zmm1, %zmm0
1059 ; AVX512VBMI2-NEXT:    retq
1061 ; AVX512VLBW-LABEL: splatconstant_funnnel_v8i64:
1062 ; AVX512VLBW:       # %bb.0:
1063 ; AVX512VLBW-NEXT:    vpsrlq $14, %zmm1, %zmm1
1064 ; AVX512VLBW-NEXT:    vpsllq $50, %zmm0, %zmm0
1065 ; AVX512VLBW-NEXT:    vporq %zmm1, %zmm0, %zmm0
1066 ; AVX512VLBW-NEXT:    retq
1068 ; AVX512VLVBMI2-LABEL: splatconstant_funnnel_v8i64:
1069 ; AVX512VLVBMI2:       # %bb.0:
1070 ; AVX512VLVBMI2-NEXT:    vpshrdq $14, %zmm0, %zmm1, %zmm0
1071 ; AVX512VLVBMI2-NEXT:    retq
1072   %res = call <8 x i64> @llvm.fshr.v8i64(<8 x i64> %x, <8 x i64> %y, <8 x i64> <i64 14, i64 14, i64 14, i64 14, i64 14, i64 14, i64 14, i64 14>)
1073   ret <8 x i64> %res
1076 define <16 x i32> @splatconstant_funnnel_v16i32(<16 x i32> %x, <16 x i32> %y) nounwind {
1077 ; AVX512F-LABEL: splatconstant_funnnel_v16i32:
1078 ; AVX512F:       # %bb.0:
1079 ; AVX512F-NEXT:    vpsrld $4, %zmm1, %zmm1
1080 ; AVX512F-NEXT:    vpslld $28, %zmm0, %zmm0
1081 ; AVX512F-NEXT:    vpord %zmm1, %zmm0, %zmm0
1082 ; AVX512F-NEXT:    retq
1084 ; AVX512VL-LABEL: splatconstant_funnnel_v16i32:
1085 ; AVX512VL:       # %bb.0:
1086 ; AVX512VL-NEXT:    vpsrld $4, %zmm1, %zmm1
1087 ; AVX512VL-NEXT:    vpslld $28, %zmm0, %zmm0
1088 ; AVX512VL-NEXT:    vpord %zmm1, %zmm0, %zmm0
1089 ; AVX512VL-NEXT:    retq
1091 ; AVX512BW-LABEL: splatconstant_funnnel_v16i32:
1092 ; AVX512BW:       # %bb.0:
1093 ; AVX512BW-NEXT:    vpsrld $4, %zmm1, %zmm1
1094 ; AVX512BW-NEXT:    vpslld $28, %zmm0, %zmm0
1095 ; AVX512BW-NEXT:    vpord %zmm1, %zmm0, %zmm0
1096 ; AVX512BW-NEXT:    retq
1098 ; AVX512VBMI2-LABEL: splatconstant_funnnel_v16i32:
1099 ; AVX512VBMI2:       # %bb.0:
1100 ; AVX512VBMI2-NEXT:    vpshrdd $4, %zmm0, %zmm1, %zmm0
1101 ; AVX512VBMI2-NEXT:    retq
1103 ; AVX512VLBW-LABEL: splatconstant_funnnel_v16i32:
1104 ; AVX512VLBW:       # %bb.0:
1105 ; AVX512VLBW-NEXT:    vpsrld $4, %zmm1, %zmm1
1106 ; AVX512VLBW-NEXT:    vpslld $28, %zmm0, %zmm0
1107 ; AVX512VLBW-NEXT:    vpord %zmm1, %zmm0, %zmm0
1108 ; AVX512VLBW-NEXT:    retq
1110 ; AVX512VLVBMI2-LABEL: splatconstant_funnnel_v16i32:
1111 ; AVX512VLVBMI2:       # %bb.0:
1112 ; AVX512VLVBMI2-NEXT:    vpshrdd $4, %zmm0, %zmm1, %zmm0
1113 ; AVX512VLVBMI2-NEXT:    retq
1114   %res = call <16 x i32> @llvm.fshr.v16i32(<16 x i32> %x, <16 x i32> %y, <16 x i32> <i32 4, i32 4, i32 4, i32 4, i32 4, i32 4, i32 4, i32 4, i32 4, i32 4, i32 4, i32 4, i32 4, i32 4, i32 4, i32 4>)
1115   ret <16 x i32> %res
1118 define <32 x i16> @splatconstant_funnnel_v32i16(<32 x i16> %x, <32 x i16> %y) nounwind {
1119 ; AVX512F-LABEL: splatconstant_funnnel_v32i16:
1120 ; AVX512F:       # %bb.0:
1121 ; AVX512F-NEXT:    vpsrlw $7, %ymm1, %ymm2
1122 ; AVX512F-NEXT:    vextracti64x4 $1, %zmm1, %ymm1
1123 ; AVX512F-NEXT:    vpsrlw $7, %ymm1, %ymm1
1124 ; AVX512F-NEXT:    vinserti64x4 $1, %ymm1, %zmm2, %zmm1
1125 ; AVX512F-NEXT:    vpsllw $9, %ymm0, %ymm2
1126 ; AVX512F-NEXT:    vextracti64x4 $1, %zmm0, %ymm0
1127 ; AVX512F-NEXT:    vpsllw $9, %ymm0, %ymm0
1128 ; AVX512F-NEXT:    vinserti64x4 $1, %ymm0, %zmm2, %zmm0
1129 ; AVX512F-NEXT:    vporq %zmm1, %zmm0, %zmm0
1130 ; AVX512F-NEXT:    retq
1132 ; AVX512VL-LABEL: splatconstant_funnnel_v32i16:
1133 ; AVX512VL:       # %bb.0:
1134 ; AVX512VL-NEXT:    vpsrlw $7, %ymm1, %ymm2
1135 ; AVX512VL-NEXT:    vextracti64x4 $1, %zmm1, %ymm1
1136 ; AVX512VL-NEXT:    vpsrlw $7, %ymm1, %ymm1
1137 ; AVX512VL-NEXT:    vinserti64x4 $1, %ymm1, %zmm2, %zmm1
1138 ; AVX512VL-NEXT:    vpsllw $9, %ymm0, %ymm2
1139 ; AVX512VL-NEXT:    vextracti64x4 $1, %zmm0, %ymm0
1140 ; AVX512VL-NEXT:    vpsllw $9, %ymm0, %ymm0
1141 ; AVX512VL-NEXT:    vinserti64x4 $1, %ymm0, %zmm2, %zmm0
1142 ; AVX512VL-NEXT:    vporq %zmm1, %zmm0, %zmm0
1143 ; AVX512VL-NEXT:    retq
1145 ; AVX512BW-LABEL: splatconstant_funnnel_v32i16:
1146 ; AVX512BW:       # %bb.0:
1147 ; AVX512BW-NEXT:    vpsrlw $7, %zmm1, %zmm1
1148 ; AVX512BW-NEXT:    vpsllw $9, %zmm0, %zmm0
1149 ; AVX512BW-NEXT:    vporq %zmm1, %zmm0, %zmm0
1150 ; AVX512BW-NEXT:    retq
1152 ; AVX512VBMI2-LABEL: splatconstant_funnnel_v32i16:
1153 ; AVX512VBMI2:       # %bb.0:
1154 ; AVX512VBMI2-NEXT:    vpshrdw $7, %zmm0, %zmm1, %zmm0
1155 ; AVX512VBMI2-NEXT:    retq
1157 ; AVX512VLBW-LABEL: splatconstant_funnnel_v32i16:
1158 ; AVX512VLBW:       # %bb.0:
1159 ; AVX512VLBW-NEXT:    vpsrlw $7, %zmm1, %zmm1
1160 ; AVX512VLBW-NEXT:    vpsllw $9, %zmm0, %zmm0
1161 ; AVX512VLBW-NEXT:    vporq %zmm1, %zmm0, %zmm0
1162 ; AVX512VLBW-NEXT:    retq
1164 ; AVX512VLVBMI2-LABEL: splatconstant_funnnel_v32i16:
1165 ; AVX512VLVBMI2:       # %bb.0:
1166 ; AVX512VLVBMI2-NEXT:    vpshrdw $7, %zmm0, %zmm1, %zmm0
1167 ; AVX512VLVBMI2-NEXT:    retq
1168   %res = call <32 x i16> @llvm.fshr.v32i16(<32 x i16> %x, <32 x i16> %y, <32 x i16> <i16 7, i16 7, i16 7, i16 7, i16 7, i16 7, i16 7, i16 7, i16 7, i16 7, i16 7, i16 7, i16 7, i16 7, i16 7, i16 7, i16 7, i16 7, i16 7, i16 7, i16 7, i16 7, i16 7, i16 7, i16 7, i16 7, i16 7, i16 7, i16 7, i16 7, i16 7, i16 7>)
1169   ret <32 x i16> %res
1172 define <64 x i8> @splatconstant_funnnel_v64i8(<64 x i8> %x, <64 x i8> %y) nounwind {
1173 ; AVX512F-LABEL: splatconstant_funnnel_v64i8:
1174 ; AVX512F:       # %bb.0:
1175 ; AVX512F-NEXT:    vpsllw $4, %ymm0, %ymm2
1176 ; AVX512F-NEXT:    vextracti64x4 $1, %zmm0, %ymm0
1177 ; AVX512F-NEXT:    vpsllw $4, %ymm0, %ymm0
1178 ; AVX512F-NEXT:    vinserti64x4 $1, %ymm0, %zmm2, %zmm2
1179 ; AVX512F-NEXT:    vpsrlw $4, %ymm1, %ymm0
1180 ; AVX512F-NEXT:    vextracti64x4 $1, %zmm1, %ymm1
1181 ; AVX512F-NEXT:    vpsrlw $4, %ymm1, %ymm1
1182 ; AVX512F-NEXT:    vinserti64x4 $1, %ymm1, %zmm0, %zmm0
1183 ; AVX512F-NEXT:    vpternlogq $216, {{\.?LCPI[0-9]+_[0-9]+}}(%rip){1to8}, %zmm2, %zmm0
1184 ; AVX512F-NEXT:    retq
1186 ; AVX512VL-LABEL: splatconstant_funnnel_v64i8:
1187 ; AVX512VL:       # %bb.0:
1188 ; AVX512VL-NEXT:    vpsllw $4, %ymm0, %ymm2
1189 ; AVX512VL-NEXT:    vextracti64x4 $1, %zmm0, %ymm0
1190 ; AVX512VL-NEXT:    vpsllw $4, %ymm0, %ymm0
1191 ; AVX512VL-NEXT:    vinserti64x4 $1, %ymm0, %zmm2, %zmm2
1192 ; AVX512VL-NEXT:    vpsrlw $4, %ymm1, %ymm0
1193 ; AVX512VL-NEXT:    vextracti64x4 $1, %zmm1, %ymm1
1194 ; AVX512VL-NEXT:    vpsrlw $4, %ymm1, %ymm1
1195 ; AVX512VL-NEXT:    vinserti64x4 $1, %ymm1, %zmm0, %zmm0
1196 ; AVX512VL-NEXT:    vpternlogq $216, {{\.?LCPI[0-9]+_[0-9]+}}(%rip){1to8}, %zmm2, %zmm0
1197 ; AVX512VL-NEXT:    retq
1199 ; AVX512BW-LABEL: splatconstant_funnnel_v64i8:
1200 ; AVX512BW:       # %bb.0:
1201 ; AVX512BW-NEXT:    vpsllw $4, %zmm0, %zmm2
1202 ; AVX512BW-NEXT:    vpsrlw $4, %zmm1, %zmm0
1203 ; AVX512BW-NEXT:    vpternlogq $216, {{\.?LCPI[0-9]+_[0-9]+}}(%rip){1to8}, %zmm2, %zmm0
1204 ; AVX512BW-NEXT:    retq
1206 ; AVX512VBMI2-LABEL: splatconstant_funnnel_v64i8:
1207 ; AVX512VBMI2:       # %bb.0:
1208 ; AVX512VBMI2-NEXT:    vpsllw $4, %zmm0, %zmm2
1209 ; AVX512VBMI2-NEXT:    vpsrlw $4, %zmm1, %zmm0
1210 ; AVX512VBMI2-NEXT:    vpternlogq $216, {{\.?LCPI[0-9]+_[0-9]+}}(%rip){1to8}, %zmm2, %zmm0
1211 ; AVX512VBMI2-NEXT:    retq
1213 ; AVX512VLBW-LABEL: splatconstant_funnnel_v64i8:
1214 ; AVX512VLBW:       # %bb.0:
1215 ; AVX512VLBW-NEXT:    vpsllw $4, %zmm0, %zmm2
1216 ; AVX512VLBW-NEXT:    vpsrlw $4, %zmm1, %zmm0
1217 ; AVX512VLBW-NEXT:    vpternlogq $216, {{\.?LCPI[0-9]+_[0-9]+}}(%rip){1to8}, %zmm2, %zmm0
1218 ; AVX512VLBW-NEXT:    retq
1220 ; AVX512VLVBMI2-LABEL: splatconstant_funnnel_v64i8:
1221 ; AVX512VLVBMI2:       # %bb.0:
1222 ; AVX512VLVBMI2-NEXT:    vpsllw $4, %zmm0, %zmm2
1223 ; AVX512VLVBMI2-NEXT:    vpsrlw $4, %zmm1, %zmm0
1224 ; AVX512VLVBMI2-NEXT:    vpternlogq $216, {{\.?LCPI[0-9]+_[0-9]+}}(%rip){1to8}, %zmm2, %zmm0
1225 ; AVX512VLVBMI2-NEXT:    retq
1226   %res = call <64 x i8> @llvm.fshr.v64i8(<64 x i8> %x, <64 x i8> %y, <64 x i8> <i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4, i8 4>)
1227   ret <64 x i8> %res