[docs] Add LICENSE.txt to the root of the mono-repo
[llvm-project.git] / llvm / test / CodeGen / X86 / vector-shuffle-combining-avx512bwvl.ll
blob8f46209689a1da41018d66693cbae6fa069e8bce
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc < %s -mtriple=i686-unknown -mattr=+avx512bw,+avx512vl | FileCheck %s --check-prefixes=CHECK,X86
3 ; RUN: llc < %s -mtriple=x86_64-unknown -mattr=+avx512bw,+avx512vl | FileCheck %s --check-prefixes=CHECK,X64
5 declare <16 x i16> @llvm.x86.avx512.maskz.vpermt2var.hi.256(<16 x i16>, <16 x i16>, <16 x i16>, i16)
6 declare <16 x i16> @llvm.x86.avx512.mask.vpermi2var.hi.256(<16 x i16>, <16 x i16>, <16 x i16>, i16)
8 define <16 x i16> @combine_vpermt2var_16i16_identity(<16 x i16> %x0, <16 x i16> %x1) {
9 ; CHECK-LABEL: combine_vpermt2var_16i16_identity:
10 ; CHECK:       # %bb.0:
11 ; CHECK-NEXT:    ret{{[l|q]}}
12   %res0 = call <16 x i16> @llvm.x86.avx512.maskz.vpermt2var.hi.256(<16 x i16> <i16 15, i16 14, i16 13, i16 12, i16 11, i16 10, i16 9, i16 8, i16 7, i16 6, i16 5, i16 4, i16 3, i16 2, i16 1, i16 0>, <16 x i16> %x0, <16 x i16> %x1, i16 -1)
13   %res1 = call <16 x i16> @llvm.x86.avx512.maskz.vpermt2var.hi.256(<16 x i16> <i16 15, i16 30, i16 13, i16 28, i16 11, i16 26, i16 9, i16 24, i16 7, i16 22, i16 5, i16 20, i16 3, i16 18, i16 1, i16 16>, <16 x i16> %res0, <16 x i16> %res0, i16 -1)
14   ret <16 x i16> %res1
16 define <16 x i16> @combine_vpermt2var_16i16_identity_mask(<16 x i16> %x0, <16 x i16> %x1, i16 %m) {
17 ; X86-LABEL: combine_vpermt2var_16i16_identity_mask:
18 ; X86:       # %bb.0:
19 ; X86-NEXT:    vmovdqa {{.*#+}} ymm1 = [15,14,13,12,11,10,9,8,7,6,5,4,3,2,1,0]
20 ; X86-NEXT:    kmovw {{[0-9]+}}(%esp), %k1
21 ; X86-NEXT:    vpermt2w %ymm0, %ymm1, %ymm0 {%k1} {z}
22 ; X86-NEXT:    vmovdqa {{.*#+}} ymm1 = [15,30,13,28,11,26,9,24,7,22,5,20,3,18,1,16]
23 ; X86-NEXT:    vpermt2w %ymm0, %ymm1, %ymm0 {%k1} {z}
24 ; X86-NEXT:    retl
26 ; X64-LABEL: combine_vpermt2var_16i16_identity_mask:
27 ; X64:       # %bb.0:
28 ; X64-NEXT:    vmovdqa {{.*#+}} ymm1 = [15,14,13,12,11,10,9,8,7,6,5,4,3,2,1,0]
29 ; X64-NEXT:    kmovd %edi, %k1
30 ; X64-NEXT:    vpermt2w %ymm0, %ymm1, %ymm0 {%k1} {z}
31 ; X64-NEXT:    vmovdqa {{.*#+}} ymm1 = [15,30,13,28,11,26,9,24,7,22,5,20,3,18,1,16]
32 ; X64-NEXT:    vpermt2w %ymm0, %ymm1, %ymm0 {%k1} {z}
33 ; X64-NEXT:    retq
34   %res0 = call <16 x i16> @llvm.x86.avx512.maskz.vpermt2var.hi.256(<16 x i16> <i16 15, i16 14, i16 13, i16 12, i16 11, i16 10, i16 9, i16 8, i16 7, i16 6, i16 5, i16 4, i16 3, i16 2, i16 1, i16 0>, <16 x i16> %x0, <16 x i16> %x1, i16 %m)
35   %res1 = call <16 x i16> @llvm.x86.avx512.maskz.vpermt2var.hi.256(<16 x i16> <i16 15, i16 30, i16 13, i16 28, i16 11, i16 26, i16 9, i16 24, i16 7, i16 22, i16 5, i16 20, i16 3, i16 18, i16 1, i16 16>, <16 x i16> %res0, <16 x i16> %res0, i16 %m)
36   ret <16 x i16> %res1
39 define <16 x i16> @combine_vpermi2var_16i16_as_permw(<16 x i16> %x0, <16 x i16> %x1) {
40 ; CHECK-LABEL: combine_vpermi2var_16i16_as_permw:
41 ; CHECK:       # %bb.0:
42 ; CHECK-NEXT:    vmovdqa {{.*#+}} ymm1 = [15,0,14,1,13,2,12,3,11,4,10,5,9,6,8,7]
43 ; CHECK-NEXT:    vpermw %ymm0, %ymm1, %ymm0
44 ; CHECK-NEXT:    ret{{[l|q]}}
45   %res0 = call <16 x i16> @llvm.x86.avx512.mask.vpermi2var.hi.256(<16 x i16> %x0, <16 x i16> <i16 15, i16 14, i16 13, i16 12, i16 11, i16 10, i16 9, i16 8, i16 7, i16 6, i16 5, i16 4, i16 3, i16 2, i16 1, i16 0>, <16 x i16> %x1, i16 -1)
46   %res1 = call <16 x i16> @llvm.x86.avx512.mask.vpermi2var.hi.256(<16 x i16> %res0, <16 x i16> <i16 0, i16 15, i16 1, i16 14, i16 2, i16 13, i16 3, i16 12, i16 4, i16 11, i16 5, i16 10, i16 6, i16 9, i16 7, i16 8>, <16 x i16> %res0, i16 -1)
47   ret <16 x i16> %res1
50 define <16 x i16> @combine_vpermt2var_vpermi2var_16i16_as_vperm2(<16 x i16> %x0, <16 x i16> %x1) {
51 ; CHECK-LABEL: combine_vpermt2var_vpermi2var_16i16_as_vperm2:
52 ; CHECK:       # %bb.0:
53 ; CHECK-NEXT:    vmovdqa {{.*#+}} ymm2 = [0,31,2,2,4,29,6,27,8,25,10,23,12,21,14,19]
54 ; CHECK-NEXT:    vpermt2w %ymm1, %ymm2, %ymm0
55 ; CHECK-NEXT:    ret{{[l|q]}}
56   %res0 = call <16 x i16> @llvm.x86.avx512.mask.vpermi2var.hi.256(<16 x i16> %x0, <16 x i16> <i16 0, i16 31, i16 2, i16 29, i16 4, i16 27, i16 6, i16 25, i16 8, i16 23, i16 10, i16 21, i16 12, i16 19, i16 14, i16 17>, <16 x i16> %x1, i16 -1)
57   %res1 = call <16 x i16> @llvm.x86.avx512.maskz.vpermt2var.hi.256(<16 x i16> <i16 0, i16 17, i16 2, i16 18, i16 4, i16 19, i16 6, i16 21, i16 8, i16 23, i16 10, i16 25, i16 12, i16 27, i16 14, i16 29>, <16 x i16> %res0, <16 x i16> %res0, i16 -1)
58   ret <16 x i16> %res1
61 define <16 x i16> @combine_vpermt2var_vpermi2var_16i16_as_unpckhwd(<16 x i16> %a0, <16 x i16> %a1) {
62 ; CHECK-LABEL: combine_vpermt2var_vpermi2var_16i16_as_unpckhwd:
63 ; CHECK:       # %bb.0:
64 ; CHECK-NEXT:    vpunpckhwd {{.*#+}} ymm0 = ymm1[4],ymm0[4],ymm1[5],ymm0[5],ymm1[6],ymm0[6],ymm1[7],ymm0[7],ymm1[12],ymm0[12],ymm1[13],ymm0[13],ymm1[14],ymm0[14],ymm1[15],ymm0[15]
65 ; CHECK-NEXT:    ret{{[l|q]}}
66   %res0 = call <16 x i16> @llvm.x86.avx512.mask.vpermi2var.hi.256(<16 x i16> %a0, <16 x i16> <i16 20, i16 4, i16 21, i16 5, i16 22, i16 6, i16 23, i16 7, i16 28, i16 12, i16 29, i16 13, i16 30, i16 14, i16 31, i16 15>, <16 x i16> %a1, i16 -1)
67   ret <16 x i16> %res0
70 define <16 x i16> @combine_vpermt2var_vpermi2var_16i16_as_unpcklwd(<16 x i16> %a0, <16 x i16> %a1) {
71 ; CHECK-LABEL: combine_vpermt2var_vpermi2var_16i16_as_unpcklwd:
72 ; CHECK:       # %bb.0:
73 ; CHECK-NEXT:    vpunpcklwd {{.*#+}} ymm0 = ymm0[0],ymm1[0],ymm0[1],ymm1[1],ymm0[2],ymm1[2],ymm0[3],ymm1[3],ymm0[8],ymm1[8],ymm0[9],ymm1[9],ymm0[10],ymm1[10],ymm0[11],ymm1[11]
74 ; CHECK-NEXT:    ret{{[l|q]}}
75   %res0 = call <16 x i16> @llvm.x86.avx512.maskz.vpermt2var.hi.256(<16 x i16> <i16 0, i16 16, i16 1, i16 17, i16 2, i16 18, i16 3, i16 19, i16 8, i16 24, i16 9, i16 25, i16 10, i16 26, i16 11, i16 27>, <16 x i16> %a0, <16 x i16> %a1, i16 -1)
76   ret <16 x i16> %res0
79 define <16 x i8> @combine_shuffle_vrotri_v2i64(<2 x i64> %a0) {
80 ; CHECK-LABEL: combine_shuffle_vrotri_v2i64:
81 ; CHECK:       # %bb.0:
82 ; CHECK-NEXT:    vpshufb {{.*#+}} xmm0 = xmm0[13,12,11,10,9,8,15,14,5,4,3,2,1,0,7,6]
83 ; CHECK-NEXT:    ret{{[l|q]}}
84   %1 = call <2 x i64> @llvm.fshr.v2i64(<2 x i64> %a0, <2 x i64> %a0, <2 x i64> <i64 48, i64 48>)
85   %2 = bitcast <2 x i64> %1 to <16 x i8>
86   %3 = shufflevector <16 x i8> %2, <16 x i8> undef, <16 x i32> <i32 15, i32 14, i32 13, i32 12, i32 11, i32 10, i32 9, i32 8, i32 7, i32 6, i32 5, i32 4, i32 3, i32 2, i32 1, i32 0>
87   ret <16 x i8> %3
89 declare <2 x i64> @llvm.fshr.v2i64(<2 x i64>, <2 x i64>, <2 x i64>)
91 define <16 x i8> @combine_shuffle_vrotli_v4i32(<4 x i32> %a0) {
92 ; CHECK-LABEL: combine_shuffle_vrotli_v4i32:
93 ; CHECK:       # %bb.0:
94 ; CHECK-NEXT:    vpshufb {{.*#+}} xmm0 = xmm0[14,13,12,15,10,9,8,11,6,5,4,7,2,1,0,3]
95 ; CHECK-NEXT:    ret{{[l|q]}}
96   %1 = call <4 x i32> @llvm.fshl.v4i32(<4 x i32> %a0, <4 x i32> %a0, <4 x i32> <i32 8, i32 8, i32 8, i32 8>)
97   %2 = bitcast <4 x i32> %1 to <16 x i8>
98   %3 = shufflevector <16 x i8> %2, <16 x i8> undef, <16 x i32> <i32 15, i32 14, i32 13, i32 12, i32 11, i32 10, i32 9, i32 8, i32 7, i32 6, i32 5, i32 4, i32 3, i32 2, i32 1, i32 0>
99   ret <16 x i8> %3
101 declare <4 x i32> @llvm.fshl.v4i32(<4 x i32>, <4 x i32>, <4 x i32>)
103 define void @PR46178(ptr %0) {
104 ; X86-LABEL: PR46178:
105 ; X86:       # %bb.0:
106 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
107 ; X86-NEXT:    vmovdqu 0, %ymm0
108 ; X86-NEXT:    vmovdqu (%eax), %ymm1
109 ; X86-NEXT:    vpmovqw %ymm0, %xmm0
110 ; X86-NEXT:    vpmovqw %ymm1, %xmm1
111 ; X86-NEXT:    vpsllw $8, %xmm0, %xmm0
112 ; X86-NEXT:    vpsraw $8, %xmm0, %xmm0
113 ; X86-NEXT:    vpsllw $8, %xmm1, %xmm1
114 ; X86-NEXT:    vpsraw $8, %xmm1, %xmm1
115 ; X86-NEXT:    vpunpcklqdq {{.*#+}} ymm0 = ymm0[0],ymm1[0],ymm0[2],ymm1[2]
116 ; X86-NEXT:    vmovdqu %ymm0, (%eax)
117 ; X86-NEXT:    vzeroupper
118 ; X86-NEXT:    retl
120 ; X64-LABEL: PR46178:
121 ; X64:       # %bb.0:
122 ; X64-NEXT:    vmovdqu 0, %ymm0
123 ; X64-NEXT:    vmovdqu (%rax), %ymm1
124 ; X64-NEXT:    vpmovqw %ymm0, %xmm0
125 ; X64-NEXT:    vpmovqw %ymm1, %xmm1
126 ; X64-NEXT:    vinserti128 $1, %xmm1, %ymm0, %ymm0
127 ; X64-NEXT:    vpsllw $8, %ymm0, %ymm0
128 ; X64-NEXT:    vpsraw $8, %ymm0, %ymm0
129 ; X64-NEXT:    vpermq {{.*#+}} ymm0 = ymm0[0,2,1,1]
130 ; X64-NEXT:    vmovdqu %ymm0, (%rdi)
131 ; X64-NEXT:    vzeroupper
132 ; X64-NEXT:    retq
133   %2 = load <4 x i64>, ptr null, align 8
134   %3 = load <4 x i64>, ptr undef, align 8
135   %4 = trunc <4 x i64> %2 to <4 x i16>
136   %5 = trunc <4 x i64> %3 to <4 x i16>
137   %6 = shl <4 x i16> %4, <i16 8, i16 8, i16 8, i16 8>
138   %7 = shl <4 x i16> %5, <i16 8, i16 8, i16 8, i16 8>
139   %8 = ashr exact <4 x i16> %6, <i16 8, i16 8, i16 8, i16 8>
140   %9 = ashr exact <4 x i16> %7, <i16 8, i16 8, i16 8, i16 8>
141   %10 = getelementptr inbounds i16, ptr %0, i64 4
142   %11 = getelementptr inbounds i16, ptr %0, i64 8
143   %12 = getelementptr inbounds i16, ptr %0, i64 12
144   store <4 x i16> %8, ptr %0, align 2
145   store <4 x i16> %9, ptr %10, align 2
146   store <4 x i16> zeroinitializer, ptr %11, align 2
147   store <4 x i16> zeroinitializer, ptr %12, align 2
148   ret void
151 define <8 x i32> @PR46393(<8 x i16> %a0, i8 %a1) {
152 ; X86-LABEL: PR46393:
153 ; X86:       # %bb.0:
154 ; X86-NEXT:    vpmovzxwd {{.*#+}} ymm0 = xmm0[0],zero,xmm0[1],zero,xmm0[2],zero,xmm0[3],zero,xmm0[4],zero,xmm0[5],zero,xmm0[6],zero,xmm0[7],zero
155 ; X86-NEXT:    movzbl {{[0-9]+}}(%esp), %eax
156 ; X86-NEXT:    kmovd %eax, %k1
157 ; X86-NEXT:    vpslld $16, %ymm0, %ymm0 {%k1} {z}
158 ; X86-NEXT:    retl
160 ; X64-LABEL: PR46393:
161 ; X64:       # %bb.0:
162 ; X64-NEXT:    vpmovzxwd {{.*#+}} ymm0 = xmm0[0],zero,xmm0[1],zero,xmm0[2],zero,xmm0[3],zero,xmm0[4],zero,xmm0[5],zero,xmm0[6],zero,xmm0[7],zero
163 ; X64-NEXT:    kmovd %edi, %k1
164 ; X64-NEXT:    vpslld $16, %ymm0, %ymm0 {%k1} {z}
165 ; X64-NEXT:    retq
166   %zext = sext <8 x i16> %a0 to <8 x i32>
167   %mask = bitcast i8 %a1 to <8 x i1>
168   %shl = shl nuw <8 x i32> %zext, <i32 16, i32 16, i32 16, i32 16, i32 16, i32 16, i32 16, i32 16>
169   %sel = select <8 x i1> %mask, <8 x i32> %shl, <8 x i32> zeroinitializer
170   ret <8 x i32> %sel
173 define i64 @PR55050() {
174 ; X86-LABEL: PR55050:
175 ; X86:       # %bb.0: # %entry
176 ; X86-NEXT:    xorl %eax, %eax
177 ; X86-NEXT:    testb %al, %al
178 ; X86-NEXT:    jne .LBB10_2
179 ; X86-NEXT:  # %bb.1: # %if
180 ; X86-NEXT:    xorl %eax, %eax
181 ; X86-NEXT:  .LBB10_2: # %exit
182 ; X86-NEXT:    movl %eax, %edx
183 ; X86-NEXT:    retl
185 ; X64-LABEL: PR55050:
186 ; X64:       # %bb.0: # %entry
187 ; X64-NEXT:    xorl %eax, %eax
188 ; X64-NEXT:    testb %al, %al
189 ; X64-NEXT:    xorl %eax, %eax
190 ; X64-NEXT:    retq
191 entry:
192   %i275 = call <2 x i64> @llvm.x86.sse2.psad.bw(<16 x i8> undef, <16 x i8> zeroinitializer)
193   %i277 = call <2 x i64> @llvm.x86.sse2.psad.bw(<16 x i8> undef, <16 x i8> zeroinitializer)
194   br i1 undef, label %exit, label %if
197   %i298 = bitcast <2 x i64> %i275 to <4 x i32>
198   %i299 = bitcast <2 x i64> %i277 to <4 x i32>
199   %i300 = shufflevector <4 x i32> %i298, <4 x i32> %i299, <4 x i32> <i32 0, i32 2, i32 4, i32 6>
200   %i339 = call <8 x i16> @llvm.x86.sse41.packusdw(<4 x i32> %i300, <4 x i32> undef)
201   %i354 = shufflevector <8 x i16> %i339, <8 x i16> undef, <8 x i32> <i32 0, i32 undef, i32 2, i32 undef, i32 4, i32 undef, i32 6, i32 undef>
202   %i356 = call <16 x i8> @llvm.x86.sse2.packuswb.128(<8 x i16> %i354, <8 x i16> undef)
203   %i357 = shufflevector <16 x i8> %i356, <16 x i8> zeroinitializer, <16 x i32> <i32 6, i32 5, i32 4, i32 16, i32 2, i32 1, i32 0, i32 16, i32 10, i32 9, i32 8, i32 16, i32 16, i32 16, i32 16, i32 16>
204   %i361 = extractelement <16 x i8> %i357, i64 8
205   %i360 = and i8 %i361, 63
206   %i379 = zext i8 %i360 to i64
207   br label %exit
209 exit:
210   %res = phi i64 [ %i379, %if ], [ 0, %entry ]
211   ret i64 %res
213 declare <2 x i64> @llvm.x86.sse2.psad.bw(<16 x i8>, <16 x i8>)
214 declare <16 x i8> @llvm.x86.sse2.packuswb.128(<8 x i16>, <8 x i16>)
215 declare <8 x i16> @llvm.x86.sse41.packusdw(<4 x i32>, <4 x i32>)