[Demangle] Add a few more options to the microsoft demangler
[llvm-complete.git] / test / CodeGen / X86 / vshli-simplify-demanded-bits.ll
blob1750cbf2cf62a8ef2df041272a75bb908013ef60
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc -mtriple=x86_64-unknown-linux-gnu < %s | FileCheck %s
4 ; A combine forming X86ISD::VSHLI was missing a test and not using
5 ; TargetConstant for the RHS operand.
6 ; https://bugs.chromium.org/p/chromium/issues/detail?id=1005750
8 define <8 x i8> @vshli_target_constant(<8 x i16> %arg, <8 x i32> %arg1) {
9 ; CHECK-LABEL: vshli_target_constant:
10 ; CHECK:       # %bb.0: # %bb
11 ; CHECK-NEXT:    movdqa {{.*#+}} xmm0 = [2863311531,2863311531,2863311531,2863311531]
12 ; CHECK-NEXT:    pshufd {{.*#+}} xmm3 = xmm1[1,1,3,3]
13 ; CHECK-NEXT:    pmuludq %xmm0, %xmm1
14 ; CHECK-NEXT:    pshufd {{.*#+}} xmm4 = xmm1[1,3,2,3]
15 ; CHECK-NEXT:    pmuludq %xmm0, %xmm3
16 ; CHECK-NEXT:    pshufd {{.*#+}} xmm1 = xmm3[1,3,2,3]
17 ; CHECK-NEXT:    punpckldq {{.*#+}} xmm4 = xmm4[0],xmm1[0],xmm4[1],xmm1[1]
18 ; CHECK-NEXT:    pshufd {{.*#+}} xmm1 = xmm2[1,1,3,3]
19 ; CHECK-NEXT:    pmuludq %xmm0, %xmm2
20 ; CHECK-NEXT:    pshufd {{.*#+}} xmm2 = xmm2[1,3,2,3]
21 ; CHECK-NEXT:    pmuludq %xmm0, %xmm1
22 ; CHECK-NEXT:    pshufd {{.*#+}} xmm0 = xmm1[1,3,2,3]
23 ; CHECK-NEXT:    punpckldq {{.*#+}} xmm2 = xmm2[0],xmm0[0],xmm2[1],xmm0[1]
24 ; CHECK-NEXT:    movq {{.*#+}} xmm1 = mem[0],zero
25 ; CHECK-NEXT:    pslld $15, %xmm2
26 ; CHECK-NEXT:    psrad $16, %xmm2
27 ; CHECK-NEXT:    pslld $15, %xmm4
28 ; CHECK-NEXT:    psrad $16, %xmm4
29 ; CHECK-NEXT:    packssdw %xmm2, %xmm4
30 ; CHECK-NEXT:    pand {{.*}}(%rip), %xmm4
31 ; CHECK-NEXT:    pxor %xmm0, %xmm0
32 ; CHECK-NEXT:    punpcklbw {{.*#+}} xmm1 = xmm1[0],xmm0[0],xmm1[1],xmm0[1],xmm1[2],xmm0[2],xmm1[3],xmm0[3],xmm1[4],xmm0[4],xmm1[5],xmm0[5],xmm1[6],xmm0[6],xmm1[7],xmm0[7]
33 ; CHECK-NEXT:    pmullw %xmm4, %xmm1
34 ; CHECK-NEXT:    movdqa %xmm1, %xmm0
35 ; CHECK-NEXT:    punpcklwd {{.*#+}} xmm0 = xmm0[0,0,1,1,2,2,3,3]
36 ; CHECK-NEXT:    punpckhwd {{.*#+}} xmm1 = xmm1[4],xmm0[4],xmm1[5],xmm0[5],xmm1[6],xmm0[6],xmm1[7],xmm0[7]
37 ; CHECK-NEXT:    movdqa {{.*#+}} xmm2 = [128,128,128,128]
38 ; CHECK-NEXT:    paddd %xmm2, %xmm1
39 ; CHECK-NEXT:    paddd %xmm2, %xmm0
40 ; CHECK-NEXT:    psrld $8, %xmm0
41 ; CHECK-NEXT:    psrld $8, %xmm1
42 ; CHECK-NEXT:    movdqa {{.*#+}} xmm2 = [255,0,0,0,255,0,0,0,255,0,0,0,255,0,0,0]
43 ; CHECK-NEXT:    pand %xmm2, %xmm1
44 ; CHECK-NEXT:    pand %xmm2, %xmm0
45 ; CHECK-NEXT:    packuswb %xmm1, %xmm0
46 ; CHECK-NEXT:    packuswb %xmm0, %xmm0
47 ; CHECK-NEXT:    retq
48 bb:
49   %tmp = udiv <8 x i32> %arg1, <i32 3, i32 3, i32 3, i32 3, i32 3, i32 3, i32 3, i32 3>
50   %tmp2 = and <8 x i32> %tmp, <i32 255, i32 255, i32 255, i32 255, i32 255, i32 255, i32 255, i32 255>
51   %tmp3 = load <8 x i8>, <8 x i8>* undef, align 1
52   %tmp4 = zext <8 x i8> %tmp3 to <8 x i32>
53   %tmp5 = mul nuw nsw <8 x i32> %tmp2, %tmp4
54   %tmp6 = add nuw nsw <8 x i32> %tmp5, <i32 128, i32 128, i32 128, i32 128, i32 128, i32 128, i32 128, i32 128>
55   %tmp7 = lshr <8 x i32> %tmp6, <i32 8, i32 8, i32 8, i32 8, i32 8, i32 8, i32 8, i32 8>
56   %tmp8 = trunc <8 x i32> %tmp7 to <8 x i8>
57   ret <8 x i8> %tmp8