[Alignment][NFC] Use Align with TargetLowering::setMinFunctionAlignment
[llvm-core.git] / test / CodeGen / X86 / widen_arith-4.ll
blob490783ef65796863b9456e22c92337d2d2b6e126
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+sse2 | FileCheck %s --check-prefixes=CHECK,SSE2
3 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+sse4.2 | FileCheck %s --check-prefixes=CHECK,SSE41
5 ; Widen a v5i16 to v8i16 to do a vector sub and multiple
7 define void @update(<5 x i16>* %dst, <5 x i16>* %src, i32 %n) nounwind {
8 ; SSE2-LABEL: update:
9 ; SSE2:       # %bb.0: # %entry
10 ; SSE2-NEXT:    movq %rdi, -{{[0-9]+}}(%rsp)
11 ; SSE2-NEXT:    movq %rsi, -{{[0-9]+}}(%rsp)
12 ; SSE2-NEXT:    movl %edx, -{{[0-9]+}}(%rsp)
13 ; SSE2-NEXT:    movabsq $4295032833, %rax # imm = 0x100010001
14 ; SSE2-NEXT:    movq %rax, -{{[0-9]+}}(%rsp)
15 ; SSE2-NEXT:    movw $0, -{{[0-9]+}}(%rsp)
16 ; SSE2-NEXT:    movl $0, -{{[0-9]+}}(%rsp)
17 ; SSE2-NEXT:    movdqa {{.*#+}} xmm0 = <271,271,271,271,271,u,u,u>
18 ; SSE2-NEXT:    movdqa {{.*#+}} xmm1 = <2,4,2,2,2,u,u,u>
19 ; SSE2-NEXT:    .p2align 4, 0x90
20 ; SSE2-NEXT:  .LBB0_1: # %forcond
21 ; SSE2-NEXT:    # =>This Inner Loop Header: Depth=1
22 ; SSE2-NEXT:    movl -{{[0-9]+}}(%rsp), %eax
23 ; SSE2-NEXT:    cmpl -{{[0-9]+}}(%rsp), %eax
24 ; SSE2-NEXT:    jge .LBB0_3
25 ; SSE2-NEXT:  # %bb.2: # %forbody
26 ; SSE2-NEXT:    # in Loop: Header=BB0_1 Depth=1
27 ; SSE2-NEXT:    movslq -{{[0-9]+}}(%rsp), %rax
28 ; SSE2-NEXT:    movq -{{[0-9]+}}(%rsp), %rcx
29 ; SSE2-NEXT:    shlq $4, %rax
30 ; SSE2-NEXT:    movq -{{[0-9]+}}(%rsp), %rdx
31 ; SSE2-NEXT:    movdqa (%rdx,%rax), %xmm2
32 ; SSE2-NEXT:    psubw %xmm0, %xmm2
33 ; SSE2-NEXT:    pmullw %xmm1, %xmm2
34 ; SSE2-NEXT:    movq %xmm2, (%rcx,%rax)
35 ; SSE2-NEXT:    pextrw $4, %xmm2, %edx
36 ; SSE2-NEXT:    movw %dx, 8(%rcx,%rax)
37 ; SSE2-NEXT:    incl -{{[0-9]+}}(%rsp)
38 ; SSE2-NEXT:    jmp .LBB0_1
39 ; SSE2-NEXT:  .LBB0_3: # %afterfor
40 ; SSE2-NEXT:    retq
42 ; SSE41-LABEL: update:
43 ; SSE41:       # %bb.0: # %entry
44 ; SSE41-NEXT:    movq %rdi, -{{[0-9]+}}(%rsp)
45 ; SSE41-NEXT:    movq %rsi, -{{[0-9]+}}(%rsp)
46 ; SSE41-NEXT:    movl %edx, -{{[0-9]+}}(%rsp)
47 ; SSE41-NEXT:    movabsq $4295032833, %rax # imm = 0x100010001
48 ; SSE41-NEXT:    movq %rax, -{{[0-9]+}}(%rsp)
49 ; SSE41-NEXT:    movw $0, -{{[0-9]+}}(%rsp)
50 ; SSE41-NEXT:    movl $0, -{{[0-9]+}}(%rsp)
51 ; SSE41-NEXT:    movdqa {{.*#+}} xmm0 = <271,271,271,271,271,u,u,u>
52 ; SSE41-NEXT:    .p2align 4, 0x90
53 ; SSE41-NEXT:  .LBB0_1: # %forcond
54 ; SSE41-NEXT:    # =>This Inner Loop Header: Depth=1
55 ; SSE41-NEXT:    movl -{{[0-9]+}}(%rsp), %eax
56 ; SSE41-NEXT:    cmpl -{{[0-9]+}}(%rsp), %eax
57 ; SSE41-NEXT:    jge .LBB0_3
58 ; SSE41-NEXT:  # %bb.2: # %forbody
59 ; SSE41-NEXT:    # in Loop: Header=BB0_1 Depth=1
60 ; SSE41-NEXT:    movslq -{{[0-9]+}}(%rsp), %rax
61 ; SSE41-NEXT:    movq -{{[0-9]+}}(%rsp), %rcx
62 ; SSE41-NEXT:    shlq $4, %rax
63 ; SSE41-NEXT:    movq -{{[0-9]+}}(%rsp), %rdx
64 ; SSE41-NEXT:    movdqa (%rdx,%rax), %xmm1
65 ; SSE41-NEXT:    psubw %xmm0, %xmm1
66 ; SSE41-NEXT:    movdqa %xmm1, %xmm2
67 ; SSE41-NEXT:    psllw $2, %xmm2
68 ; SSE41-NEXT:    psllw $1, %xmm1
69 ; SSE41-NEXT:    pblendw {{.*#+}} xmm2 = xmm1[0],xmm2[1],xmm1[2,3,4,5,6,7]
70 ; SSE41-NEXT:    pextrw $4, %xmm1, 8(%rcx,%rax)
71 ; SSE41-NEXT:    movq %xmm2, (%rcx,%rax)
72 ; SSE41-NEXT:    incl -{{[0-9]+}}(%rsp)
73 ; SSE41-NEXT:    jmp .LBB0_1
74 ; SSE41-NEXT:  .LBB0_3: # %afterfor
75 ; SSE41-NEXT:    retq
76 entry:
77         %dst.addr = alloca <5 x i16>*
78         %src.addr = alloca <5 x i16>*
79         %n.addr = alloca i32
80         %v = alloca <5 x i16>, align 16
81         %i = alloca i32, align 4
82         store <5 x i16>* %dst, <5 x i16>** %dst.addr
83         store <5 x i16>* %src, <5 x i16>** %src.addr
84         store i32 %n, i32* %n.addr
85         store <5 x i16> < i16 1, i16 1, i16 1, i16 0, i16 0 >, <5 x i16>* %v
86         store i32 0, i32* %i
87         br label %forcond
89 forcond:
90         %tmp = load i32, i32* %i
91         %tmp1 = load i32, i32* %n.addr
92         %cmp = icmp slt i32 %tmp, %tmp1
93         br i1 %cmp, label %forbody, label %afterfor
95 forbody:
96         %tmp2 = load i32, i32* %i
97         %tmp3 = load <5 x i16>*, <5 x i16>** %dst.addr
98         %arrayidx = getelementptr <5 x i16>, <5 x i16>* %tmp3, i32 %tmp2
99         %tmp4 = load i32, i32* %i
100         %tmp5 = load <5 x i16>*, <5 x i16>** %src.addr
101         %arrayidx6 = getelementptr <5 x i16>, <5 x i16>* %tmp5, i32 %tmp4
102         %tmp7 = load <5 x i16>, <5 x i16>* %arrayidx6
103         %sub = sub <5 x i16> %tmp7, < i16 271, i16 271, i16 271, i16 271, i16 271 >
104         %mul = mul <5 x i16> %sub, < i16 2, i16 4, i16 2, i16 2, i16 2 >
105         store <5 x i16> %mul, <5 x i16>* %arrayidx
106         br label %forinc
108 forinc:
109         %tmp8 = load i32, i32* %i
110         %inc = add i32 %tmp8, 1
111         store i32 %inc, i32* %i
112         br label %forcond
114 afterfor:
115         ret void