[InstCombine] Signed saturation patterns
[llvm-complete.git] / test / CodeGen / X86 / zext-sext.ll
blob84096e3b6805dd7e4e53fef0d622215580d1912c
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc < %s -mtriple=x86_64-linux-gnu -mcpu=atom | FileCheck %s
3 ; <rdar://problem/8006248>
5 ; This randomly started passing after an unrelated change, if it fails again it
6 ; might be worth looking at PR12324: misched bringup.
8 @llvm.used = appending global [1 x i8*] [i8* bitcast (void ([40 x i16]*, i32*, i16**, i64*)* @func to i8*)], section "llvm.metadata"
10 define void @func([40 x i16]* %a, i32* %b, i16** %c, i64* %d) nounwind {
11 ; CHECK-LABEL: func:
12 ; CHECK:       # %bb.0: # %entry
13 ; CHECK-NEXT:    movslq (%rsi), %rax
14 ; CHECK-NEXT:    movl $4, %esi
15 ; CHECK-NEXT:    subq %rax, %rsi
16 ; CHECK-NEXT:    movq (%rdx), %rax
17 ; CHECK-NEXT:    movswl 8(%rdi), %edx
18 ; CHECK-NEXT:    movswl (%rax,%rsi,2), %eax
19 ; CHECK-NEXT:    movl $1, %esi
20 ; CHECK-NEXT:    imull %edx, %eax
21 ; CHECK-NEXT:    xorl %edx, %edx
22 ; CHECK-NEXT:    addl $2138875574, %eax # imm = 0x7F7CA6B6
23 ; CHECK-NEXT:    cmpl $-8608074, %eax # imm = 0xFF7CA6B6
24 ; CHECK-NEXT:    movslq %eax, %rdi
25 ; CHECK-NEXT:    setl %dl
26 ; CHECK-NEXT:    cmpl $2138875573, %eax # imm = 0x7F7CA6B5
27 ; CHECK-NEXT:    movq %rdi, %r8
28 ; CHECK-NEXT:    leal -1(%rdx,%rdx), %edx
29 ; CHECK-NEXT:    cmovlel %edx, %esi
30 ; CHECK-NEXT:    subq %rax, %r8
31 ; CHECK-NEXT:    xorl %eax, %eax
32 ; CHECK-NEXT:    cmpl $1, %esi
33 ; CHECK-NEXT:    cmovneq %rax, %r8
34 ; CHECK-NEXT:    testl %edi, %edi
35 ; CHECK-NEXT:    cmovnsq %rax, %r8
36 ; CHECK-NEXT:    movq (%rcx), %rax
37 ; CHECK-NEXT:    subq %r8, %rdi
38 ; CHECK-NEXT:    leaq -2138875574(%rax,%rdi), %rax
39 ; CHECK-NEXT:    movq %rax, (%rcx)
40 ; CHECK-NEXT:    retq
41 entry:
42   %tmp103 = getelementptr inbounds [40 x i16], [40 x i16]* %a, i64 0, i64 4
43   %tmp104 = load i16, i16* %tmp103, align 2
44   %tmp105 = sext i16 %tmp104 to i32
45   %tmp106 = load i32, i32* %b, align 4
46   %tmp107 = sub nsw i32 4, %tmp106
47   %tmp108 = load i16*, i16** %c, align 8
48   %tmp109 = sext i32 %tmp107 to i64
49   %tmp110 = getelementptr inbounds i16, i16* %tmp108, i64 %tmp109
50   %tmp111 = load i16, i16* %tmp110, align 1
51   %tmp112 = sext i16 %tmp111 to i32
52   %tmp = mul i32 355244649, %tmp112
53   %tmp1 = mul i32 %tmp, %tmp105
54   %tmp2 = add i32 %tmp1, 2138875574
55   %tmp3 = add i32 %tmp2, 1546991088
56   %tmp4 = mul i32 %tmp3, 2122487257
57   %tmp5 = icmp sge i32 %tmp4, 2138875574
58   %tmp6 = icmp slt i32 %tmp4, -8608074
59   %tmp7 = or i1 %tmp5, %tmp6
60   %outSign = select i1 %tmp7, i32 1, i32 -1
61   %tmp8 = icmp slt i32 %tmp4, 0
62   %tmp9 = icmp eq i32 %outSign, 1
63   %tmp10 = and i1 %tmp8, %tmp9
64   %tmp11 = sext i32 %tmp4 to i64
65   %tmp12 = add i64 %tmp11, 5089792279245435153
66   %tmp13 = sub i64 %tmp12, 2138875574
67   %tmp14 = zext i32 %tmp4 to i64
68   %tmp15 = sub i64 %tmp11, %tmp14
69   %tmp16 = select i1 %tmp10, i64 %tmp15, i64 0
70   %tmp17 = sub i64 %tmp13, %tmp16
71   %tmp18 = mul i64 %tmp17, 4540133155013554595
72   %tmp19 = sub i64 %tmp18, 5386586244038704851
73   %tmp20 = add i64 %tmp19, -1368057358110947217
74   %tmp21 = mul i64 %tmp20, -422037402840850817
75   %tmp115 = load i64, i64* %d, align 8
76   %alphaX = mul i64 468858157810230901, %tmp21
77   %alphaXbetaY = add i64 %alphaX, %tmp115
78   %transformed = add i64 %alphaXbetaY, 9040145182981852475
79   store i64 %transformed, i64* %d, align 8
80   ret void