[ORC] Add std::tuple support to SimplePackedSerialization.
[llvm-project.git] / llvm / test / CodeGen / X86 / smul_fix_sat_constants.ll
blobaf8353c5a5653b68e31622a5146bc93a9c6793f9
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc < %s -mtriple=x86_64-linux | FileCheck %s --check-prefix=X64
4 ; Verify expansion by using constant values. We just want to cover all the paths layed out by ExpandIntRes_MULFIX.
6 declare  i4  @llvm.smul.fix.sat.i4   (i4,  i4, i32)
7 declare  i32 @llvm.smul.fix.sat.i32  (i32, i32, i32)
8 declare  i64 @llvm.smul.fix.sat.i64  (i64, i64, i32)
9 declare  <4 x i32> @llvm.smul.fix.sat.v4i32(<4 x i32>, <4 x i32>, i32)
10 declare { i64, i1 } @llvm.smul.with.overflow.i64(i64, i64)
12 define i64 @func() nounwind {
13 ; X64-LABEL: func:
14 ; X64:       # %bb.0:
15 ; X64-NEXT:    movl $2, %ecx
16 ; X64-NEXT:    movl $3, %eax
17 ; X64-NEXT:    imulq %rcx
18 ; X64-NEXT:    cmpq $2, %rdx
19 ; X64-NEXT:    movabsq $9223372036854775807, %rax # imm = 0x7FFFFFFFFFFFFFFF
20 ; X64-NEXT:    movl $1, %ecx
21 ; X64-NEXT:    cmovgeq %rax, %rcx
22 ; X64-NEXT:    cmpq $-2, %rdx
23 ; X64-NEXT:    movabsq $-9223372036854775808, %rax # imm = 0x8000000000000000
24 ; X64-NEXT:    cmovgeq %rcx, %rax
25 ; X64-NEXT:    retq
26   %tmp = call i64 @llvm.smul.fix.sat.i64(i64 3, i64 2, i32 2)
27   ret i64 %tmp
30 define i64 @func2() nounwind {
31 ; X64-LABEL: func2:
32 ; X64:       # %bb.0:
33 ; X64-NEXT:    movl $3, %eax
34 ; X64-NEXT:    imulq $2, %rax, %rcx
35 ; X64-NEXT:    xorl %edx, %edx
36 ; X64-NEXT:    testq %rcx, %rcx
37 ; X64-NEXT:    setns %dl
38 ; X64-NEXT:    movabsq $9223372036854775807, %rcx # imm = 0x7FFFFFFFFFFFFFFF
39 ; X64-NEXT:    addq %rdx, %rcx
40 ; X64-NEXT:    imulq $2, %rax, %rax
41 ; X64-NEXT:    cmovoq %rcx, %rax
42 ; X64-NEXT:    retq
43   %tmp = call i64 @llvm.smul.fix.sat.i64(i64 3, i64 2, i32 0)
44   ret i64 %tmp
47 define i64 @func3() nounwind {
48 ; X64-LABEL: func3:
49 ; X64:       # %bb.0:
50 ; X64-NEXT:    movabsq $9223372036854775807, %rcx # imm = 0x7FFFFFFFFFFFFFFF
51 ; X64-NEXT:    movl $2, %edx
52 ; X64-NEXT:    movq %rcx, %rax
53 ; X64-NEXT:    imulq %rdx
54 ; X64-NEXT:    cmpq $2, %rdx
55 ; X64-NEXT:    movabsq $4611686018427387903, %rsi # imm = 0x3FFFFFFFFFFFFFFF
56 ; X64-NEXT:    cmovgeq %rcx, %rsi
57 ; X64-NEXT:    cmpq $-2, %rdx
58 ; X64-NEXT:    movabsq $-9223372036854775808, %rax # imm = 0x8000000000000000
59 ; X64-NEXT:    cmovgeq %rsi, %rax
60 ; X64-NEXT:    retq
61   %tmp = call i64 @llvm.smul.fix.sat.i64(i64 9223372036854775807, i64 2, i32 2)
62   ret i64 %tmp
65 define i64 @func4() nounwind {
66 ; X64-LABEL: func4:
67 ; X64:       # %bb.0:
68 ; X64-NEXT:    movabsq $9223372036854775807, %rcx # imm = 0x7FFFFFFFFFFFFFFF
69 ; X64-NEXT:    movl $2, %edx
70 ; X64-NEXT:    movq %rcx, %rax
71 ; X64-NEXT:    imulq %rdx
72 ; X64-NEXT:    cmpq $2147483647, %rdx # imm = 0x7FFFFFFF
73 ; X64-NEXT:    movl $4294967295, %esi # imm = 0xFFFFFFFF
74 ; X64-NEXT:    cmovgq %rcx, %rsi
75 ; X64-NEXT:    cmpq $-2147483648, %rdx # imm = 0x80000000
76 ; X64-NEXT:    movabsq $-9223372036854775808, %rax # imm = 0x8000000000000000
77 ; X64-NEXT:    cmovgeq %rsi, %rax
78 ; X64-NEXT:    retq
79   %tmp = call i64 @llvm.smul.fix.sat.i64(i64 9223372036854775807, i64 2, i32 32)
80   ret i64 %tmp
83 define i64 @func5() nounwind {
84 ; X64-LABEL: func5:
85 ; X64:       # %bb.0:
86 ; X64-NEXT:    movabsq $9223372036854775807, %rcx # imm = 0x7FFFFFFFFFFFFFFF
87 ; X64-NEXT:    movl $2, %edx
88 ; X64-NEXT:    movq %rcx, %rax
89 ; X64-NEXT:    imulq %rdx
90 ; X64-NEXT:    movabsq $4611686018427387903, %rax # imm = 0x3FFFFFFFFFFFFFFF
91 ; X64-NEXT:    cmpq %rax, %rdx
92 ; X64-NEXT:    movl $1, %esi
93 ; X64-NEXT:    cmovgq %rcx, %rsi
94 ; X64-NEXT:    movabsq $-4611686018427387904, %rax # imm = 0xC000000000000000
95 ; X64-NEXT:    cmpq %rax, %rdx
96 ; X64-NEXT:    movabsq $-9223372036854775808, %rax # imm = 0x8000000000000000
97 ; X64-NEXT:    cmovgeq %rsi, %rax
98 ; X64-NEXT:    retq
99   %tmp = call i64 @llvm.smul.fix.sat.i64(i64 9223372036854775807, i64 2, i32 63)
100   ret i64 %tmp