Bump version to 19.1.0-rc3
[llvm-project.git] / llvm / test / CodeGen / X86 / uadd_sat_plus.ll
blob654e3d77f52aa4dc5e2d0c428879d3f9ef0c443e
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc < %s -mtriple=i686 -mattr=cmov | FileCheck %s --check-prefix=X86
3 ; RUN: llc < %s -mtriple=x86_64-linux | FileCheck %s --check-prefix=X64
5 declare i4 @llvm.uadd.sat.i4(i4, i4)
6 declare i8 @llvm.uadd.sat.i8(i8, i8)
7 declare i16 @llvm.uadd.sat.i16(i16, i16)
8 declare i32 @llvm.uadd.sat.i32(i32, i32)
9 declare i64 @llvm.uadd.sat.i64(i64, i64)
11 define i32 @func32(i32 %x, i32 %y, i32 %z) nounwind {
12 ; X86-LABEL: func32:
13 ; X86:       # %bb.0:
14 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %ecx
15 ; X86-NEXT:    imull {{[0-9]+}}(%esp), %ecx
16 ; X86-NEXT:    addl {{[0-9]+}}(%esp), %ecx
17 ; X86-NEXT:    movl $-1, %eax
18 ; X86-NEXT:    cmovael %ecx, %eax
19 ; X86-NEXT:    retl
21 ; X64-LABEL: func32:
22 ; X64:       # %bb.0:
23 ; X64-NEXT:    imull %edx, %esi
24 ; X64-NEXT:    addl %edi, %esi
25 ; X64-NEXT:    movl $-1, %eax
26 ; X64-NEXT:    cmovael %esi, %eax
27 ; X64-NEXT:    retq
28   %a = mul i32 %y, %z
29   %tmp = call i32 @llvm.uadd.sat.i32(i32 %x, i32 %a)
30   ret i32 %tmp
33 define i64 @func64(i64 %x, i64 %y, i64 %z) nounwind {
34 ; X86-LABEL: func64:
35 ; X86:       # %bb.0:
36 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
37 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %edx
38 ; X86-NEXT:    addl {{[0-9]+}}(%esp), %eax
39 ; X86-NEXT:    adcl {{[0-9]+}}(%esp), %edx
40 ; X86-NEXT:    movl $-1, %ecx
41 ; X86-NEXT:    cmovbl %ecx, %edx
42 ; X86-NEXT:    cmovbl %ecx, %eax
43 ; X86-NEXT:    retl
45 ; X64-LABEL: func64:
46 ; X64:       # %bb.0:
47 ; X64-NEXT:    addq %rdx, %rdi
48 ; X64-NEXT:    movq $-1, %rax
49 ; X64-NEXT:    cmovaeq %rdi, %rax
50 ; X64-NEXT:    retq
51   %a = mul i64 %y, %z
52   %tmp = call i64 @llvm.uadd.sat.i64(i64 %x, i64 %z)
53   ret i64 %tmp
56 define zeroext i16 @func16(i16 zeroext %x, i16 zeroext %y, i16 zeroext %z) nounwind {
57 ; X86-LABEL: func16:
58 ; X86:       # %bb.0:
59 ; X86-NEXT:    movzwl {{[0-9]+}}(%esp), %ecx
60 ; X86-NEXT:    imulw {{[0-9]+}}(%esp), %cx
61 ; X86-NEXT:    addw {{[0-9]+}}(%esp), %cx
62 ; X86-NEXT:    movl $65535, %eax # imm = 0xFFFF
63 ; X86-NEXT:    cmovael %ecx, %eax
64 ; X86-NEXT:    # kill: def $ax killed $ax killed $eax
65 ; X86-NEXT:    retl
67 ; X64-LABEL: func16:
68 ; X64:       # %bb.0:
69 ; X64-NEXT:    imull %edx, %esi
70 ; X64-NEXT:    addw %di, %si
71 ; X64-NEXT:    movl $65535, %eax # imm = 0xFFFF
72 ; X64-NEXT:    cmovael %esi, %eax
73 ; X64-NEXT:    # kill: def $ax killed $ax killed $eax
74 ; X64-NEXT:    retq
75   %a = mul i16 %y, %z
76   %tmp = call i16 @llvm.uadd.sat.i16(i16 %x, i16 %a)
77   ret i16 %tmp
80 define zeroext i8 @func8(i8 zeroext %x, i8 zeroext %y, i8 zeroext %z) nounwind {
81 ; X86-LABEL: func8:
82 ; X86:       # %bb.0:
83 ; X86-NEXT:    movzbl {{[0-9]+}}(%esp), %eax
84 ; X86-NEXT:    mulb {{[0-9]+}}(%esp)
85 ; X86-NEXT:    addb {{[0-9]+}}(%esp), %al
86 ; X86-NEXT:    movzbl %al, %ecx
87 ; X86-NEXT:    movl $255, %eax
88 ; X86-NEXT:    cmovael %ecx, %eax
89 ; X86-NEXT:    # kill: def $al killed $al killed $eax
90 ; X86-NEXT:    retl
92 ; X64-LABEL: func8:
93 ; X64:       # %bb.0:
94 ; X64-NEXT:    movl %esi, %eax
95 ; X64-NEXT:    # kill: def $al killed $al killed $eax
96 ; X64-NEXT:    mulb %dl
97 ; X64-NEXT:    addb %dil, %al
98 ; X64-NEXT:    movzbl %al, %ecx
99 ; X64-NEXT:    movl $255, %eax
100 ; X64-NEXT:    cmovael %ecx, %eax
101 ; X64-NEXT:    # kill: def $al killed $al killed $eax
102 ; X64-NEXT:    retq
103   %a = mul i8 %y, %z
104   %tmp = call i8 @llvm.uadd.sat.i8(i8 %x, i8 %a)
105   ret i8 %tmp
108 define zeroext i4 @func4(i4 zeroext %x, i4 zeroext %y, i4 zeroext %z) nounwind {
109 ; X86-LABEL: func4:
110 ; X86:       # %bb.0:
111 ; X86-NEXT:    movzbl {{[0-9]+}}(%esp), %eax
112 ; X86-NEXT:    mulb {{[0-9]+}}(%esp)
113 ; X86-NEXT:    andb $15, %al
114 ; X86-NEXT:    addb {{[0-9]+}}(%esp), %al
115 ; X86-NEXT:    movzbl %al, %ecx
116 ; X86-NEXT:    cmpb $15, %al
117 ; X86-NEXT:    movl $15, %eax
118 ; X86-NEXT:    cmovbl %ecx, %eax
119 ; X86-NEXT:    movzbl %al, %eax
120 ; X86-NEXT:    retl
122 ; X64-LABEL: func4:
123 ; X64:       # %bb.0:
124 ; X64-NEXT:    movl %esi, %eax
125 ; X64-NEXT:    # kill: def $al killed $al killed $eax
126 ; X64-NEXT:    mulb %dl
127 ; X64-NEXT:    andb $15, %al
128 ; X64-NEXT:    addb %dil, %al
129 ; X64-NEXT:    movzbl %al, %eax
130 ; X64-NEXT:    cmpb $15, %al
131 ; X64-NEXT:    movl $15, %ecx
132 ; X64-NEXT:    cmovbl %eax, %ecx
133 ; X64-NEXT:    movzbl %cl, %eax
134 ; X64-NEXT:    retq
135   %a = mul i4 %y, %z
136   %tmp = call i4 @llvm.uadd.sat.i4(i4 %x, i4 %a)
137   ret i4 %tmp