[InstCombine] Signed saturation patterns
[llvm-core.git] / test / CodeGen / X86 / cmov.ll
blob4cf31f3889f1205bf89f4567d098753fd9f1480d
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc < %s -verify-machineinstrs -mtriple=x86_64-unknown-unknown -disable-cgp-select2branch -x86-cmov-converter=false | FileCheck %s
3 target datalayout = "e-p:64:64:64-i1:8:8-i8:8:8-i16:16:16-i32:32:32-i64:64:64-f32:32:32-f64:64:64-v64:64:64-v128:128:128-a0:0:64-s0:64:64-f80:128:128"
5 define i32 @test1(i32 %x, i32 %n, i32 %w, i32* %vp) nounwind readnone {
6 ; CHECK-LABEL: test1:
7 ; CHECK:       # %bb.0: # %entry
8 ; CHECK-NEXT:    btl %esi, %edi
9 ; CHECK-NEXT:    movl $12, %eax
10 ; CHECK-NEXT:    cmovael (%rcx), %eax
11 ; CHECK-NEXT:    retq
12 entry:
13         %0 = lshr i32 %x, %n
14         %1 = and i32 %0, 1
15         %toBool = icmp eq i32 %1, 0
16         %v = load i32, i32* %vp
17         %.0 = select i1 %toBool, i32 %v, i32 12
18         ret i32 %.0
21 define i32 @test2(i32 %x, i32 %n, i32 %w, i32* %vp) nounwind readnone {
22 ; CHECK-LABEL: test2:
23 ; CHECK:       # %bb.0: # %entry
24 ; CHECK-NEXT:    btl %esi, %edi
25 ; CHECK-NEXT:    movl $12, %eax
26 ; CHECK-NEXT:    cmovbl (%rcx), %eax
27 ; CHECK-NEXT:    retq
28 entry:
29         %0 = lshr i32 %x, %n
30         %1 = and i32 %0, 1
31         %toBool = icmp eq i32 %1, 0
32         %v = load i32, i32* %vp
33         %.0 = select i1 %toBool, i32 12, i32 %v
34         ret i32 %.0
38 ; x86's 32-bit cmov zeroes the high 32 bits of the destination. Make
39 ; sure CodeGen takes advantage of that to avoid an unnecessary
40 ; zero-extend (movl) after the cmov.
42 declare void @bar(i64) nounwind
44 define void @test3(i64 %a, i64 %b, i1 %p) nounwind {
45 ; CHECK-LABEL: test3:
46 ; CHECK:       # %bb.0:
47 ; CHECK-NEXT:    pushq %rax
48 ; CHECK-NEXT:    testb $1, %dl
49 ; CHECK-NEXT:    cmovel %esi, %edi
50 ; CHECK-NEXT:    callq bar
51 ; CHECK-NEXT:    popq %rax
52 ; CHECK-NEXT:    retq
53   %c = trunc i64 %a to i32
54   %d = trunc i64 %b to i32
55   %e = select i1 %p, i32 %c, i32 %d
56   %f = zext i32 %e to i64
57   call void @bar(i64 %f)
58   ret void
63 ; CodeGen shouldn't try to do a setne after an expanded 8-bit conditional
64 ; move without recomputing EFLAGS, because the expansion of the conditional
65 ; move with control flow may clobber EFLAGS (e.g., with xor, to set the
66 ; register to zero).
68 ; The test is a little awkward; the important part is that there's a test before the
69 ; setne.
70 ; PR4814
73 @g_3 = external global i8
74 @g_96 = external global i8
75 @g_100 = external global i8
76 @_2E_str = external constant [15 x i8], align 1
78 define i1 @test4() nounwind {
79 ; CHECK-LABEL: test4:
80 ; CHECK:       # %bb.0: # %entry
81 ; CHECK-NEXT:    pushq %rbx
82 ; CHECK-NEXT:    movsbl {{.*}}(%rip), %edx
83 ; CHECK-NEXT:    movzbl %dl, %ecx
84 ; CHECK-NEXT:    shrl $7, %ecx
85 ; CHECK-NEXT:    xorb $1, %cl
86 ; CHECK-NEXT:    # kill: def $cl killed $cl killed $ecx
87 ; CHECK-NEXT:    sarl %cl, %edx
88 ; CHECK-NEXT:    movb {{.*}}(%rip), %al
89 ; CHECK-NEXT:    testb %al, %al
90 ; CHECK-NEXT:    je .LBB3_2
91 ; CHECK-NEXT:  # %bb.1: # %bb.i.i.i
92 ; CHECK-NEXT:    movb {{.*}}(%rip), %cl
93 ; CHECK-NEXT:  .LBB3_2: # %func_4.exit.i
94 ; CHECK-NEXT:    xorl %esi, %esi
95 ; CHECK-NEXT:    testb %dl, %dl
96 ; CHECK-NEXT:    setne %bl
97 ; CHECK-NEXT:    movzbl %al, %ecx
98 ; CHECK-NEXT:    cmovnel %esi, %ecx
99 ; CHECK-NEXT:    testb %al, %al
100 ; CHECK-NEXT:    je .LBB3_5
101 ; CHECK-NEXT:  # %bb.3: # %func_4.exit.i
102 ; CHECK-NEXT:    testb %bl, %bl
103 ; CHECK-NEXT:    jne .LBB3_5
104 ; CHECK-NEXT:  # %bb.4: # %bb.i.i
105 ; CHECK-NEXT:    movb {{.*}}(%rip), %cl
106 ; CHECK-NEXT:    xorl %ebx, %ebx
107 ; CHECK-NEXT:    movl %eax, %ecx
108 ; CHECK-NEXT:  .LBB3_5: # %func_1.exit
109 ; CHECK-NEXT:    movb %cl, {{.*}}(%rip)
110 ; CHECK-NEXT:    movzbl %cl, %esi
111 ; CHECK-NEXT:    movl $_2E_str, %edi
112 ; CHECK-NEXT:    xorl %eax, %eax
113 ; CHECK-NEXT:    callq printf
114 ; CHECK-NEXT:    movl %ebx, %eax
115 ; CHECK-NEXT:    popq %rbx
116 ; CHECK-NEXT:    retq
117 entry:
118   %0 = load i8, i8* @g_3, align 1
119   %1 = sext i8 %0 to i32
120   %.lobit.i = lshr i8 %0, 7
121   %tmp.i = zext i8 %.lobit.i to i32
122   %tmp.not.i = xor i32 %tmp.i, 1
123   %iftmp.17.0.i.i = ashr i32 %1, %tmp.not.i
124   %retval56.i.i = trunc i32 %iftmp.17.0.i.i to i8
125   %2 = icmp eq i8 %retval56.i.i, 0
126   %g_96.promoted.i = load i8, i8* @g_96
127   %3 = icmp eq i8 %g_96.promoted.i, 0
128   br i1 %3, label %func_4.exit.i, label %bb.i.i.i
130 bb.i.i.i:
131   %4 = load volatile i8, i8* @g_100, align 1
132   br label %func_4.exit.i
134 func_4.exit.i:
135   %.not.i = xor i1 %2, true
136   %brmerge.i = or i1 %3, %.not.i
137   %.mux.i = select i1 %2, i8 %g_96.promoted.i, i8 0
138   br i1 %brmerge.i, label %func_1.exit, label %bb.i.i
140 bb.i.i:
141   %5 = load volatile i8, i8* @g_100, align 1
142   br label %func_1.exit
144 func_1.exit:
145   %g_96.tmp.0.i = phi i8 [ %g_96.promoted.i, %bb.i.i ], [ %.mux.i, %func_4.exit.i ]
146   %ret = phi i1 [ 0, %bb.i.i ], [ %.not.i, %func_4.exit.i ]
147   store i8 %g_96.tmp.0.i, i8* @g_96
148   %6 = zext i8 %g_96.tmp.0.i to i32
149   %7 = tail call i32 (i8*, ...) @printf(i8* noalias getelementptr ([15 x i8], [15 x i8]* @_2E_str, i64 0, i64 0), i32 %6) nounwind
150   ret i1 %ret
153 declare i32 @printf(i8* nocapture, ...) nounwind
156 ; Should compile to setcc | -2.
157 ; rdar://6668608
158 define i32 @test5(i32* nocapture %P) nounwind readonly {
159 ; CHECK-LABEL: test5:
160 ; CHECK:       # %bb.0: # %entry
161 ; CHECK-NEXT:    xorl %eax, %eax
162 ; CHECK-NEXT:    cmpl $41, (%rdi)
163 ; CHECK-NEXT:    setg %al
164 ; CHECK-NEXT:    orl $-2, %eax
165 ; CHECK-NEXT:    retq
166 entry:
167         %0 = load i32, i32* %P, align 4
168         %1 = icmp sgt i32 %0, 41
169         %iftmp.0.0 = select i1 %1, i32 -1, i32 -2
170         ret i32 %iftmp.0.0
173 define i32 @test6(i32* nocapture %P) nounwind readonly {
174 ; CHECK-LABEL: test6:
175 ; CHECK:       # %bb.0: # %entry
176 ; CHECK-NEXT:    xorl %eax, %eax
177 ; CHECK-NEXT:    cmpl $42, (%rdi)
178 ; CHECK-NEXT:    setl %al
179 ; CHECK-NEXT:    leal 4(%rax,%rax,8), %eax
180 ; CHECK-NEXT:    retq
181 entry:
182         %0 = load i32, i32* %P, align 4
183         %1 = icmp sgt i32 %0, 41
184         %iftmp.0.0 = select i1 %1, i32 4, i32 13
185         ret i32 %iftmp.0.0
189 ; Don't try to use a 16-bit conditional move to do an 8-bit select,
190 ; because it isn't worth it. Just use a branch instead.
191 define i8 @test7(i1 inreg %c, i8 inreg %a, i8 inreg %b) nounwind {
192 ; CHECK-LABEL: test7:
193 ; CHECK:       # %bb.0:
194 ; CHECK-NEXT:    movl %esi, %eax
195 ; CHECK-NEXT:    testb $1, %dil
196 ; CHECK-NEXT:    cmovel %edx, %eax
197 ; CHECK-NEXT:    # kill: def $al killed $al killed $eax
198 ; CHECK-NEXT:    retq
199   %d = select i1 %c, i8 %a, i8 %b
200   ret i8 %d
203 define i32 @smin(i32 %x) {
204 ; CHECK-LABEL: smin:
205 ; CHECK:       # %bb.0:
206 ; CHECK-NEXT:    notl %edi
207 ; CHECK-NEXT:    testl %edi, %edi
208 ; CHECK-NEXT:    movl $-1, %eax
209 ; CHECK-NEXT:    cmovsl %edi, %eax
210 ; CHECK-NEXT:    retq
211   %not_x = xor i32 %x, -1
212   %1 = icmp slt i32 %not_x, -1
213   %sel = select i1 %1, i32 %not_x, i32 -1
214   ret i32 %sel