[InstCombine] Signed saturation patterns
[llvm-complete.git] / test / CodeGen / X86 / legalize-shift-64.ll
blob0147de78a8a39026333fe85078bcc70259098cd9
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc < %s -mtriple=i686-unknown-unknown | FileCheck %s
4 define i64 @test1(i32 %xx, i32 %test) nounwind {
5 ; CHECK-LABEL: test1:
6 ; CHECK:       # %bb.0:
7 ; CHECK-NEXT:    movl {{[0-9]+}}(%esp), %edx
8 ; CHECK-NEXT:    movb {{[0-9]+}}(%esp), %cl
9 ; CHECK-NEXT:    andb $7, %cl
10 ; CHECK-NEXT:    movl %edx, %eax
11 ; CHECK-NEXT:    shll %cl, %eax
12 ; CHECK-NEXT:    shrl %edx
13 ; CHECK-NEXT:    xorb $31, %cl
14 ; CHECK-NEXT:    shrl %cl, %edx
15 ; CHECK-NEXT:    retl
16   %conv = zext i32 %xx to i64
17   %and = and i32 %test, 7
18   %sh_prom = zext i32 %and to i64
19   %shl = shl i64 %conv, %sh_prom
20   ret i64 %shl
23 define i64 @test2(i64 %xx, i32 %test) nounwind {
24 ; CHECK-LABEL: test2:
25 ; CHECK:       # %bb.0:
26 ; CHECK-NEXT:    pushl %esi
27 ; CHECK-NEXT:    movl {{[0-9]+}}(%esp), %esi
28 ; CHECK-NEXT:    movl {{[0-9]+}}(%esp), %edx
29 ; CHECK-NEXT:    movb {{[0-9]+}}(%esp), %cl
30 ; CHECK-NEXT:    andb $7, %cl
31 ; CHECK-NEXT:    movl %esi, %eax
32 ; CHECK-NEXT:    shll %cl, %eax
33 ; CHECK-NEXT:    shldl %cl, %esi, %edx
34 ; CHECK-NEXT:    popl %esi
35 ; CHECK-NEXT:    retl
36   %and = and i32 %test, 7
37   %sh_prom = zext i32 %and to i64
38   %shl = shl i64 %xx, %sh_prom
39   ret i64 %shl
42 define i64 @test3(i64 %xx, i32 %test) nounwind {
43 ; CHECK-LABEL: test3:
44 ; CHECK:       # %bb.0:
45 ; CHECK-NEXT:    movl {{[0-9]+}}(%esp), %eax
46 ; CHECK-NEXT:    movl {{[0-9]+}}(%esp), %edx
47 ; CHECK-NEXT:    movb {{[0-9]+}}(%esp), %cl
48 ; CHECK-NEXT:    andb $7, %cl
49 ; CHECK-NEXT:    shrdl %cl, %edx, %eax
50 ; CHECK-NEXT:    shrl %cl, %edx
51 ; CHECK-NEXT:    retl
52   %and = and i32 %test, 7
53   %sh_prom = zext i32 %and to i64
54   %shr = lshr i64 %xx, %sh_prom
55   ret i64 %shr
58 define i64 @test4(i64 %xx, i32 %test) nounwind {
59 ; CHECK-LABEL: test4:
60 ; CHECK:       # %bb.0:
61 ; CHECK-NEXT:    movl {{[0-9]+}}(%esp), %eax
62 ; CHECK-NEXT:    movl {{[0-9]+}}(%esp), %edx
63 ; CHECK-NEXT:    movb {{[0-9]+}}(%esp), %cl
64 ; CHECK-NEXT:    andb $7, %cl
65 ; CHECK-NEXT:    shrdl %cl, %edx, %eax
66 ; CHECK-NEXT:    sarl %cl, %edx
67 ; CHECK-NEXT:    retl
68   %and = and i32 %test, 7
69   %sh_prom = zext i32 %and to i64
70   %shr = ashr i64 %xx, %sh_prom
71   ret i64 %shr
74 ; PR14668
75 define <2 x i64> @test5(<2 x i64> %A, <2 x i64> %B) {
76 ; CHECK-LABEL: test5:
77 ; CHECK:       # %bb.0:
78 ; CHECK-NEXT:    pushl %ebp
79 ; CHECK-NEXT:    .cfi_def_cfa_offset 8
80 ; CHECK-NEXT:    pushl %ebx
81 ; CHECK-NEXT:    .cfi_def_cfa_offset 12
82 ; CHECK-NEXT:    pushl %edi
83 ; CHECK-NEXT:    .cfi_def_cfa_offset 16
84 ; CHECK-NEXT:    pushl %esi
85 ; CHECK-NEXT:    .cfi_def_cfa_offset 20
86 ; CHECK-NEXT:    .cfi_offset %esi, -20
87 ; CHECK-NEXT:    .cfi_offset %edi, -16
88 ; CHECK-NEXT:    .cfi_offset %ebx, -12
89 ; CHECK-NEXT:    .cfi_offset %ebp, -8
90 ; CHECK-NEXT:    movl {{[0-9]+}}(%esp), %eax
91 ; CHECK-NEXT:    movb {{[0-9]+}}(%esp), %ch
92 ; CHECK-NEXT:    movl {{[0-9]+}}(%esp), %edx
93 ; CHECK-NEXT:    movb {{[0-9]+}}(%esp), %cl
94 ; CHECK-NEXT:    movl {{[0-9]+}}(%esp), %ebx
95 ; CHECK-NEXT:    movl {{[0-9]+}}(%esp), %esi
96 ; CHECK-NEXT:    movl %ebx, %edi
97 ; CHECK-NEXT:    shll %cl, %edi
98 ; CHECK-NEXT:    shldl %cl, %ebx, %esi
99 ; CHECK-NEXT:    testb $32, %cl
100 ; CHECK-NEXT:    movl {{[0-9]+}}(%esp), %ebp
101 ; CHECK-NEXT:    je .LBB4_2
102 ; CHECK-NEXT:  # %bb.1:
103 ; CHECK-NEXT:    movl %edi, %esi
104 ; CHECK-NEXT:    xorl %edi, %edi
105 ; CHECK-NEXT:  .LBB4_2:
106 ; CHECK-NEXT:    movl %edx, %ebx
107 ; CHECK-NEXT:    movb %ch, %cl
108 ; CHECK-NEXT:    shll %cl, %ebx
109 ; CHECK-NEXT:    shldl %cl, %edx, %ebp
110 ; CHECK-NEXT:    testb $32, %ch
111 ; CHECK-NEXT:    je .LBB4_4
112 ; CHECK-NEXT:  # %bb.3:
113 ; CHECK-NEXT:    movl %ebx, %ebp
114 ; CHECK-NEXT:    xorl %ebx, %ebx
115 ; CHECK-NEXT:  .LBB4_4:
116 ; CHECK-NEXT:    movl %ebp, 12(%eax)
117 ; CHECK-NEXT:    movl %ebx, 8(%eax)
118 ; CHECK-NEXT:    movl %esi, 4(%eax)
119 ; CHECK-NEXT:    movl %edi, (%eax)
120 ; CHECK-NEXT:    popl %esi
121 ; CHECK-NEXT:    .cfi_def_cfa_offset 16
122 ; CHECK-NEXT:    popl %edi
123 ; CHECK-NEXT:    .cfi_def_cfa_offset 12
124 ; CHECK-NEXT:    popl %ebx
125 ; CHECK-NEXT:    .cfi_def_cfa_offset 8
126 ; CHECK-NEXT:    popl %ebp
127 ; CHECK-NEXT:    .cfi_def_cfa_offset 4
128 ; CHECK-NEXT:    retl $4
129   %shl = shl <2 x i64> %A, %B
130   ret <2 x i64> %shl
133 ; PR16108
134 define i32 @test6() {
135 ; CHECK-LABEL: test6:
136 ; CHECK:       # %bb.0:
137 ; CHECK-NEXT:    pushl %ebp
138 ; CHECK-NEXT:    .cfi_def_cfa_offset 8
139 ; CHECK-NEXT:    .cfi_offset %ebp, -8
140 ; CHECK-NEXT:    movl %esp, %ebp
141 ; CHECK-NEXT:    .cfi_def_cfa_register %ebp
142 ; CHECK-NEXT:    andl $-8, %esp
143 ; CHECK-NEXT:    subl $16, %esp
144 ; CHECK-NEXT:    movl $1, {{[0-9]+}}(%esp)
145 ; CHECK-NEXT:    movl {{[0-9]+}}(%esp), %eax
146 ; CHECK-NEXT:    movb $1, %al
147 ; CHECK-NEXT:    testb %al, %al
148 ; CHECK-NEXT:    jne .LBB5_3
149 ; CHECK-NEXT:  # %bb.1: # %if.then
150 ; CHECK-NEXT:    movl $1, %eax
151 ; CHECK-NEXT:    jmp .LBB5_2
152 ; CHECK-NEXT:  .LBB5_3: # %if.end
153 ; CHECK-NEXT:    xorl %eax, %eax
154 ; CHECK-NEXT:  .LBB5_2: # %if.then
155 ; CHECK-NEXT:    movl %ebp, %esp
156 ; CHECK-NEXT:    popl %ebp
157 ; CHECK-NEXT:    .cfi_def_cfa %esp, 4
158 ; CHECK-NEXT:    retl
159   %x = alloca i32, align 4
160   %t = alloca i64, align 8
161   store volatile i32 1, i32* %x, align 4
162   %load = load volatile i32, i32* %x, align 4
163   %shl = shl i32 %load, 8
164   %add = add i32 %shl, -224
165   %sh_prom = zext i32 %add to i64
166   %shl1 = shl i64 1, %sh_prom
167   %cmp = icmp ne i64 %shl1, 4294967296
168   br i1 %cmp, label %if.then, label %if.end
170 if.then:                                          ; preds = %entry
171   ret i32 1
173 if.end:                                           ; preds = %entry
174   ret i32 0