[Demangle] Add a few more options to the microsoft demangler
[llvm-complete.git] / test / CodeGen / X86 / shift-combine.ll
blob59fe62c0e4b499829fc1c8478f13ce583495c5b4
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc -mtriple=i686-unknown < %s | FileCheck %s --check-prefix=X32
3 ; RUN: llc -mtriple=x86_64-unknown < %s | FileCheck %s --check-prefix=X64
5 @array = weak global [4 x i32] zeroinitializer
7 define i32 @test_lshr_and(i32 %x) {
8 ; X32-LABEL: test_lshr_and:
9 ; X32:       # %bb.0:
10 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
11 ; X32-NEXT:    andl $12, %eax
12 ; X32-NEXT:    movl array(%eax), %eax
13 ; X32-NEXT:    retl
15 ; X64-LABEL: test_lshr_and:
16 ; X64:       # %bb.0:
17 ; X64-NEXT:    # kill: def $edi killed $edi def $rdi
18 ; X64-NEXT:    shrl $2, %edi
19 ; X64-NEXT:    andl $3, %edi
20 ; X64-NEXT:    movl array(,%rdi,4), %eax
21 ; X64-NEXT:    retq
22   %tmp2 = lshr i32 %x, 2
23   %tmp3 = and i32 %tmp2, 3
24   %tmp4 = getelementptr [4 x i32], [4 x i32]* @array, i32 0, i32 %tmp3
25   %tmp5 = load i32, i32* %tmp4, align 4
26   ret i32 %tmp5
29 define i32* @test_exact1(i32 %a, i32 %b, i32* %x)  {
30 ; X32-LABEL: test_exact1:
31 ; X32:       # %bb.0:
32 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
33 ; X32-NEXT:    subl {{[0-9]+}}(%esp), %eax
34 ; X32-NEXT:    sarl %eax
35 ; X32-NEXT:    addl {{[0-9]+}}(%esp), %eax
36 ; X32-NEXT:    retl
38 ; X64-LABEL: test_exact1:
39 ; X64:       # %bb.0:
40 ; X64-NEXT:    subl %edi, %esi
41 ; X64-NEXT:    sarl $3, %esi
42 ; X64-NEXT:    movslq %esi, %rax
43 ; X64-NEXT:    leaq (%rdx,%rax,4), %rax
44 ; X64-NEXT:    retq
45   %sub = sub i32 %b, %a
46   %shr = ashr exact i32 %sub, 3
47   %gep = getelementptr inbounds i32, i32* %x, i32 %shr
48   ret i32* %gep
51 define i32* @test_exact2(i32 %a, i32 %b, i32* %x)  {
52 ; X32-LABEL: test_exact2:
53 ; X32:       # %bb.0:
54 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
55 ; X32-NEXT:    subl {{[0-9]+}}(%esp), %eax
56 ; X32-NEXT:    sarl %eax
57 ; X32-NEXT:    addl {{[0-9]+}}(%esp), %eax
58 ; X32-NEXT:    retl
60 ; X64-LABEL: test_exact2:
61 ; X64:       # %bb.0:
62 ; X64-NEXT:    subl %edi, %esi
63 ; X64-NEXT:    sarl $3, %esi
64 ; X64-NEXT:    movslq %esi, %rax
65 ; X64-NEXT:    leaq (%rdx,%rax,4), %rax
66 ; X64-NEXT:    retq
67   %sub = sub i32 %b, %a
68   %shr = ashr exact i32 %sub, 3
69   %gep = getelementptr inbounds i32, i32* %x, i32 %shr
70   ret i32* %gep
73 define i32* @test_exact3(i32 %a, i32 %b, i32* %x)  {
74 ; X32-LABEL: test_exact3:
75 ; X32:       # %bb.0:
76 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
77 ; X32-NEXT:    subl {{[0-9]+}}(%esp), %eax
78 ; X32-NEXT:    addl {{[0-9]+}}(%esp), %eax
79 ; X32-NEXT:    retl
81 ; X64-LABEL: test_exact3:
82 ; X64:       # %bb.0:
83 ; X64-NEXT:    subl %edi, %esi
84 ; X64-NEXT:    sarl $2, %esi
85 ; X64-NEXT:    movslq %esi, %rax
86 ; X64-NEXT:    leaq (%rdx,%rax,4), %rax
87 ; X64-NEXT:    retq
88   %sub = sub i32 %b, %a
89   %shr = ashr exact i32 %sub, 2
90   %gep = getelementptr inbounds i32, i32* %x, i32 %shr
91   ret i32* %gep
94 define i32* @test_exact4(i32 %a, i32 %b, i32* %x)  {
95 ; X32-LABEL: test_exact4:
96 ; X32:       # %bb.0:
97 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
98 ; X32-NEXT:    subl {{[0-9]+}}(%esp), %eax
99 ; X32-NEXT:    shrl %eax
100 ; X32-NEXT:    addl {{[0-9]+}}(%esp), %eax
101 ; X32-NEXT:    retl
103 ; X64-LABEL: test_exact4:
104 ; X64:       # %bb.0:
105 ; X64-NEXT:    # kill: def $esi killed $esi def $rsi
106 ; X64-NEXT:    subl %edi, %esi
107 ; X64-NEXT:    shrl $3, %esi
108 ; X64-NEXT:    leaq (%rdx,%rsi,4), %rax
109 ; X64-NEXT:    retq
110   %sub = sub i32 %b, %a
111   %shr = lshr exact i32 %sub, 3
112   %gep = getelementptr inbounds i32, i32* %x, i32 %shr
113   ret i32* %gep
116 define i32* @test_exact5(i32 %a, i32 %b, i32* %x)  {
117 ; X32-LABEL: test_exact5:
118 ; X32:       # %bb.0:
119 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
120 ; X32-NEXT:    subl {{[0-9]+}}(%esp), %eax
121 ; X32-NEXT:    shrl %eax
122 ; X32-NEXT:    addl {{[0-9]+}}(%esp), %eax
123 ; X32-NEXT:    retl
125 ; X64-LABEL: test_exact5:
126 ; X64:       # %bb.0:
127 ; X64-NEXT:    # kill: def $esi killed $esi def $rsi
128 ; X64-NEXT:    subl %edi, %esi
129 ; X64-NEXT:    shrl $3, %esi
130 ; X64-NEXT:    leaq (%rdx,%rsi,4), %rax
131 ; X64-NEXT:    retq
132   %sub = sub i32 %b, %a
133   %shr = lshr exact i32 %sub, 3
134   %gep = getelementptr inbounds i32, i32* %x, i32 %shr
135   ret i32* %gep
138 define i32* @test_exact6(i32 %a, i32 %b, i32* %x)  {
139 ; X32-LABEL: test_exact6:
140 ; X32:       # %bb.0:
141 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
142 ; X32-NEXT:    subl {{[0-9]+}}(%esp), %eax
143 ; X32-NEXT:    addl {{[0-9]+}}(%esp), %eax
144 ; X32-NEXT:    retl
146 ; X64-LABEL: test_exact6:
147 ; X64:       # %bb.0:
148 ; X64-NEXT:    # kill: def $esi killed $esi def $rsi
149 ; X64-NEXT:    subl %edi, %esi
150 ; X64-NEXT:    leaq (%rsi,%rdx), %rax
151 ; X64-NEXT:    retq
152   %sub = sub i32 %b, %a
153   %shr = lshr exact i32 %sub, 2
154   %gep = getelementptr inbounds i32, i32* %x, i32 %shr
155   ret i32* %gep
158 ; PR42644 - https://bugs.llvm.org/show_bug.cgi?id=42644
160 define i64 @ashr_add_shl_i32(i64 %r) nounwind {
161 ; X32-LABEL: ashr_add_shl_i32:
162 ; X32:       # %bb.0:
163 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
164 ; X32-NEXT:    incl %eax
165 ; X32-NEXT:    movl %eax, %edx
166 ; X32-NEXT:    sarl $31, %edx
167 ; X32-NEXT:    retl
169 ; X64-LABEL: ashr_add_shl_i32:
170 ; X64:       # %bb.0:
171 ; X64-NEXT:    incl %edi
172 ; X64-NEXT:    movslq %edi, %rax
173 ; X64-NEXT:    retq
174   %conv = shl i64 %r, 32
175   %sext = add i64 %conv, 4294967296
176   %conv1 = ashr i64 %sext, 32
177   ret i64 %conv1
180 define i64 @ashr_add_shl_i8(i64 %r) nounwind {
181 ; X32-LABEL: ashr_add_shl_i8:
182 ; X32:       # %bb.0:
183 ; X32-NEXT:    movb {{[0-9]+}}(%esp), %al
184 ; X32-NEXT:    addb $2, %al
185 ; X32-NEXT:    movsbl %al, %eax
186 ; X32-NEXT:    movl %eax, %edx
187 ; X32-NEXT:    sarl $31, %edx
188 ; X32-NEXT:    retl
190 ; X64-LABEL: ashr_add_shl_i8:
191 ; X64:       # %bb.0:
192 ; X64-NEXT:    addb $2, %dil
193 ; X64-NEXT:    movsbq %dil, %rax
194 ; X64-NEXT:    retq
195   %conv = shl i64 %r, 56
196   %sext = add i64 %conv, 144115188075855872
197   %conv1 = ashr i64 %sext, 56
198   ret i64 %conv1
201 define <4 x i32> @ashr_add_shl_v4i8(<4 x i32> %r) nounwind {
202 ; X32-LABEL: ashr_add_shl_v4i8:
203 ; X32:       # %bb.0:
204 ; X32-NEXT:    pushl %edi
205 ; X32-NEXT:    pushl %esi
206 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
207 ; X32-NEXT:    movb {{[0-9]+}}(%esp), %cl
208 ; X32-NEXT:    movb {{[0-9]+}}(%esp), %dl
209 ; X32-NEXT:    movb {{[0-9]+}}(%esp), %ch
210 ; X32-NEXT:    movb {{[0-9]+}}(%esp), %dh
211 ; X32-NEXT:    incb %dh
212 ; X32-NEXT:    movsbl %dh, %esi
213 ; X32-NEXT:    incb %ch
214 ; X32-NEXT:    movsbl %ch, %edi
215 ; X32-NEXT:    incb %dl
216 ; X32-NEXT:    movsbl %dl, %edx
217 ; X32-NEXT:    incb %cl
218 ; X32-NEXT:    movsbl %cl, %ecx
219 ; X32-NEXT:    movl %ecx, 12(%eax)
220 ; X32-NEXT:    movl %edx, 8(%eax)
221 ; X32-NEXT:    movl %edi, 4(%eax)
222 ; X32-NEXT:    movl %esi, (%eax)
223 ; X32-NEXT:    popl %esi
224 ; X32-NEXT:    popl %edi
225 ; X32-NEXT:    retl $4
227 ; X64-LABEL: ashr_add_shl_v4i8:
228 ; X64:       # %bb.0:
229 ; X64-NEXT:    pand {{.*}}(%rip), %xmm0
230 ; X64-NEXT:    packuswb %xmm0, %xmm0
231 ; X64-NEXT:    packuswb %xmm0, %xmm0
232 ; X64-NEXT:    pcmpeqd %xmm1, %xmm1
233 ; X64-NEXT:    psubb %xmm1, %xmm0
234 ; X64-NEXT:    punpcklbw {{.*#+}} xmm0 = xmm0[0,0,1,1,2,2,3,3,4,4,5,5,6,6,7,7]
235 ; X64-NEXT:    punpcklwd {{.*#+}} xmm0 = xmm0[0,0,1,1,2,2,3,3]
236 ; X64-NEXT:    psrad $24, %xmm0
237 ; X64-NEXT:    retq
238   %conv = shl <4 x i32> %r, <i32 24, i32 24, i32 24, i32 24>
239   %sext = add <4 x i32> %conv, <i32 16777216, i32 16777216, i32 16777216, i32 16777216>
240   %conv1 = ashr <4 x i32> %sext, <i32 24, i32 24, i32 24, i32 24>
241   ret <4 x i32> %conv1
244 define i64 @ashr_add_shl_i36(i64 %r) nounwind {
245 ; X32-LABEL: ashr_add_shl_i36:
246 ; X32:       # %bb.0:
247 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %edx
248 ; X32-NEXT:    shll $4, %edx
249 ; X32-NEXT:    movl %edx, %eax
250 ; X32-NEXT:    sarl $4, %eax
251 ; X32-NEXT:    sarl $31, %edx
252 ; X32-NEXT:    retl
254 ; X64-LABEL: ashr_add_shl_i36:
255 ; X64:       # %bb.0:
256 ; X64-NEXT:    movq %rdi, %rax
257 ; X64-NEXT:    shlq $36, %rax
258 ; X64-NEXT:    sarq $36, %rax
259 ; X64-NEXT:    retq
260   %conv = shl i64 %r, 36
261   %sext = add i64 %conv, 4294967296
262   %conv1 = ashr i64 %sext, 36
263   ret i64 %conv1
266 define i64 @ashr_add_shl_mismatch_shifts1(i64 %r) nounwind {
267 ; X32-LABEL: ashr_add_shl_mismatch_shifts1:
268 ; X32:       # %bb.0:
269 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
270 ; X32-NEXT:    incl %eax
271 ; X32-NEXT:    movl %eax, %edx
272 ; X32-NEXT:    sarl $31, %edx
273 ; X32-NEXT:    retl
275 ; X64-LABEL: ashr_add_shl_mismatch_shifts1:
276 ; X64:       # %bb.0:
277 ; X64-NEXT:    shlq $8, %rdi
278 ; X64-NEXT:    movabsq $4294967296, %rax # imm = 0x100000000
279 ; X64-NEXT:    addq %rdi, %rax
280 ; X64-NEXT:    sarq $32, %rax
281 ; X64-NEXT:    retq
282   %conv = shl i64 %r, 8
283   %sext = add i64 %conv, 4294967296
284   %conv1 = ashr i64 %sext, 32
285   ret i64 %conv1
288 define i64 @ashr_add_shl_mismatch_shifts2(i64 %r) nounwind {
289 ; X32-LABEL: ashr_add_shl_mismatch_shifts2:
290 ; X32:       # %bb.0:
291 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
292 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %edx
293 ; X32-NEXT:    shrdl $8, %edx, %eax
294 ; X32-NEXT:    shrl $8, %edx
295 ; X32-NEXT:    incl %edx
296 ; X32-NEXT:    shrdl $8, %edx, %eax
297 ; X32-NEXT:    shrl $8, %edx
298 ; X32-NEXT:    retl
300 ; X64-LABEL: ashr_add_shl_mismatch_shifts2:
301 ; X64:       # %bb.0:
302 ; X64-NEXT:    shrq $8, %rdi
303 ; X64-NEXT:    movabsq $4294967296, %rax # imm = 0x100000000
304 ; X64-NEXT:    addq %rdi, %rax
305 ; X64-NEXT:    shrq $8, %rax
306 ; X64-NEXT:    retq
307   %conv = lshr i64 %r, 8
308   %sext = add i64 %conv, 4294967296
309   %conv1 = ashr i64 %sext, 8
310   ret i64 %conv1
313 define i32 @ashr_add_shl_i32_i8_extra_use1(i32 %r, i32* %p) nounwind {
314 ; X32-LABEL: ashr_add_shl_i32_i8_extra_use1:
315 ; X32:       # %bb.0:
316 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %ecx
317 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
318 ; X32-NEXT:    shll $24, %eax
319 ; X32-NEXT:    addl $33554432, %eax # imm = 0x2000000
320 ; X32-NEXT:    movl %eax, (%ecx)
321 ; X32-NEXT:    sarl $24, %eax
322 ; X32-NEXT:    retl
324 ; X64-LABEL: ashr_add_shl_i32_i8_extra_use1:
325 ; X64:       # %bb.0:
326 ; X64-NEXT:    movl %edi, %eax
327 ; X64-NEXT:    shll $24, %eax
328 ; X64-NEXT:    addl $33554432, %eax # imm = 0x2000000
329 ; X64-NEXT:    movl %eax, (%rsi)
330 ; X64-NEXT:    sarl $24, %eax
331 ; X64-NEXT:    retq
332   %conv = shl i32 %r, 24
333   %sext = add i32 %conv, 33554432
334   store i32 %sext, i32* %p
335   %conv1 = ashr i32 %sext, 24
336   ret i32 %conv1
339 define i32 @ashr_add_shl_i32_i8_extra_use2(i32 %r, i32* %p) nounwind {
340 ; X32-LABEL: ashr_add_shl_i32_i8_extra_use2:
341 ; X32:       # %bb.0:
342 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %ecx
343 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
344 ; X32-NEXT:    shll $24, %eax
345 ; X32-NEXT:    movl %eax, (%ecx)
346 ; X32-NEXT:    addl $33554432, %eax # imm = 0x2000000
347 ; X32-NEXT:    sarl $24, %eax
348 ; X32-NEXT:    retl
350 ; X64-LABEL: ashr_add_shl_i32_i8_extra_use2:
351 ; X64:       # %bb.0:
352 ; X64-NEXT:    # kill: def $edi killed $edi def $rdi
353 ; X64-NEXT:    shll $24, %edi
354 ; X64-NEXT:    movl %edi, (%rsi)
355 ; X64-NEXT:    leal 33554432(%rdi), %eax
356 ; X64-NEXT:    sarl $24, %eax
357 ; X64-NEXT:    retq
358   %conv = shl i32 %r, 24
359   store i32 %conv, i32* %p
360   %sext = add i32 %conv, 33554432
361   %conv1 = ashr i32 %sext, 24
362   ret i32 %conv1
365 define i32 @ashr_add_shl_i32_i8_extra_use3(i32 %r, i32* %p1, i32* %p2) nounwind {
366 ; X32-LABEL: ashr_add_shl_i32_i8_extra_use3:
367 ; X32:       # %bb.0:
368 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %ecx
369 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %edx
370 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
371 ; X32-NEXT:    shll $24, %eax
372 ; X32-NEXT:    movl %eax, (%edx)
373 ; X32-NEXT:    addl $33554432, %eax # imm = 0x2000000
374 ; X32-NEXT:    movl %eax, (%ecx)
375 ; X32-NEXT:    sarl $24, %eax
376 ; X32-NEXT:    retl
378 ; X64-LABEL: ashr_add_shl_i32_i8_extra_use3:
379 ; X64:       # %bb.0:
380 ; X64-NEXT:    movl %edi, %eax
381 ; X64-NEXT:    shll $24, %eax
382 ; X64-NEXT:    movl %eax, (%rsi)
383 ; X64-NEXT:    addl $33554432, %eax # imm = 0x2000000
384 ; X64-NEXT:    movl %eax, (%rdx)
385 ; X64-NEXT:    sarl $24, %eax
386 ; X64-NEXT:    retq
387   %conv = shl i32 %r, 24
388   store i32 %conv, i32* %p1
389   %sext = add i32 %conv, 33554432
390   store i32 %sext, i32* %p2
391   %conv1 = ashr i32 %sext, 24
392   ret i32 %conv1
395 %"class.QPainterPath" = type { double, double, i32 }
397 define void @PR42880(i32 %t0) {
398 ; X32-LABEL: PR42880:
399 ; X32:       # %bb.0:
400 ; X32-NEXT:    xorl %eax, %eax
401 ; X32-NEXT:    testb %al, %al
402 ; X32-NEXT:    je .LBB16_1
403 ; X32-NEXT:  # %bb.2: # %if
404 ; X32-NEXT:  .LBB16_1: # %then
406 ; X64-LABEL: PR42880:
407 ; X64:       # %bb.0:
408 ; X64-NEXT:    xorl %eax, %eax
409 ; X64-NEXT:    testb %al, %al
410 ; X64-NEXT:    je .LBB16_1
411 ; X64-NEXT:  # %bb.2: # %if
412 ; X64-NEXT:  .LBB16_1: # %then
413   %sub = add nsw i32 %t0, -1
414   %add.ptr.i94 = getelementptr inbounds %"class.QPainterPath", %"class.QPainterPath"* null, i32 %sub
415   %x = ptrtoint %"class.QPainterPath"* %add.ptr.i94 to i32
416   %sub2 = sub i32 %x, 0
417   %div = sdiv exact i32 %sub2, 24
418   br i1 undef, label %if, label %then
420 then:
421   %t1 = xor i32 %div, -1
422   unreachable
425   unreachable