Fixed some bugs.
[llvm/zpu.git] / test / CodeGen / X86 / shl-anyext.ll
blob10d489b9a8a639fba4f514a07a3378ff5177ffc6
1 ; RUN: llc -march=x86-64 < %s | FileCheck %s
3 ; Codegen should be able to use a 32-bit shift instead of a 64-bit shift.
4 ; CHECK: shll $16
6 define fastcc void @test(i32 %level, i64 %a, i64 %b, i64 %c, i64 %d, i32* %p) nounwind {
7 if.end523:                                        ; preds = %if.end453
8   %conv7981749 = zext i32 %level to i64           ; <i64> [#uses=1]
9   %and799 = shl i64 %conv7981749, 16              ; <i64> [#uses=1]
10   %shl800 = and i64 %and799, 16711680             ; <i64> [#uses=1]
11   %or801 = or i64 %shl800, %a                     ; <i64> [#uses=1]
12   %or806 = or i64 %or801, %b                      ; <i64> [#uses=1]
13   %or811 = or i64 %or806, %c                      ; <i64> [#uses=1]
14   %or819 = or i64 %or811, %d                      ; <i64> [#uses=1]
15   %conv820 = trunc i64 %or819 to i32              ; <i32> [#uses=1]
16   store i32 %conv820, i32* %p
17   ret void
20 ; CHECK: foo:
22 declare void @bar(i64)
24 define fastcc void @foo(i32 %t) {
25 bb:
26   %tmp = add i32 %t, -1                           ; <i32> [#uses=1]
27   br label %bb1
29 bb1:                                              ; preds = %bb
30   %tmp2 = zext i32 %tmp to i64                    ; <i64> [#uses=2]
31   %tmp3 = add i64 %tmp2, 1                        ; <i64> [#uses=1]
32   %tmp4 = xor i64 %tmp2, 536870911                ; <i64> [#uses=1]
33   %tmp5 = and i64 %tmp3, %tmp4                    ; <i64> [#uses=1]
34   %tmp6 = shl i64 %tmp5, 3                        ; <i64> [#uses=1]
35   %tmp7 = sub i64 64, %tmp6                       ; <i64> [#uses=1]
36   %tmp8 = and i64 %tmp7, 4294967288               ; <i64> [#uses=1]
37   %tmp9 = lshr i64 -1, %tmp8                      ; <i64> [#uses=1]
38   call void @bar(i64 %tmp9)
39   ret void