Fixed some bugs in register stack pass.
[llvm/zpu.git] / test / CodeGen / X86 / ghc-cc64.ll
blobfcf7e1797ad8fda40805033d1610cd0e541221c8
1 ; RUN: llc < %s -tailcallopt -mtriple=x86_64-linux-gnu | FileCheck %s
3 ; Check the GHC call convention works (x86-64)
5 @base  = external global i64 ; assigned to register: R13
6 @sp    = external global i64 ; assigned to register: RBP
7 @hp    = external global i64 ; assigned to register: R12
8 @r1    = external global i64 ; assigned to register: RBX
9 @r2    = external global i64 ; assigned to register: R14
10 @r3    = external global i64 ; assigned to register: RSI
11 @r4    = external global i64 ; assigned to register: RDI
12 @r5    = external global i64 ; assigned to register: R8
13 @r6    = external global i64 ; assigned to register: R9
14 @splim = external global i64 ; assigned to register: R15
16 @f1 = external global float  ; assigned to register: XMM1
17 @f2 = external global float  ; assigned to register: XMM2
18 @f3 = external global float  ; assigned to register: XMM3
19 @f4 = external global float  ; assigned to register: XMM4
20 @d1 = external global double ; assigned to register: XMM5
21 @d2 = external global double ; assigned to register: XMM6
23 define void @zap(i64 %a, i64 %b) nounwind {
24 entry:
25   ; CHECK:      movq %rdi, %r13
26   ; CHECK-NEXT: movq %rsi, %rbp
27   ; CHECK-NEXT: callq addtwo
28   %0 = call cc 10 i64 @addtwo(i64 %a, i64 %b)
29   ; CHECK:      callq foo
30   call void @foo() nounwind
31   ret void
34 define cc 10 i64 @addtwo(i64 %x, i64 %y) nounwind {
35 entry:
36   ; CHECK:      leaq (%r13,%rbp), %rax
37   %0 = add i64 %x, %y
38   ; CHECK-NEXT: ret
39   ret i64 %0
42 define cc 10 void @foo() nounwind {
43 entry:
44   ; CHECK: movq base(%rip), %r13
45   ; CHECK-NEXT: movq sp(%rip), %rbp
46   ; CHECK-NEXT: movq hp(%rip), %r12
47   ; CHECK-NEXT: movq r1(%rip), %rbx
48   ; CHECK-NEXT: movq r2(%rip), %r14
49   ; CHECK-NEXT: movq r3(%rip), %rsi
50   ; CHECK-NEXT: movq r4(%rip), %rdi
51   ; CHECK-NEXT: movq r5(%rip), %r8
52   ; CHECK-NEXT: movq r6(%rip), %r9
53   ; CHECK-NEXT: movq splim(%rip), %r15
54   ; CHECK-NEXT: movss f1(%rip), %xmm1
55   ; CHECK-NEXT: movss f2(%rip), %xmm2
56   ; CHECK-NEXT: movss f3(%rip), %xmm3
57   ; CHECK-NEXT: movss f4(%rip), %xmm4
58   ; CHECK-NEXT: movsd d1(%rip), %xmm5
59   ; CHECK-NEXT: movsd d2(%rip), %xmm6
60   %0 = load double* @d2
61   %1 = load double* @d1
62   %2 = load float* @f4
63   %3 = load float* @f3
64   %4 = load float* @f2
65   %5 = load float* @f1
66   %6 = load i64* @splim
67   %7 = load i64* @r6
68   %8 = load i64* @r5
69   %9 = load i64* @r4
70   %10 = load i64* @r3
71   %11 = load i64* @r2
72   %12 = load i64* @r1
73   %13 = load i64* @hp
74   %14 = load i64* @sp
75   %15 = load i64* @base
76   ; CHECK: jmp bar
77   tail call cc 10 void @bar( i64 %15, i64 %14, i64 %13, i64 %12, i64 %11,
78                              i64 %10, i64 %9, i64 %8, i64 %7, i64 %6,
79                              float %5, float %4, float %3, float %2, double %1,
80                              double %0 ) nounwind
81   ret void
84 declare cc 10 void @bar(i64, i64, i64, i64, i64, i64, i64, i64, i64, i64,
85                         float, float, float, float, double, double)