Fixed some bugs in register stack pass.
[llvm/zpu.git] / test / CodeGen / X86 / stack-align.ll
blob8ca0b12b547f8041a5c06ca2662a34bec28f8ca4
1 ; RUN: llc < %s -relocation-model=static -realign-stack=1 -mcpu=yonah | FileCheck %s
3 ; The double argument is at 4(esp) which is 16-byte aligned, allowing us to
4 ; fold the load into the andpd.
6 target datalayout = "e-p:32:32:32-i1:8:8-i8:8:8-i16:16:16-i32:32:32-i64:32:64-f32:32:32-f64:32:64-v64:64:64-v128:128:128-a0:0:64-f80:128:128"
7 target triple = "i686-apple-darwin8"
8 @G = external global double
10 define void @test({ double, double }* byval  %z, double* %P) {
11 entry:
12         %tmp3 = load double* @G, align 16               ; <double> [#uses=1]
13         %tmp4 = tail call double @fabs( double %tmp3 )          ; <double> [#uses=1]
14         volatile store double %tmp4, double* %P
15         %tmp = getelementptr { double, double }* %z, i32 0, i32 0               ; <double*> [#uses=1]
16         %tmp1 = volatile load double* %tmp, align 8             ; <double> [#uses=1]
17         %tmp2 = tail call double @fabs( double %tmp1 )          ; <double> [#uses=1]
18     ; CHECK: andpd{{.*}}4(%esp), %xmm
19         %tmp6 = fadd double %tmp4, %tmp2                ; <double> [#uses=1]
20         volatile store double %tmp6, double* %P, align 8
21         ret void
24 define void @test2() alignstack(16) {
25 entry:
26     ; CHECK: andl{{.*}}$-16, %esp
27     ret void
30 ; Use a call to force a spill.
31 define <2 x double> @test3(<2 x double> %x, <2 x double> %y) alignstack(32) {
32 entry:
33     ; CHECK: andl{{.*}}$-32, %esp
34     call void @test2()
35     %A = fmul <2 x double> %x, %y
36     ret <2 x double> %A
39 declare double @fabs(double)