Fixed some bugs.
[llvm/zpu.git] / test / CodeGen / X86 / small-byval-memcpy.ll
blob1b596b589899917c47cb94e9f3b2a390bb59c96c
1 ; RUN: llc < %s -mtriple=i386-apple-darwin -mcpu=core2   | grep movsd  | count 8
2 ; RUN: llc < %s -mtriple=i386-apple-darwin -mcpu=nehalem | grep movups | count 2
4 define void @ccosl({ x86_fp80, x86_fp80 }* noalias sret  %agg.result, { x86_fp80, x86_fp80 }* byval align 4  %z) nounwind  {
5 entry:
6         %iz = alloca { x86_fp80, x86_fp80 }             ; <{ x86_fp80, x86_fp80 }*> [#uses=3]
7         %tmp1 = getelementptr { x86_fp80, x86_fp80 }* %z, i32 0, i32 1          ; <x86_fp80*> [#uses=1]
8         %tmp2 = load x86_fp80* %tmp1, align 16          ; <x86_fp80> [#uses=1]
9         %tmp3 = fsub x86_fp80 0xK80000000000000000000, %tmp2            ; <x86_fp80> [#uses=1]
10         %tmp4 = getelementptr { x86_fp80, x86_fp80 }* %iz, i32 0, i32 1         ; <x86_fp80*> [#uses=1]
11         %real = getelementptr { x86_fp80, x86_fp80 }* %iz, i32 0, i32 0         ; <x86_fp80*> [#uses=1]
12         %tmp6 = getelementptr { x86_fp80, x86_fp80 }* %z, i32 0, i32 0          ; <x86_fp80*> [#uses=1]
13         %tmp7 = load x86_fp80* %tmp6, align 16          ; <x86_fp80> [#uses=1]
14         store x86_fp80 %tmp3, x86_fp80* %real, align 16
15         store x86_fp80 %tmp7, x86_fp80* %tmp4, align 16
16         call void @ccoshl( { x86_fp80, x86_fp80 }* noalias sret  %agg.result, { x86_fp80, x86_fp80 }* byval align 4  %iz ) nounwind 
17         ret void
20 declare void @ccoshl({ x86_fp80, x86_fp80 }* noalias sret , { x86_fp80, x86_fp80 }* byval align 4 ) nounwind