Use Align for TFL::TransientStackAlignment
[llvm-core.git] / test / CodeGen / X86 / mmx-arg-passing-x86-64.ll
blob85fa9bb2a8f8bd0f710204c0da7bf193df5fe099
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc < %s -mtriple=x86_64-apple-darwin -mattr=+mmx,+sse2 | FileCheck %s --check-prefix=X86-64
4 ; On Darwin x86-64, v8i8, v4i16, v2i32 values are passed in XMM[0-7].
5 ; On Darwin x86-64, v1i64 values are passed in 64-bit GPRs.
7 @g_v8qi = external global <8 x i8>
9 define void @t3() nounwind  {
10 ; X86-64-LABEL: t3:
11 ; X86-64:       ## %bb.0:
12 ; X86-64-NEXT:    movq _g_v8qi@{{.*}}(%rip), %rax
13 ; X86-64-NEXT:    movsd {{.*#+}} xmm0 = mem[0],zero
14 ; X86-64-NEXT:    movb $1, %al
15 ; X86-64-NEXT:    jmp _pass_v8qi ## TAILCALL
16   %tmp3 = load <8 x i8>, <8 x i8>* @g_v8qi, align 8
17   %tmp3a = bitcast <8 x i8> %tmp3 to x86_mmx
18   %tmp4 = tail call i32 (...) @pass_v8qi( x86_mmx %tmp3a ) nounwind
19   ret void
22 define void @t4(x86_mmx %v1, x86_mmx %v2) nounwind  {
23 ; X86-64-LABEL: t4:
24 ; X86-64:       ## %bb.0:
25 ; X86-64-NEXT:    movdq2q %xmm1, %mm0
26 ; X86-64-NEXT:    movdq2q %xmm0, %mm1
27 ; X86-64-NEXT:    movq2dq %mm1, %xmm1
28 ; X86-64-NEXT:    movq2dq %mm0, %xmm0
29 ; X86-64-NEXT:    paddb %xmm1, %xmm0
30 ; X86-64-NEXT:    movb $1, %al
31 ; X86-64-NEXT:    jmp _pass_v8qi ## TAILCALL
32   %v1a = bitcast x86_mmx %v1 to <8 x i8>
33   %v2b = bitcast x86_mmx %v2 to <8 x i8>
34   %tmp3 = add <8 x i8> %v1a, %v2b
35   %tmp3a = bitcast <8 x i8> %tmp3 to x86_mmx
36   %tmp4 = tail call i32 (...) @pass_v8qi( x86_mmx %tmp3a ) nounwind
37   ret void
40 define void @t5() nounwind  {
41 ; X86-64-LABEL: t5:
42 ; X86-64:       ## %bb.0:
43 ; X86-64-NEXT:    pushq %rax
44 ; X86-64-NEXT:    xorl %edi, %edi
45 ; X86-64-NEXT:    callq _pass_v1di
46 ; X86-64-NEXT:    popq %rax
47 ; X86-64-NEXT:    retq
48   call void @pass_v1di( <1 x i64> zeroinitializer )
49   ret void
52 declare i32 @pass_v8qi(...)
53 declare void @pass_v1di(<1 x i64>)