Run DCE after a LoopFlatten test to reduce spurious output [nfc]
[llvm-project.git] / llvm / test / CodeGen / X86 / win64_vararg.ll
blobc178b4b93afff47660fba91ee0e47a78435b184b
1 ; RUN: llc < %s -mcpu=generic -mtriple=x86_64-pc-win32 | FileCheck %s
3 ; Verify that the var arg parameters which are passed in registers are stored
4 ; in home stack slots allocated by the caller and that AP is correctly
5 ; calculated.
6 define void @average_va(i32 %count, ...) nounwind {
7 entry:
8 ; CHECK: pushq
9 ; CHECK-DAG: movq   %r9, 40(%rsp)
10 ; CHECK-DAG: movq   %r8, 32(%rsp)
11 ; CHECK-DAG: movq   %rdx, 24(%rsp)
12 ; CHECK: leaq   24(%rsp), %rax
14   %ap = alloca ptr, align 8                       ; <ptr> [#uses=1]
15   call void @llvm.va_start(ptr %ap)
16   ret void
19 declare void @llvm.va_start(ptr) nounwind
20 declare void @llvm.va_copy(ptr, ptr) nounwind
22 ; CHECK-LABEL: f5:
23 ; CHECK: pushq
24 ; CHECK: leaq 56(%rsp),
25 define ptr @f5(i64 %a0, i64 %a1, i64 %a2, i64 %a3, i64 %a4, ...) nounwind {
26 entry:
27   %ap = alloca ptr, align 8
28   call void @llvm.va_start(ptr %ap)
29   ret ptr %ap
32 ; CHECK-LABEL: f4:
33 ; CHECK: pushq
34 ; CHECK: leaq 48(%rsp),
35 define ptr @f4(i64 %a0, i64 %a1, i64 %a2, i64 %a3, ...) nounwind {
36 entry:
37   %ap = alloca ptr, align 8
38   call void @llvm.va_start(ptr %ap)
39   ret ptr %ap
42 ; CHECK-LABEL: f3:
43 ; CHECK: pushq
44 ; CHECK: leaq 40(%rsp),
45 define ptr @f3(i64 %a0, i64 %a1, i64 %a2, ...) nounwind {
46 entry:
47   %ap = alloca ptr, align 8
48   call void @llvm.va_start(ptr %ap)
49   ret ptr %ap
52 ; WinX86_64 uses char* for va_list. Verify that the correct amount of bytes
53 ; are copied using va_copy.
55 ; CHECK-LABEL: copy1:
56 ; CHECK: subq $16
57 ; CHECK: leaq 32(%rsp), [[REG_copy1:%[a-z]+]]
58 ; CHECK: movq [[REG_copy1]], 8(%rsp)
59 ; CHECK: movq [[REG_copy1]], (%rsp)
60 ; CHECK: addq $16
61 ; CHECK: ret
62 define void @copy1(i64 %a0, ...) nounwind {
63 entry:
64   %ap = alloca ptr, align 8
65   %cp = alloca ptr, align 8
66   call void @llvm.va_start(ptr %ap)
67   call void @llvm.va_copy(ptr %cp, ptr %ap)
68   ret void
71 ; CHECK-LABEL: copy4:
72 ; CHECK: subq $16
73 ; CHECK: leaq 56(%rsp), [[REG_copy4:%[a-z]+]]
74 ; CHECK: movq [[REG_copy4]], 8(%rsp)
75 ; CHECK: movq [[REG_copy4]], (%rsp)
76 ; CHECK: addq $16
77 ; CHECK: ret
78 define void @copy4(i64 %a0, i64 %a1, i64 %a2, i64 %a3, ...) nounwind {
79 entry:
80   %ap = alloca ptr, align 8
81   %cp = alloca ptr, align 8
82   call void @llvm.va_start(ptr %ap)
83   call void @llvm.va_copy(ptr %cp, ptr %ap)
84   ret void
87 ; CHECK-LABEL: arg4:
88 ; CHECK: pushq
89 ; va_start (optimized away as overwritten by va_arg)
90 ; va_arg:
91 ; CHECK: leaq 52(%rsp), [[REG_arg4_2:%[a-z]+]]
92 ; CHECK: movq [[REG_arg4_2]], (%rsp)
93 ; CHECK: movl 48(%rsp), %eax
94 ; CHECK: popq
95 ; CHECK: ret
96 define i32 @arg4(i64 %a0, i64 %a1, i64 %a2, i64 %a3, ...) nounwind {
97 entry:
98   %ap = alloca ptr, align 8
99   call void @llvm.va_start(ptr %ap)
100   %tmp = va_arg ptr %ap, i32
101   ret i32 %tmp
104 define void @sret_arg(ptr sret(i32) %agg.result, ptr nocapture readnone %format, ...) {
105 entry:
106   %ap = alloca ptr
107   call void @llvm.va_start(ptr %ap)
108   %tmp = va_arg ptr %ap, i32
109   store i32 %tmp, ptr %agg.result
110   ret void
112 ; CHECK-LABEL: sret_arg:
113 ; CHECK: pushq
114 ; CHECK: movq %rcx, %rax
115 ; CHECK-DAG: movq %r9, 40(%rsp)
116 ; CHECK-DAG: movq %r8, 32(%rsp)
117 ; CHECK-DAG: leaq 36(%rsp), %[[sret:[^ ]*]]
118 ; CHECK-DAG: movl %r8d, (%rax)
119 ; CHECK-DAG: movq %[[sret]], (%rsp)
120 ; CHECK: popq
121 ; CHECK: retq