Run DCE after a LoopFlatten test to reduce spurious output [nfc]
[llvm-project.git] / clang / test / CodeGen / PowerPC / aix-vaargs.c
blob8b8417d315a504577e8b5b2b5138532d999abe2d
1 // REQUIRES: powerpc-registered-target
2 // REQUIRES: asserts
3 // RUN: %clang_cc1 -triple powerpc-unknown-aix -emit-llvm -o - %s | FileCheck %s --check-prefixes=CHECK,AIX32
4 // RUN: %clang_cc1 -triple powerpc64-unknown-aix -emit-llvm -o - %s | FileCheck %s --check-prefixes=CHECK,AIX64
6 struct x {
7 double b;
8 long a;
9 };
11 void testva (int n, ...) {
12 __builtin_va_list ap;
13 __builtin_va_start(ap, n);
14 struct x t = __builtin_va_arg(ap, struct x);
15 __builtin_va_list ap2;
16 __builtin_va_copy(ap2, ap);
17 int v = __builtin_va_arg(ap2, int);
18 __builtin_va_end(ap2);
19 __builtin_va_end(ap);
22 // AIX32: define void @testva(i32 noundef %n, ...)
23 // AIX64: define void @testva(i32 noundef signext %n, ...)
25 // CHECK-NEXT: entry:
26 // CHECK-NEXT: %n.addr = alloca i32, align 4
28 // AIX32-NEXT: %ap = alloca ptr, align 4
29 // AIX64-NEXT: %ap = alloca ptr, align 8
31 // CHECK-NEXT: %t = alloca %struct.x, align 8
33 // AIX32-NEXT: %ap2 = alloca ptr, align 4
34 // AIX64-NEXT: %ap2 = alloca ptr, align 8
36 // CHECK-NEXT: %v = alloca i32, align 4
37 // CHECK-NEXT: store i32 %n, ptr %n.addr, align 4
38 // CHECK-NEXT: call void @llvm.va_start(ptr %ap)
40 // AIX32-NEXT: %argp.cur = load ptr, ptr %ap, align 4
41 // AIX32-NEXT: %argp.next = getelementptr inbounds i8, ptr %argp.cur, i32 16
42 // AIX32-NEXT: store ptr %argp.next, ptr %ap, align 4
43 // AIX64-NEXT: %argp.cur = load ptr, ptr %ap, align 8
44 // AIX64-NEXT: %argp.next = getelementptr inbounds i8, ptr %argp.cur, i64 16
45 // AIX64-NEXT: store ptr %argp.next, ptr %ap, align 8
48 // AIX32-NEXT: call void @llvm.memcpy.p0.p0.i32(ptr align 8 %t, ptr align 4 %argp.cur, i32 16, i1 false)
49 // AIX64-NEXT: call void @llvm.memcpy.p0.p0.i64(ptr align 8 %t, ptr align 8 %argp.cur, i64 16, i1 false)
51 // CHECK-NEXT: call void @llvm.va_copy(ptr %ap2, ptr %ap)
53 // AIX32-NEXT: %argp.cur1 = load ptr, ptr %ap2, align 4
54 // AIX32-NEXT: %argp.next2 = getelementptr inbounds i8, ptr %argp.cur1, i32 4
55 // AIX32-NEXT: store ptr %argp.next2, ptr %ap2, align 4
56 // AIX32-NEXT: %0 = load i32, ptr %argp.cur1, align 4
57 // AIX32-NEXT: store i32 %0, ptr %v, align 4
58 // AIX64-NEXT: %argp.cur1 = load ptr, ptr %ap2, align 8
59 // AIX64-NEXT: %argp.next2 = getelementptr inbounds i8, ptr %argp.cur1, i64 8
60 // AIX64-NEXT: store ptr %argp.next2, ptr %ap2, align 8
61 // AIX64-NEXT: %0 = getelementptr inbounds i8, ptr %argp.cur1, i64 4
62 // AIX64-NEXT: %1 = load i32, ptr %0, align 4
63 // AIX64-NEXT: store i32 %1, ptr %v, align 4
65 // CHECK-NEXT: call void @llvm.va_end(ptr %ap2)
66 // CHECK-NEXT: call void @llvm.va_end(ptr %ap)
67 // CHECK-NEXT: ret void
69 // CHECK: declare void @llvm.va_start(ptr)
71 // AIX32: declare void @llvm.memcpy.p0.p0.i32(ptr noalias nocapture writeonly, ptr noalias nocapture readonly, i32, i1 immarg)
72 // AIX64: declare void @llvm.memcpy.p0.p0.i64(ptr noalias nocapture writeonly, ptr noalias nocapture readonly, i64, i1 immarg)
74 // CHECK: declare void @llvm.va_copy(ptr, ptr)
75 // CHECK: declare void @llvm.va_end(ptr)