[ORC] Add std::tuple support to SimplePackedSerialization.
[llvm-project.git] / llvm / test / CodeGen / PowerPC / aix64-vector-vararg-callee.ll
blobb0181c2e7bd7d01eee351707650ab9b0222a357f
1 ; NOTE: Assertions have been autogenerated by utils/update_mir_test_checks.py
2 ; RUN: llc -verify-machineinstrs -stop-before=ppc-vsx-copy -vec-extabi \
3 ; RUN:     -mcpu=pwr7  -mtriple powerpc64-ibm-aix-xcoff < %s | \
4 ; RUN: FileCheck %s
6 ; Testing passing a vector <4 x i32> through ellipses of a variadic function.
7 define <4 x i32> @callee(i32 signext %count, ...) {
8   ; CHECK-LABEL: name: callee
9   ; CHECK: bb.0.entry:
10   ; CHECK:   liveins: $x4, $x5, $x6, $x7, $x8, $x9, $x10
11   ; CHECK:   [[COPY:%[0-9]+]]:g8rc = COPY $x10
12   ; CHECK:   [[COPY1:%[0-9]+]]:g8rc = COPY $x9
13   ; CHECK:   [[COPY2:%[0-9]+]]:g8rc = COPY $x8
14   ; CHECK:   [[COPY3:%[0-9]+]]:g8rc = COPY $x7
15   ; CHECK:   [[COPY4:%[0-9]+]]:g8rc = COPY $x6
16   ; CHECK:   [[COPY5:%[0-9]+]]:g8rc = COPY $x5
17   ; CHECK:   [[COPY6:%[0-9]+]]:g8rc = COPY $x4
18   ; CHECK:   STD [[COPY6]], 0, %fixed-stack.0 :: (store (s64) into %fixed-stack.0)
19   ; CHECK:   STD [[COPY5]], 8, %fixed-stack.0 :: (store (s64) into %fixed-stack.0 + 8)
20   ; CHECK:   STD [[COPY4]], 16, %fixed-stack.0 :: (store (s64))
21   ; CHECK:   STD [[COPY3]], 24, %fixed-stack.0 :: (store (s64))
22   ; CHECK:   STD [[COPY2]], 32, %fixed-stack.0 :: (store (s64))
23   ; CHECK:   STD [[COPY1]], 40, %fixed-stack.0 :: (store (s64))
24   ; CHECK:   STD [[COPY]], 48, %fixed-stack.0 :: (store (s64))
25   ; CHECK:   LIFETIME_START %stack.0.arg_list
26   ; CHECK:   [[ADDI8_:%[0-9]+]]:g8rc = ADDI8 %fixed-stack.0, 0
27   ; CHECK:   STD killed [[ADDI8_]], 0, %stack.0.arg_list :: (store (s64) into %ir.0)
28   ; CHECK:   [[ADDI8_1:%[0-9]+]]:g8rc = ADDI8 %fixed-stack.0, 15
29   ; CHECK:   [[RLDICR:%[0-9]+]]:g8rc = RLDICR killed [[ADDI8_1]], 0, 59
30   ; CHECK:   [[LXVW4X:%[0-9]+]]:vsrc = LXVW4X $zero8, killed [[RLDICR]] :: (load (s128) from %ir.4)
31   ; CHECK:   LIFETIME_END %stack.0.arg_list
32   ; CHECK:   $v2 = COPY [[LXVW4X]]
33   ; CHECK:   BLR8 implicit $lr8, implicit $rm, implicit $v2
34 entry:
35   %arg_list = alloca i8*, align 8
36   %0 = bitcast i8** %arg_list to i8*
37   call void @llvm.lifetime.start.p0i8(i64 8, i8* nonnull %0)
38   call void @llvm.va_start(i8* nonnull %0)
39   %argp.cur = load i8*, i8** %arg_list, align 8
40   %1 = ptrtoint i8* %argp.cur to i64
41   %2 = add i64 %1, 15
42   %3 = and i64 %2, -16
43   %argp.cur.aligned = inttoptr i64 %3 to i8*
44   %argp.next = getelementptr inbounds i8, i8* %argp.cur.aligned, i64 16
45   store i8* %argp.next, i8** %arg_list, align 8
46   %4 = inttoptr i64 %3 to <4 x i32>*
47   %5 = load <4 x i32>, <4 x i32>* %4, align 16
48   call void @llvm.va_end(i8* nonnull %0)
49   call void @llvm.lifetime.end.p0i8(i64 8, i8* nonnull %0)
50   ret <4 x i32> %5
53 declare void @llvm.lifetime.start.p0i8(i64 immarg, i8* nocapture)
55 declare void @llvm.va_start(i8*)
57 declare void @llvm.va_end(i8*)
59 declare void @llvm.lifetime.end.p0i8(i64 immarg, i8* nocapture)