Use Align for TFL::TransientStackAlignment
[llvm-core.git] / test / CodeGen / BPF / intrinsics.ll
blob0712daa601b7e7099bad409bcd92e5c714118665
1 ; RUN: llc < %s -march=bpfel -show-mc-encoding | FileCheck --check-prefix=CHECK-EL %s
2 ; RUN: llc < %s -march=bpfeb -show-mc-encoding | FileCheck --check-prefix=CHECK-EB %s
4 ; Function Attrs: nounwind uwtable
5 define i32 @ld_b(i64 %foo, i64* nocapture %bar, i8* %ctx, i8* %ctx2) #0 {
6   %1 = tail call i64 @llvm.bpf.load.byte(i8* %ctx, i64 123) #2
7   %2 = add i64 %1, %foo
8   %3 = load volatile i64, i64* %bar, align 8
9   %4 = add i64 %2, %3
10   %5 = tail call i64 @llvm.bpf.load.byte(i8* %ctx2, i64 %foo) #2
11   %6 = add i64 %4, %5
12   %7 = load volatile i64, i64* %bar, align 8
13   %8 = add i64 %6, %7
14   %9 = trunc i64 %8 to i32
15   ret i32 %9
16 ; CHECK-LABEL: ld_b:
17 ; CHECK-EL: r0 = *(u8 *)skb[123]
18 ; CHECK-EL: r0 = *(u8 *)skb[r
19 ; CHECK-EB: r0 = *(u8 *)skb[123]
20 ; CHECK-EB: r0 = *(u8 *)skb[r
23 declare i64 @llvm.bpf.load.byte(i8*, i64) #1
25 ; Function Attrs: nounwind uwtable
26 define i32 @ld_h(i8* %ctx, i8* %ctx2, i32 %foo) #0 {
27   %1 = tail call i64 @llvm.bpf.load.half(i8* %ctx, i64 123) #2
28   %2 = sext i32 %foo to i64
29   %3 = tail call i64 @llvm.bpf.load.half(i8* %ctx2, i64 %2) #2
30   %4 = add i64 %3, %1
31   %5 = trunc i64 %4 to i32
32   ret i32 %5
33 ; CHECK-LABEL: ld_h:
34 ; CHECK-EL: r0 = *(u16 *)skb[r
35 ; CHECK-EL: r0 = *(u16 *)skb[123]
36 ; CHECK-EB: r0 = *(u16 *)skb[r
37 ; CHECK-EB: r0 = *(u16 *)skb[123]
40 declare i64 @llvm.bpf.load.half(i8*, i64) #1
42 ; Function Attrs: nounwind uwtable
43 define i32 @ld_w(i8* %ctx, i8* %ctx2, i32 %foo) #0 {
44   %1 = tail call i64 @llvm.bpf.load.word(i8* %ctx, i64 123) #2
45   %2 = sext i32 %foo to i64
46   %3 = tail call i64 @llvm.bpf.load.word(i8* %ctx2, i64 %2) #2
47   %4 = add i64 %3, %1
48   %5 = trunc i64 %4 to i32
49   ret i32 %5
50 ; CHECK-LABEL: ld_w:
51 ; CHECK-EL: r0 = *(u32 *)skb[r
52 ; CHECK-EL: r0 = *(u32 *)skb[123]
53 ; CHECK-EB: r0 = *(u32 *)skb[r
54 ; CHECK-EB: r0 = *(u32 *)skb[123]
57 declare i64 @llvm.bpf.load.word(i8*, i64) #1
59 define i32 @ld_pseudo() #0 {
60 entry:
61   %call = tail call i64 @llvm.bpf.pseudo(i64 2, i64 3)
62   tail call void inttoptr (i64 4 to void (i64, i32)*)(i64 %call, i32 4) #2
63   ret i32 0
64 ; CHECK-LABEL: ld_pseudo:
65 ; CHECK-EL: ld_pseudo r1, 2, 3 # encoding: [0x18,0x21,0x00,0x00,0x03,0x00,0x00,0x00
66 ; CHECK-EB: ld_pseudo r1, 2, 3 # encoding: [0x18,0x12,0x00,0x00,0x00,0x00,0x00,0x03
69 declare i64 @llvm.bpf.pseudo(i64, i64) #2
71 define i32 @bswap(i64 %a, i64 %b, i64 %c) #0 {
72 entry:
73   %0 = tail call i64 @llvm.bswap.i64(i64 %a)
74   %conv = trunc i64 %b to i32
75   %1 = tail call i32 @llvm.bswap.i32(i32 %conv)
76   %conv1 = zext i32 %1 to i64
77   %add = add i64 %conv1, %0
78   %conv2 = trunc i64 %c to i16
79   %2 = tail call i16 @llvm.bswap.i16(i16 %conv2)
80   %conv3 = zext i16 %2 to i64
81   %add4 = add i64 %add, %conv3
82   %conv5 = trunc i64 %add4 to i32
83   ret i32 %conv5
84 ; CHECK-LABEL: bswap:
85 ; CHECK-EL: r1 = be64 r1     # encoding: [0xdc,0x01,0x00,0x00,0x40,0x00,0x00,0x00]
86 ; CHECK-EL: r0 = be32 r0     # encoding: [0xdc,0x00,0x00,0x00,0x20,0x00,0x00,0x00]
87 ; CHECK-EL: r0 += r1 # encoding: [0x0f,0x10,0x00,0x00,0x00,0x00,0x00,0x00]
88 ; CHECK-EL: r3 = be16 r3     # encoding: [0xdc,0x03,0x00,0x00,0x10,0x00,0x00,0x00]
89 ; CHECK-EL: r0 += r3 # encoding: [0x0f,0x30,0x00,0x00,0x00,0x00,0x00,0x00]
90 ; CHECK-EB: r1 = le64 r1     # encoding: [0xd4,0x10,0x00,0x00,0x00,0x00,0x00,0x40]
91 ; CHECK-EB: r0 = le32 r0     # encoding: [0xd4,0x00,0x00,0x00,0x00,0x00,0x00,0x20]
92 ; CHECK-EB: r0 += r1 # encoding: [0x0f,0x01,0x00,0x00,0x00,0x00,0x00,0x00]
93 ; CHECK-EB: r3 = le16 r3     # encoding: [0xd4,0x30,0x00,0x00,0x00,0x00,0x00,0x10]
94 ; CHECK-EB: r0 += r3 # encoding: [0x0f,0x03,0x00,0x00,0x00,0x00,0x00,0x00]
97 declare i64 @llvm.bswap.i64(i64) #1
98 declare i32 @llvm.bswap.i32(i32) #1
99 declare i16 @llvm.bswap.i16(i16) #1