[ORC] Add std::tuple support to SimplePackedSerialization.
[llvm-project.git] / llvm / test / CodeGen / Thumb2 / mve-sext-masked-load.ll
blobbdf5fb2354ed273f05a061e89a6b5439e5f488ee
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc -mtriple=thumbv8.1m.main-none-none-eabi -mattr=+mve.fp,+fp64 -verify-machineinstrs -o - %s | FileCheck %s
4 define arm_aapcs_vfpcc <4 x float> @foo_v4i16(<4 x i16>* nocapture readonly %pSrc, i32 %blockSize, <4 x i16> %a) {
5 ; CHECK-LABEL: foo_v4i16:
6 ; CHECK:       @ %bb.0: @ %entry
7 ; CHECK-NEXT:    vmovlb.s16 q0, q0
8 ; CHECK-NEXT:    vpt.s32 lt, q0, zr
9 ; CHECK-NEXT:    vldrht.s32 q0, [r0]
10 ; CHECK-NEXT:    vcvt.f32.s32 q0, q0
11 ; CHECK-NEXT:    bx lr
12 entry:
13   %active.lane.mask = icmp slt <4 x i16> %a, zeroinitializer
14   %wide.masked.load = call <4 x i16> @llvm.masked.load.v4i16.p0v4i16(<4 x i16>* %pSrc, i32 2, <4 x i1> %active.lane.mask, <4 x i16> undef)
15   %0 = sitofp <4 x i16> %wide.masked.load to <4 x float>
16   ret <4 x float> %0
19 define arm_aapcs_vfpcc <8 x half> @foo_v8i8(<8 x i8>* nocapture readonly %pSrc, i32 %blockSize, <8 x i8> %a) {
20 ; CHECK-LABEL: foo_v8i8:
21 ; CHECK:       @ %bb.0: @ %entry
22 ; CHECK-NEXT:    vmovlb.s8 q0, q0
23 ; CHECK-NEXT:    vpt.s16 lt, q0, zr
24 ; CHECK-NEXT:    vldrbt.s16 q0, [r0]
25 ; CHECK-NEXT:    vcvt.f16.s16 q0, q0
26 ; CHECK-NEXT:    bx lr
27 entry:
28   %active.lane.mask = icmp slt <8 x i8> %a, zeroinitializer
29   %wide.masked.load = call <8 x i8> @llvm.masked.load.v8i8.p0v8i8(<8 x i8>* %pSrc, i32 1, <8 x i1> %active.lane.mask, <8 x i8> undef)
30   %0 = sitofp <8 x i8> %wide.masked.load to <8 x half>
31   ret <8 x half> %0
34 define arm_aapcs_vfpcc <4 x float> @foo_v4i8(<4 x i8>* nocapture readonly %pSrc, i32 %blockSize, <4 x i8> %a) {
35 ; CHECK-LABEL: foo_v4i8:
36 ; CHECK:       @ %bb.0: @ %entry
37 ; CHECK-NEXT:    vmovlb.s8 q0, q0
38 ; CHECK-NEXT:    vmovlb.s16 q0, q0
39 ; CHECK-NEXT:    vpt.s32 lt, q0, zr
40 ; CHECK-NEXT:    vldrbt.s32 q0, [r0]
41 ; CHECK-NEXT:    vcvt.f32.s32 q0, q0
42 ; CHECK-NEXT:    bx lr
43 entry:
44   %active.lane.mask = icmp slt <4 x i8> %a, zeroinitializer
45   %wide.masked.load = call <4 x i8> @llvm.masked.load.v4i8.p0v4i8(<4 x i8>* %pSrc, i32 1, <4 x i1> %active.lane.mask, <4 x i8> undef)
46   %0 = sitofp <4 x i8> %wide.masked.load to <4 x float>
47   ret <4 x float> %0
50 define arm_aapcs_vfpcc <4 x double> @foo_v4i32(<4 x i32>* nocapture readonly %pSrc, i32 %blockSize, <4 x i32> %a) {
51 ; CHECK-LABEL: foo_v4i32:
52 ; CHECK:       @ %bb.0: @ %entry
53 ; CHECK-NEXT:    .save {r7, lr}
54 ; CHECK-NEXT:    push {r7, lr}
55 ; CHECK-NEXT:    .vsave {d8, d9, d10, d11}
56 ; CHECK-NEXT:    vpush {d8, d9, d10, d11}
57 ; CHECK-NEXT:    vpt.s32 lt, q0, zr
58 ; CHECK-NEXT:    vldrwt.u32 q5, [r0]
59 ; CHECK-NEXT:    vmov.f32 s2, s21
60 ; CHECK-NEXT:    vmov r0, s2
61 ; CHECK-NEXT:    asrs r1, r0, #31
62 ; CHECK-NEXT:    bl __aeabi_l2d
63 ; CHECK-NEXT:    vmov r2, s20
64 ; CHECK-NEXT:    vmov d9, r0, r1
65 ; CHECK-NEXT:    asrs r3, r2, #31
66 ; CHECK-NEXT:    mov r0, r2
67 ; CHECK-NEXT:    mov r1, r3
68 ; CHECK-NEXT:    bl __aeabi_l2d
69 ; CHECK-NEXT:    vmov.f32 s2, s23
70 ; CHECK-NEXT:    vmov d8, r0, r1
71 ; CHECK-NEXT:    vmov.f32 s20, s22
72 ; CHECK-NEXT:    vmov r2, s2
73 ; CHECK-NEXT:    asrs r3, r2, #31
74 ; CHECK-NEXT:    mov r0, r2
75 ; CHECK-NEXT:    mov r1, r3
76 ; CHECK-NEXT:    bl __aeabi_l2d
77 ; CHECK-NEXT:    vmov r2, s20
78 ; CHECK-NEXT:    vmov d11, r0, r1
79 ; CHECK-NEXT:    asrs r3, r2, #31
80 ; CHECK-NEXT:    mov r0, r2
81 ; CHECK-NEXT:    mov r1, r3
82 ; CHECK-NEXT:    bl __aeabi_l2d
83 ; CHECK-NEXT:    vmov d10, r0, r1
84 ; CHECK-NEXT:    vmov q0, q4
85 ; CHECK-NEXT:    vmov q1, q5
86 ; CHECK-NEXT:    vpop {d8, d9, d10, d11}
87 ; CHECK-NEXT:    pop {r7, pc}
88 entry:
89   %active.lane.mask = icmp slt <4 x i32> %a, zeroinitializer
90   %wide.masked.load = call <4 x i32> @llvm.masked.load.v4i32.p0v4i32(<4 x i32>* %pSrc, i32 4, <4 x i1> %active.lane.mask, <4 x i32> undef)
91   %0 = sitofp <4 x i32> %wide.masked.load to <4 x double>
92   ret <4 x double> %0
95 declare <4 x i16> @llvm.masked.load.v4i16.p0v4i16(<4 x i16>*, i32 immarg, <4 x i1>, <4 x i16>)
97 declare <8 x i8> @llvm.masked.load.v8i8.p0v8i8(<8 x i8>*, i32 immarg, <8 x i1>, <8 x i8>)
99 declare <4 x i8> @llvm.masked.load.v4i8.p0v4i8(<4 x i8>*, i32 immarg, <4 x i1>, <4 x i8>)
101 declare <4 x i32> @llvm.masked.load.v4i32.p0v4i32(<4 x i32>*, i32 immarg, <4 x i1>, <4 x i32>)