[AArch64] Add extra add/cast tests for select-optimize.
[llvm-project.git] / llvm / test / CodeGen / RISCV / rvv / vp-reverse-mask-fixed-vectors.ll
blob09d92c3c039f929df3230533eaa2c03f0e21325e
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc -mtriple=riscv64 -mattr=+m,+v -verify-machineinstrs -riscv-v-vector-bits-min=128 \
3 ; RUN:   < %s | FileCheck %s
5 define <2 x i1> @test_vp_reverse_v2i1_masked(<2 x i1> %src, <2 x i1> %mask, i32 zeroext %evl) {
6 ; CHECK-LABEL: test_vp_reverse_v2i1_masked:
7 ; CHECK:       # %bb.0:
8 ; CHECK-NEXT:    vsetvli zero, a0, e8, mf8, ta, ma
9 ; CHECK-NEXT:    vmv.v.i v9, 0
10 ; CHECK-NEXT:    addi a0, a0, -1
11 ; CHECK-NEXT:    vmerge.vim v9, v9, 1, v0
12 ; CHECK-NEXT:    vmv1r.v v0, v8
13 ; CHECK-NEXT:    vsetvli zero, zero, e16, mf4, ta, ma
14 ; CHECK-NEXT:    vid.v v10, v0.t
15 ; CHECK-NEXT:    vrsub.vx v10, v10, a0, v0.t
16 ; CHECK-NEXT:    vsetvli zero, zero, e8, mf8, ta, ma
17 ; CHECK-NEXT:    vrgatherei16.vv v11, v9, v10, v0.t
18 ; CHECK-NEXT:    vmsne.vi v0, v11, 0, v0.t
19 ; CHECK-NEXT:    ret
20   %dst = call <2 x i1> @llvm.experimental.vp.reverse.v2i1(<2 x i1> %src, <2 x i1> %mask, i32 %evl)
21   ret <2 x i1> %dst
24 define <2 x i1> @test_vp_reverse_v2i1(<2 x i1> %src, i32 zeroext %evl) {
25 ; CHECK-LABEL: test_vp_reverse_v2i1:
26 ; CHECK:       # %bb.0:
27 ; CHECK-NEXT:    addi a1, a0, -1
28 ; CHECK-NEXT:    vsetvli zero, a0, e16, mf4, ta, ma
29 ; CHECK-NEXT:    vid.v v8
30 ; CHECK-NEXT:    vsetvli zero, zero, e8, mf8, ta, ma
31 ; CHECK-NEXT:    vmv.v.i v9, 0
32 ; CHECK-NEXT:    vsetvli zero, zero, e16, mf4, ta, ma
33 ; CHECK-NEXT:    vrsub.vx v8, v8, a1
34 ; CHECK-NEXT:    vsetvli zero, zero, e8, mf8, ta, ma
35 ; CHECK-NEXT:    vmerge.vim v9, v9, 1, v0
36 ; CHECK-NEXT:    vrgatherei16.vv v10, v9, v8
37 ; CHECK-NEXT:    vmsne.vi v0, v10, 0
38 ; CHECK-NEXT:    ret
40   %dst = call <2 x i1> @llvm.experimental.vp.reverse.v2i1(<2 x i1> %src, <2 x i1> splat (i1 1), i32 %evl)
41   ret <2 x i1> %dst
44 define <4 x i1> @test_vp_reverse_v4i1_masked(<4 x i1> %src, <4 x i1> %mask, i32 zeroext %evl) {
45 ; CHECK-LABEL: test_vp_reverse_v4i1_masked:
46 ; CHECK:       # %bb.0:
47 ; CHECK-NEXT:    vsetvli zero, a0, e8, mf4, ta, ma
48 ; CHECK-NEXT:    vmv.v.i v9, 0
49 ; CHECK-NEXT:    addi a0, a0, -1
50 ; CHECK-NEXT:    vmerge.vim v9, v9, 1, v0
51 ; CHECK-NEXT:    vmv1r.v v0, v8
52 ; CHECK-NEXT:    vsetvli zero, zero, e16, mf2, ta, ma
53 ; CHECK-NEXT:    vid.v v10, v0.t
54 ; CHECK-NEXT:    vrsub.vx v10, v10, a0, v0.t
55 ; CHECK-NEXT:    vsetvli zero, zero, e8, mf4, ta, ma
56 ; CHECK-NEXT:    vrgatherei16.vv v11, v9, v10, v0.t
57 ; CHECK-NEXT:    vmsne.vi v0, v11, 0, v0.t
58 ; CHECK-NEXT:    ret
59   %dst = call <4 x i1> @llvm.experimental.vp.reverse.v4i1(<4 x i1> %src, <4 x i1> %mask, i32 %evl)
60   ret <4 x i1> %dst
63 define <4 x i1> @test_vp_reverse_v4i1(<4 x i1> %src, i32 zeroext %evl) {
64 ; CHECK-LABEL: test_vp_reverse_v4i1:
65 ; CHECK:       # %bb.0:
66 ; CHECK-NEXT:    addi a1, a0, -1
67 ; CHECK-NEXT:    vsetvli zero, a0, e16, mf2, ta, ma
68 ; CHECK-NEXT:    vid.v v8
69 ; CHECK-NEXT:    vsetvli zero, zero, e8, mf4, ta, ma
70 ; CHECK-NEXT:    vmv.v.i v9, 0
71 ; CHECK-NEXT:    vsetvli zero, zero, e16, mf2, ta, ma
72 ; CHECK-NEXT:    vrsub.vx v8, v8, a1
73 ; CHECK-NEXT:    vsetvli zero, zero, e8, mf4, ta, ma
74 ; CHECK-NEXT:    vmerge.vim v9, v9, 1, v0
75 ; CHECK-NEXT:    vrgatherei16.vv v10, v9, v8
76 ; CHECK-NEXT:    vmsne.vi v0, v10, 0
77 ; CHECK-NEXT:    ret
79   %dst = call <4 x i1> @llvm.experimental.vp.reverse.v4i1(<4 x i1> %src, <4 x i1> splat (i1 1), i32 %evl)
80   ret <4 x i1> %dst
83 define <8 x i1> @test_vp_reverse_v8i1_masked(<8 x i1> %src, <8 x i1> %mask, i32 zeroext %evl) {
84 ; CHECK-LABEL: test_vp_reverse_v8i1_masked:
85 ; CHECK:       # %bb.0:
86 ; CHECK-NEXT:    vsetvli zero, a0, e8, mf2, ta, ma
87 ; CHECK-NEXT:    vmv.v.i v9, 0
88 ; CHECK-NEXT:    addi a0, a0, -1
89 ; CHECK-NEXT:    vmerge.vim v9, v9, 1, v0
90 ; CHECK-NEXT:    vmv1r.v v0, v8
91 ; CHECK-NEXT:    vsetvli zero, zero, e16, m1, ta, ma
92 ; CHECK-NEXT:    vid.v v10, v0.t
93 ; CHECK-NEXT:    vrsub.vx v10, v10, a0, v0.t
94 ; CHECK-NEXT:    vsetvli zero, zero, e8, mf2, ta, ma
95 ; CHECK-NEXT:    vrgatherei16.vv v11, v9, v10, v0.t
96 ; CHECK-NEXT:    vmsne.vi v0, v11, 0, v0.t
97 ; CHECK-NEXT:    ret
98   %dst = call <8 x i1> @llvm.experimental.vp.reverse.v8i1(<8 x i1> %src, <8 x i1> %mask, i32 %evl)
99   ret <8 x i1> %dst
102 define <8 x i1> @test_vp_reverse_v8i1(<8 x i1> %src, i32 zeroext %evl) {
103 ; CHECK-LABEL: test_vp_reverse_v8i1:
104 ; CHECK:       # %bb.0:
105 ; CHECK-NEXT:    addi a1, a0, -1
106 ; CHECK-NEXT:    vsetvli zero, a0, e16, m1, ta, ma
107 ; CHECK-NEXT:    vid.v v8
108 ; CHECK-NEXT:    vsetvli zero, zero, e8, mf2, ta, ma
109 ; CHECK-NEXT:    vmv.v.i v9, 0
110 ; CHECK-NEXT:    vsetvli zero, zero, e16, m1, ta, ma
111 ; CHECK-NEXT:    vrsub.vx v8, v8, a1
112 ; CHECK-NEXT:    vsetvli zero, zero, e8, mf2, ta, ma
113 ; CHECK-NEXT:    vmerge.vim v9, v9, 1, v0
114 ; CHECK-NEXT:    vrgatherei16.vv v10, v9, v8
115 ; CHECK-NEXT:    vmsne.vi v0, v10, 0
116 ; CHECK-NEXT:    ret
118   %dst = call <8 x i1> @llvm.experimental.vp.reverse.v8i1(<8 x i1> %src, <8 x i1> splat (i1 1), i32 %evl)
119   ret <8 x i1> %dst
122 define <16 x i1> @test_vp_reverse_v16i1_masked(<16 x i1> %src, <16 x i1> %mask, i32 zeroext %evl) {
123 ; CHECK-LABEL: test_vp_reverse_v16i1_masked:
124 ; CHECK:       # %bb.0:
125 ; CHECK-NEXT:    vsetvli zero, a0, e8, m1, ta, ma
126 ; CHECK-NEXT:    vmv.v.i v9, 0
127 ; CHECK-NEXT:    addi a0, a0, -1
128 ; CHECK-NEXT:    vmerge.vim v9, v9, 1, v0
129 ; CHECK-NEXT:    vmv1r.v v0, v8
130 ; CHECK-NEXT:    vsetvli zero, zero, e16, m2, ta, ma
131 ; CHECK-NEXT:    vid.v v10, v0.t
132 ; CHECK-NEXT:    vrsub.vx v10, v10, a0, v0.t
133 ; CHECK-NEXT:    vsetvli zero, zero, e8, m1, ta, ma
134 ; CHECK-NEXT:    vrgatherei16.vv v12, v9, v10, v0.t
135 ; CHECK-NEXT:    vmsne.vi v0, v12, 0, v0.t
136 ; CHECK-NEXT:    ret
137   %dst = call <16 x i1> @llvm.experimental.vp.reverse.v16i1(<16 x i1> %src, <16 x i1> %mask, i32 %evl)
138   ret <16 x i1> %dst
141 define <16 x i1> @test_vp_reverse_v16i1(<16 x i1> %src, i32 zeroext %evl) {
142 ; CHECK-LABEL: test_vp_reverse_v16i1:
143 ; CHECK:       # %bb.0:
144 ; CHECK-NEXT:    addi a1, a0, -1
145 ; CHECK-NEXT:    vsetvli zero, a0, e16, m2, ta, ma
146 ; CHECK-NEXT:    vid.v v8
147 ; CHECK-NEXT:    vsetvli zero, zero, e8, m1, ta, ma
148 ; CHECK-NEXT:    vmv.v.i v10, 0
149 ; CHECK-NEXT:    vsetvli zero, zero, e16, m2, ta, ma
150 ; CHECK-NEXT:    vrsub.vx v8, v8, a1
151 ; CHECK-NEXT:    vsetvli zero, zero, e8, m1, ta, ma
152 ; CHECK-NEXT:    vmerge.vim v10, v10, 1, v0
153 ; CHECK-NEXT:    vrgatherei16.vv v11, v10, v8
154 ; CHECK-NEXT:    vmsne.vi v0, v11, 0
155 ; CHECK-NEXT:    ret
157   %dst = call <16 x i1> @llvm.experimental.vp.reverse.v16i1(<16 x i1> %src, <16 x i1> splat (i1 1), i32 %evl)
158   ret <16 x i1> %dst
161 declare <2 x i1> @llvm.experimental.vp.reverse.v2i1(<2 x i1>,<2 x i1>,i32)
162 declare <4 x i1> @llvm.experimental.vp.reverse.v4i1(<4 x i1>,<4 x i1>,i32)
163 declare <8 x i1> @llvm.experimental.vp.reverse.v8i1(<8 x i1>,<8 x i1>,i32)
164 declare <16 x i1> @llvm.experimental.vp.reverse.v16i1(<16 x i1>,<16 x i1>,i32)