[clang][modules] Don't prevent translation of FW_Private includes when explicitly...
[llvm-project.git] / llvm / test / CodeGen / RISCV / rvv / load-add-store-16.ll
blob4bff79ba935daede248c70728a0b5291548c91d2
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc -mtriple riscv32 -mattr=+v %s -o - \
3 ; RUN:     -verify-machineinstrs | FileCheck %s
4 ; RUN: llc -mtriple riscv64 -mattr=+v %s -o - \
5 ; RUN:     -verify-machineinstrs | FileCheck %s
7 define void @vadd_vint16m1(<vscale x 4 x i16> *%pc, <vscale x 4 x i16> *%pa, <vscale x 4 x i16> *%pb) nounwind {
8 ; CHECK-LABEL: vadd_vint16m1:
9 ; CHECK:       # %bb.0:
10 ; CHECK-NEXT:    vl1re16.v v8, (a1)
11 ; CHECK-NEXT:    vl1re16.v v9, (a2)
12 ; CHECK-NEXT:    vsetvli a1, zero, e16, m1, ta, ma
13 ; CHECK-NEXT:    vadd.vv v8, v8, v9
14 ; CHECK-NEXT:    vs1r.v v8, (a0)
15 ; CHECK-NEXT:    ret
16   %va = load <vscale x 4 x i16>, <vscale x 4 x i16>* %pa
17   %vb = load <vscale x 4 x i16>, <vscale x 4 x i16>* %pb
18   %vc = add <vscale x 4 x i16> %va, %vb
19   store <vscale x 4 x i16> %vc, <vscale x 4 x i16> *%pc
20   ret void
23 define void @vadd_vint16m2(<vscale x 8 x i16> *%pc, <vscale x 8 x i16> *%pa, <vscale x 8 x i16> *%pb) nounwind {
24 ; CHECK-LABEL: vadd_vint16m2:
25 ; CHECK:       # %bb.0:
26 ; CHECK-NEXT:    vl2re16.v v8, (a1)
27 ; CHECK-NEXT:    vl2re16.v v10, (a2)
28 ; CHECK-NEXT:    vsetvli a1, zero, e16, m2, ta, ma
29 ; CHECK-NEXT:    vadd.vv v8, v8, v10
30 ; CHECK-NEXT:    vs2r.v v8, (a0)
31 ; CHECK-NEXT:    ret
32   %va = load <vscale x 8 x i16>, <vscale x 8 x i16>* %pa
33   %vb = load <vscale x 8 x i16>, <vscale x 8 x i16>* %pb
34   %vc = add <vscale x 8 x i16> %va, %vb
35   store <vscale x 8 x i16> %vc, <vscale x 8 x i16> *%pc
36   ret void
39 define void @vadd_vint16m4(<vscale x 16 x i16> *%pc, <vscale x 16 x i16> *%pa, <vscale x 16 x i16> *%pb) nounwind {
40 ; CHECK-LABEL: vadd_vint16m4:
41 ; CHECK:       # %bb.0:
42 ; CHECK-NEXT:    vl4re16.v v8, (a1)
43 ; CHECK-NEXT:    vl4re16.v v12, (a2)
44 ; CHECK-NEXT:    vsetvli a1, zero, e16, m4, ta, ma
45 ; CHECK-NEXT:    vadd.vv v8, v8, v12
46 ; CHECK-NEXT:    vs4r.v v8, (a0)
47 ; CHECK-NEXT:    ret
48   %va = load <vscale x 16 x i16>, <vscale x 16 x i16>* %pa
49   %vb = load <vscale x 16 x i16>, <vscale x 16 x i16>* %pb
50   %vc = add <vscale x 16 x i16> %va, %vb
51   store <vscale x 16 x i16> %vc, <vscale x 16 x i16> *%pc
52   ret void
55 define void @vadd_vint16m8(<vscale x 32 x i16> *%pc, <vscale x 32 x i16> *%pa, <vscale x 32 x i16> *%pb) nounwind {
56 ; CHECK-LABEL: vadd_vint16m8:
57 ; CHECK:       # %bb.0:
58 ; CHECK-NEXT:    vl8re16.v v8, (a1)
59 ; CHECK-NEXT:    vl8re16.v v16, (a2)
60 ; CHECK-NEXT:    vsetvli a1, zero, e16, m8, ta, ma
61 ; CHECK-NEXT:    vadd.vv v8, v8, v16
62 ; CHECK-NEXT:    vs8r.v v8, (a0)
63 ; CHECK-NEXT:    ret
64   %va = load <vscale x 32 x i16>, <vscale x 32 x i16>* %pa
65   %vb = load <vscale x 32 x i16>, <vscale x 32 x i16>* %pb
66   %vc = add <vscale x 32 x i16> %va, %vb
67   store <vscale x 32 x i16> %vc, <vscale x 32 x i16> *%pc
68   ret void
71 define void @vadd_vint16mf2(<vscale x 2 x i16> *%pc, <vscale x 2 x i16> *%pa, <vscale x 2 x i16> *%pb) nounwind {
72 ; CHECK-LABEL: vadd_vint16mf2:
73 ; CHECK:       # %bb.0:
74 ; CHECK-NEXT:    vsetvli a3, zero, e16, mf2, ta, ma
75 ; CHECK-NEXT:    vle16.v v8, (a1)
76 ; CHECK-NEXT:    vle16.v v9, (a2)
77 ; CHECK-NEXT:    vadd.vv v8, v8, v9
78 ; CHECK-NEXT:    vse16.v v8, (a0)
79 ; CHECK-NEXT:    ret
80   %va = load <vscale x 2 x i16>, <vscale x 2 x i16>* %pa
81   %vb = load <vscale x 2 x i16>, <vscale x 2 x i16>* %pb
82   %vc = add <vscale x 2 x i16> %va, %vb
83   store <vscale x 2 x i16> %vc, <vscale x 2 x i16> *%pc
84   ret void
87 define void @vadd_vint16mf4(<vscale x 1 x i16> *%pc, <vscale x 1 x i16> *%pa, <vscale x 1 x i16> *%pb) nounwind {
88 ; CHECK-LABEL: vadd_vint16mf4:
89 ; CHECK:       # %bb.0:
90 ; CHECK-NEXT:    vsetvli a3, zero, e16, mf4, ta, ma
91 ; CHECK-NEXT:    vle16.v v8, (a1)
92 ; CHECK-NEXT:    vle16.v v9, (a2)
93 ; CHECK-NEXT:    vadd.vv v8, v8, v9
94 ; CHECK-NEXT:    vse16.v v8, (a0)
95 ; CHECK-NEXT:    ret
96   %va = load <vscale x 1 x i16>, <vscale x 1 x i16>* %pa
97   %vb = load <vscale x 1 x i16>, <vscale x 1 x i16>* %pb
98   %vc = add <vscale x 1 x i16> %va, %vb
99   store <vscale x 1 x i16> %vc, <vscale x 1 x i16> *%pc
100   ret void