[clang][modules] Don't prevent translation of FW_Private includes when explicitly...
[llvm-project.git] / llvm / test / CodeGen / RISCV / rvv / load-add-store-64.ll
blob2105197eded1584b1b534700a155a977de7a5084
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc -mtriple riscv32 -mattr=+v %s -o - \
3 ; RUN:     -verify-machineinstrs | FileCheck %s
4 ; RUN: llc -mtriple riscv64 -mattr=+v %s -o - \
5 ; RUN:     -verify-machineinstrs | FileCheck %s
7 define void @vadd_vint64m1(<vscale x 1 x i64> *%pc, <vscale x 1 x i64> *%pa, <vscale x 1 x i64> *%pb) nounwind {
8 ; CHECK-LABEL: vadd_vint64m1:
9 ; CHECK:       # %bb.0:
10 ; CHECK-NEXT:    vl1re64.v v8, (a1)
11 ; CHECK-NEXT:    vl1re64.v v9, (a2)
12 ; CHECK-NEXT:    vsetvli a1, zero, e64, m1, ta, ma
13 ; CHECK-NEXT:    vadd.vv v8, v8, v9
14 ; CHECK-NEXT:    vs1r.v v8, (a0)
15 ; CHECK-NEXT:    ret
16   %va = load <vscale x 1 x i64>, <vscale x 1 x i64>* %pa
17   %vb = load <vscale x 1 x i64>, <vscale x 1 x i64>* %pb
18   %vc = add <vscale x 1 x i64> %va, %vb
19   store <vscale x 1 x i64> %vc, <vscale x 1 x i64> *%pc
20   ret void
23 define void @vadd_vint64m2(<vscale x 2 x i64> *%pc, <vscale x 2 x i64> *%pa, <vscale x 2 x i64> *%pb) nounwind {
24 ; CHECK-LABEL: vadd_vint64m2:
25 ; CHECK:       # %bb.0:
26 ; CHECK-NEXT:    vl2re64.v v8, (a1)
27 ; CHECK-NEXT:    vl2re64.v v10, (a2)
28 ; CHECK-NEXT:    vsetvli a1, zero, e64, m2, ta, ma
29 ; CHECK-NEXT:    vadd.vv v8, v8, v10
30 ; CHECK-NEXT:    vs2r.v v8, (a0)
31 ; CHECK-NEXT:    ret
32   %va = load <vscale x 2 x i64>, <vscale x 2 x i64>* %pa
33   %vb = load <vscale x 2 x i64>, <vscale x 2 x i64>* %pb
34   %vc = add <vscale x 2 x i64> %va, %vb
35   store <vscale x 2 x i64> %vc, <vscale x 2 x i64> *%pc
36   ret void
39 define void @vadd_vint64m4(<vscale x 4 x i64> *%pc, <vscale x 4 x i64> *%pa, <vscale x 4 x i64> *%pb) nounwind {
40 ; CHECK-LABEL: vadd_vint64m4:
41 ; CHECK:       # %bb.0:
42 ; CHECK-NEXT:    vl4re64.v v8, (a1)
43 ; CHECK-NEXT:    vl4re64.v v12, (a2)
44 ; CHECK-NEXT:    vsetvli a1, zero, e64, m4, ta, ma
45 ; CHECK-NEXT:    vadd.vv v8, v8, v12
46 ; CHECK-NEXT:    vs4r.v v8, (a0)
47 ; CHECK-NEXT:    ret
48   %va = load <vscale x 4 x i64>, <vscale x 4 x i64>* %pa
49   %vb = load <vscale x 4 x i64>, <vscale x 4 x i64>* %pb
50   %vc = add <vscale x 4 x i64> %va, %vb
51   store <vscale x 4 x i64> %vc, <vscale x 4 x i64> *%pc
52   ret void
55 define void @vadd_vint64m8(<vscale x 8 x i64> *%pc, <vscale x 8 x i64> *%pa, <vscale x 8 x i64> *%pb) nounwind {
56 ; CHECK-LABEL: vadd_vint64m8:
57 ; CHECK:       # %bb.0:
58 ; CHECK-NEXT:    vl8re64.v v8, (a1)
59 ; CHECK-NEXT:    vl8re64.v v16, (a2)
60 ; CHECK-NEXT:    vsetvli a1, zero, e64, m8, ta, ma
61 ; CHECK-NEXT:    vadd.vv v8, v8, v16
62 ; CHECK-NEXT:    vs8r.v v8, (a0)
63 ; CHECK-NEXT:    ret
64   %va = load <vscale x 8 x i64>, <vscale x 8 x i64>* %pa
65   %vb = load <vscale x 8 x i64>, <vscale x 8 x i64>* %pb
66   %vc = add <vscale x 8 x i64> %va, %vb
67   store <vscale x 8 x i64> %vc, <vscale x 8 x i64> *%pc
68   ret void