[clang][modules] Don't prevent translation of FW_Private includes when explicitly...
[llvm-project.git] / llvm / test / Transforms / LoopStrengthReduce / RISCV / lsr-drop-solution.ll
blob1ab19081b7de596b0a8720b017b630414161bfa5
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc < %s -O3 -mattr=+v -lsr-drop-solution | FileCheck --check-prefix=CHECK %s
4 target datalayout = "e-m:e-p:64:64-i64:64-i128:128-n64-S128"
5 target triple = "riscv64-unknown-linux-gnu"
7 define ptr @foo(ptr %a0, ptr %a1, i64 %a2) {
8 ; CHECK-LABEL: foo:
9 ; CHECK:       # %bb.0: # %entry
10 ; CHECK-NEXT:    vsetvli a4, a2, e8, m8, ta, ma
11 ; CHECK-NEXT:    bne a4, a2, .LBB0_2
12 ; CHECK-NEXT:  # %bb.1:
13 ; CHECK-NEXT:    vsetvli zero, a2, e8, m8, ta, ma
14 ; CHECK-NEXT:    vle8.v v8, (a1)
15 ; CHECK-NEXT:    vse8.v v8, (a0)
16 ; CHECK-NEXT:    ret
17 ; CHECK-NEXT:  .LBB0_2: # %if.then
18 ; CHECK-NEXT:    add a2, a0, a2
19 ; CHECK-NEXT:    sub a5, a2, a4
20 ; CHECK-NEXT:    mv a3, a0
21 ; CHECK-NEXT:  .LBB0_3: # %do.body
22 ; CHECK-NEXT:    # =>This Inner Loop Header: Depth=1
23 ; CHECK-NEXT:    vsetvli zero, a4, e8, m8, ta, ma
24 ; CHECK-NEXT:    vle8.v v8, (a1)
25 ; CHECK-NEXT:    vse8.v v8, (a3)
26 ; CHECK-NEXT:    add a3, a3, a4
27 ; CHECK-NEXT:    add a1, a1, a4
28 ; CHECK-NEXT:    bltu a3, a5, .LBB0_3
29 ; CHECK-NEXT:  # %bb.4: # %do.end
30 ; CHECK-NEXT:    sub a2, a2, a3
31 ; CHECK-NEXT:    vsetvli a2, a2, e8, m8, ta, ma
32 ; CHECK-NEXT:    vsetvli zero, a2, e8, m8, ta, ma
33 ; CHECK-NEXT:    vle8.v v8, (a1)
34 ; CHECK-NEXT:    vse8.v v8, (a3)
35 ; CHECK-NEXT:    ret
36 entry:
37   %0 = ptrtoint ptr %a0 to i64
38   %1 = tail call i64 @llvm.riscv.vsetvli.i64(i64 %a2, i64 0, i64 3)
39   %cmp.not = icmp eq i64 %1, %a2
40   br i1 %cmp.not, label %if.end, label %if.then
42 if.then:                                        ; preds = %entry
43   %add = add i64 %0, %a2
44   %sub = sub i64 %add, %1
45   br label %do.body
47 do.body:                                        ; preds = %do.body, %if.then
48   %a3.0 = phi i64 [ %0, %if.then ], [ %add1, %do.body ]
49   %a1.addr.0 = phi ptr [ %a1, %if.then ], [ %add.ptr, %do.body ]
50   %2 = tail call <vscale x 64 x i8> @llvm.riscv.vle.nxv64i8.i64(<vscale x 64 x i8> undef, ptr %a1.addr.0, i64 %1)
51   %3 = inttoptr i64 %a3.0 to ptr
52   tail call void @llvm.riscv.vse.nxv64i8.i64(<vscale x 64 x i8> %2, ptr %3, i64 %1)
53   %add1 = add i64 %a3.0, %1
54   %add.ptr = getelementptr i8, ptr %a1.addr.0, i64 %1
55   %cmp2 = icmp ugt i64 %sub, %add1
56   br i1 %cmp2, label %do.body, label %do.end
58 do.end:                                         ; preds = %do.body
59   %sub4 = sub i64 %add, %add1
60   %4 = tail call i64 @llvm.riscv.vsetvli.i64(i64 %sub4, i64 0, i64 3)
61   br label %if.end
63 if.end:                                         ; preds = %do.end, %entry
64   %a3.1 = phi i64 [ %add1, %do.end ], [ %0, %entry ]
65   %t0.0 = phi i64 [ %4, %do.end ], [ %a2, %entry ]
66   %a1.addr.1 = phi ptr [ %add.ptr, %do.end ], [ %a1, %entry ]
67   %5 = tail call <vscale x 64 x i8> @llvm.riscv.vle.nxv64i8.i64(<vscale x 64 x i8> undef, ptr %a1.addr.1, i64 %t0.0)
68   %6 = inttoptr i64 %a3.1 to ptr
69   tail call void @llvm.riscv.vse.nxv64i8.i64(<vscale x 64 x i8> %5, ptr %6, i64 %t0.0)
70   ret ptr %a0
73 declare i64 @llvm.riscv.vsetvli.i64(i64, i64 immarg, i64 immarg)
75 declare <vscale x 64 x i8> @llvm.riscv.vle.nxv64i8.i64(<vscale x 64 x i8>, ptr nocapture, i64)
77 declare void @llvm.riscv.vse.nxv64i8.i64(<vscale x 64 x i8>, ptr nocapture, i64)