[ORC] Add std::tuple support to SimplePackedSerialization.
[llvm-project.git] / llvm / test / Transforms / LoopStrengthReduce / AArch64 / vscale-factor-out-constant.ll
blob5bdbf1cfb6ab219f3571e0fc146f04cd33be404a
1 ; RUN: opt -S -loop-reduce < %s | FileCheck %s
3 target datalayout = "e-m:e-i8:8:32-i16:16:32-i64:64-i128:128-n32:64-S128"
4 target triple = "aarch64-unknown-linux-gnu"
6 ; This test check SCEVExpander FactorOutConstant() is not crashing with blind cast 'Factor' to SCEVConstant.
8 ; CHECK-LABEL: test
9 ; FIXME: Handle VectorType in SCEVExpander::expandAddToGEP.
10 ; The generated IR is not ideal with base 'scalar_vector' cast to i8*, and do ugly getelementptr over casted base.
11 ; CHECK: uglygep
12 define void @test(i32* %a, i32 %v, i64 %n) {
13 entry:
14   %scalar_vector = alloca <vscale x 4 x i32>, align 16
15   %num_elm = call i64 @llvm.aarch64.sve.cntw(i32 31)
16   %scalar_count = and i64 %num_elm, -4
17   br label %loop_header
19 exit:
20   ret void
22 loop_header:
23   %indvar = phi i64 [ 0, %entry ], [ %indvar_next, %for_loop ]
24   %gep_a_0 = getelementptr i32, i32* %a, i64 0
25   %gep_vec_0 = getelementptr inbounds <vscale x 4 x i32>, <vscale x 4 x i32>* %scalar_vector, i64 0, i64 0
26   br label %scalar_loop
28 scalar_loop:
29   %gep_vec = phi i32* [ %gep_vec_0, %loop_header ], [ %gep_vec_inc, %scalar_loop ]
30   %scalar_iv = phi i64 [ 0, %loop_header ], [ %scalar_iv_next, %scalar_loop ]
31   store i32 %v, i32* %gep_vec, align 4
32   %scalar_iv_next = add i64 %scalar_iv, 1
33   %gep_vec_inc = getelementptr i32, i32* %gep_vec, i64 1
34   %scalar_exit = icmp eq i64 %scalar_iv_next, %scalar_count
35   br i1 %scalar_exit, label %for_loop, label %scalar_loop
37 for_loop:
38   %vector = load <vscale x 4 x i32>, <vscale x 4 x i32>* %scalar_vector, align 16
39   %gep_a = getelementptr i32, i32* %gep_a_0, i64 %indvar
40   %vector_ptr = bitcast i32* %gep_a to <vscale x 4 x i32>*
41   call void @llvm.masked.store.nxv4i32.p0nxv4i32(<vscale x 4 x i32> %vector, <vscale x 4 x i32>* %vector_ptr, i32 4, <vscale x 4 x i1> undef)
42   %indvar_next = add nsw i64 %indvar, %scalar_count
43   %exit_cond = icmp eq i64 %indvar_next, %n
44   br i1 %exit_cond, label %exit, label %loop_header
47 declare i64 @llvm.aarch64.sve.cntw(i32 immarg)
49 declare void @llvm.masked.store.nxv4i32.p0nxv4i32(<vscale x 4 x i32>, <vscale x 4 x i32>*, i32 immarg, <vscale x 4 x i1>)