[ARM] Adjust how NEON shifts are lowered
[llvm-core.git] / test / Transforms / LoopVectorize / metadata-unroll.ll
blobc2b6b5cab83b7968fbe62e0e24905ddf22877612
1 ; RUN: opt < %s  -loop-vectorize -force-vector-width=4 -dce -instcombine -S | FileCheck %s
3 target datalayout = "e-p:64:64:64-i1:8:8-i8:8:8-i16:16:16-i32:32:32-i64:64:64-f32:32:32-f64:64:64-v64:64:64-v128:128:128-a0:0:64-s0:64:64-f80:128:128-n8:16:32:64-S128"
5 @a = common global [2048 x i32] zeroinitializer, align 16
7 ; This is the loop.
8 ;  for (i=0; i<n; i++){
9 ;    a[i] += i;
10 ;  }
11 ;CHECK-LABEL: @inc(
12 ;CHECK: load <4 x i32>
13 ;CHECK: load <4 x i32>
14 ;CHECK: add nsw <4 x i32>
15 ;CHECK: add nsw <4 x i32>
16 ;CHECK: store <4 x i32>
17 ;CHECK: store <4 x i32>
18 ;CHECK: ret void
19 define void @inc(i32 %n) nounwind uwtable noinline ssp {
20   %1 = icmp sgt i32 %n, 0
21   br i1 %1, label %.lr.ph, label %._crit_edge
23 .lr.ph:                                           ; preds = %0, %.lr.ph
24   %indvars.iv = phi i64 [ %indvars.iv.next, %.lr.ph ], [ 0, %0 ]
25   %2 = getelementptr inbounds [2048 x i32], [2048 x i32]* @a, i64 0, i64 %indvars.iv
26   %3 = load i32, i32* %2, align 4
27   %4 = trunc i64 %indvars.iv to i32
28   %5 = add nsw i32 %3, %4
29   store i32 %5, i32* %2, align 4
30   %indvars.iv.next = add i64 %indvars.iv, 1
31   %lftr.wideiv = trunc i64 %indvars.iv.next to i32
32   %exitcond = icmp eq i32 %lftr.wideiv, %n
33   br i1 %exitcond, label %._crit_edge, label %.lr.ph, !llvm.loop !0
35 ._crit_edge:                                      ; preds = %.lr.ph, %0
36   ret void
39 !0 = !{!0, !1}
40 !1 = !{!"llvm.loop.interleave.count", i32 2}