[ARM] Adjust how NEON shifts are lowered
[llvm-core.git] / test / Transforms / LoopVersioning / loop-invariant-bound.ll
blob01c5a55bd5b26cb1cbfd8b44c432f4a3caf777db
1 ; RUN: opt -loop-versioning -S < %s | FileCheck %s
2 ; Checks that when introducing check, we don't accidentally introduce non-dominating instructions
3 target datalayout = "e-m:e-i64:64-f80:128-n8:16:32:64-S128"
5 %Dual.212 = type { %Dual.213, %Partials.215 }
6 %Dual.213 = type { double, %Partials.214 }
7 %Partials.214 = type { [2 x double] }
8 %Partials.215 = type { [2 x %Dual.213] }
10 ; Function Attrs: sspreq
11 define void @"julia_axpy!_65480"(%Dual.212*, %Dual.212* %other) {
12 top:
13   br label %if24
15 ; CHECK-NOT: %bc = bitcast i64* %v2.sroa.0.0..sroa_cast
16 ; CHECK: %bound0 = icmp ult i8* %[[x:[a-z0-9]+]], %[[y:[a-z0-9]+]]
17 ; CHECK-NOT: %bound1 = icmp ult i8* %[[y]], %[[x]]
19 if24:                                             ; preds = %if24, %top
20   %"#temp#1.sroa.3.02" = phi i64 [ undef, %top ], [ %2, %if24 ]
21   %"#temp#1.sroa.0.01" = phi i64 [ undef, %top ], [ %1, %if24 ]
22   %1 = add i64 %"#temp#1.sroa.0.01", 1
23   %2 = add i64 %"#temp#1.sroa.3.02", 1
24   ; This pointer is loop invariant. LAA used to re-use it from memcheck, even though it didn't dominate.
25   %v2.sroa.0.0..sroa_cast = bitcast %Dual.212* %0 to i64*
26   %v2.sroa.0.0.copyload = load i64, i64* %v2.sroa.0.0..sroa_cast, align 1
27   %3 = add i64 %"#temp#1.sroa.0.01", -1
28   %4 = getelementptr inbounds %Dual.212, %Dual.212* %other, i64 0, i32 1, i32 0, i64 0, i32 1, i32 0, i64 0
29   %5 = bitcast double* %4 to i64*
30   store i64 undef, i64* %5, align 8
31   %notlhs27 = icmp eq i64 %2, undef
32   %notrhs28 = icmp eq i64 %1, undef
33   %6 = or i1 %notrhs28, %notlhs27
34   br i1 %6, label %L41.L335_crit_edge, label %if24
36 L41.L335_crit_edge:                               ; preds = %if24
37   ret void