[ARM] More MVE compare vector splat combines for ANDs
[llvm-complete.git] / test / CodeGen / ARM / widen-vmovs.ll
blob2abf8d9701fc8f77a95e486770559844a65b083c
1 ; RUN: llc < %s -mcpu=cortex-a8 -verify-machineinstrs -disable-block-placement | FileCheck %s
2 target triple = "thumbv7-apple-ios"
4 ; The 1.0e+10 constant is loaded from the constant pool and kept in a register.
5 ; CHECK: %entry
6 ; CHECK: vldr s
7 ; The float loop variable is initialized with a vmovs from the constant register.
8 ; The vmovs is first widened to a vmovd, and then converted to a vorr because of the v2f32 vadd.f32.
9 ; CHECK: vorr [[DL:d[0-9]+]], [[DN:d[0-9]+]]
10 ; CHECK: , [[DN]]
11 ; CHECK: %for.body.i
12 ; CHECK: vadd.f32 [[DL]], [[DL]], [[DN]]
13 ; CHECK: %rInnerproduct.exit
15 ; This test is verifying:
16 ; - The VMOVS widening is happening.
17 ; - Register liveness is verified.
18 ; - The execution domain switch to vorr works across basic blocks.
20 define void @Mm(i32 %in, float* %addr) nounwind {
21 entry:
22   br label %for.body4
24 for.body4:
25   br label %for.body.i
27 for.body.i:
28   %tmp3.i = phi float [ 1.000000e+10, %for.body4 ], [ %add.i, %for.body.i ]
29   %add.i = fadd float %tmp3.i, 1.000000e+10
30   %exitcond.i = icmp eq i32 %in, 41
31   br i1 %exitcond.i, label %rInnerproduct.exit, label %for.body.i
33 rInnerproduct.exit:
34   store float %add.i, float* %addr, align 4
35   br label %for.body4