[VectorCombine] foldInsExtVectorToShuffle - canonicalize new shuffle(undef,x) ->...
[llvm-project.git] / llvm / test / Transforms / IndVarSimplify / full_widening.ll
blob93c6ff29c743336eac8ff447cec9ef5c7526c44d
1 ; NOTE: Assertions have been autogenerated by utils/update_test_checks.py
2 ; RUN: opt < %s -passes=indvars -S | FileCheck %s
4 target datalayout = "e-p:64:64:64-i1:8:8-i8:8:8-i16:16:16-i32:32:32-i64:64:64-f32:32:32-f64:64:64-v64:64:64-v128:128:128-a0:0:64-s0:64:64-f80:128:128-n8:16:32:64"
6 ; Make sure that we do not insert trunc in the loop.
7 define i32 @test_01(ptr %p, double %x, ptr %np, ptr %mp, i32 %k) {
8 ; CHECK-LABEL: @test_01(
9 ; CHECK-NEXT:  entry:
10 ; CHECK-NEXT:    [[SMAX:%.*]] = call i32 @llvm.smax.i32(i32 [[K:%.*]], i32 1)
11 ; CHECK-NEXT:    [[WIDE_TRIP_COUNT:%.*]] = zext i32 [[SMAX]] to i64
12 ; CHECK-NEXT:    br label [[LOOP:%.*]]
13 ; CHECK:       loop:
14 ; CHECK-NEXT:    [[IV_WIDE:%.*]] = phi i64 [ [[CANONICAL_IV_NEXT_I:%.*]], [[LOOP]] ], [ 0, [[ENTRY:%.*]] ]
15 ; CHECK-NEXT:    [[CANONICAL_IV_NEXT_I]] = add nuw nsw i64 [[IV_WIDE]], 1
16 ; CHECK-NEXT:    [[GEP:%.*]] = getelementptr inbounds double, ptr [[P:%.*]], i64 [[IV_WIDE]]
17 ; CHECK-NEXT:    [[LOAD:%.*]] = load atomic double, ptr [[GEP]] unordered, align 8
18 ; CHECK-NEXT:    [[MUL:%.*]] = fmul double [[X:%.*]], [[LOAD]]
19 ; CHECK-NEXT:    [[GEP2:%.*]] = getelementptr inbounds double, ptr [[P]], i64 [[IV_WIDE]]
20 ; CHECK-NEXT:    store atomic double [[MUL]], ptr [[GEP2]] unordered, align 8
21 ; CHECK-NEXT:    [[EXITCOND:%.*]] = icmp ne i64 [[CANONICAL_IV_NEXT_I]], [[WIDE_TRIP_COUNT]]
22 ; CHECK-NEXT:    br i1 [[EXITCOND]], label [[LOOP]], label [[EXIT:%.*]]
23 ; CHECK:       exit:
24 ; CHECK-NEXT:    ret i32 0
26 entry:
27   br label %loop
29 loop:
30   %iv.wide = phi i64 [ %canonical.iv.next.i, %loop ], [ 0, %entry ]
31   %iv.narrow = phi i32 [ %iv.narrow.next, %loop ], [ 0, %entry ]
32   %canonical.iv.next.i = add nuw nsw i64 %iv.wide, 1
33   %zext = zext i32 %iv.narrow to i64
34   %gep = getelementptr inbounds double, ptr %p, i64 %zext
35   %load = load atomic double, ptr %gep unordered, align 8
36   %mul = fmul double %x, %load
37   %gep2 = getelementptr inbounds double, ptr %p, i64 %zext
38   store atomic double %mul, ptr %gep2 unordered, align 8
39   %iv.narrow.next = add nuw nsw i32 %iv.narrow, 1
40   %loop.cond = icmp slt i32 %iv.narrow.next, %k
41   br i1 %loop.cond, label %loop, label %exit
43 exit:
44   ret i32 0