1 ; RUN: llc < %s -mtriple=x86_64-- -enable-lsr-nested | FileCheck %s
3 ; Nested LSR is required to optimize this case.
4 ; We do not expect to see this form of IR without -enable-iv-rewrite.
6 ; xfailed for now because the scheduler two-address hack has been disabled.
7 ; Now it's generating a leal -1 rather than a decq.
10 define void @borf(i8* nocapture %in, i8* nocapture %out) nounwind {
16 ; CHECK-NEXT: cmpq $-478
22 bb2.outer: ; preds = %bb4, %bb4.thread
23 %indvar19 = phi i64 [ 0, %bb4.thread ], [ %indvar.next29, %bb4 ] ; <i64> [#uses=3]
24 %indvar31 = trunc i64 %indvar19 to i16 ; <i16> [#uses=1]
25 %i.0.reg2mem.0.ph = sub i16 639, %indvar31 ; <i16> [#uses=1]
26 %0 = zext i16 %i.0.reg2mem.0.ph to i32 ; <i32> [#uses=1]
27 %1 = mul i32 %0, 480 ; <i32> [#uses=1]
28 %tmp21 = mul i64 %indvar19, -478 ; <i64> [#uses=1]
31 bb2: ; preds = %bb2, %bb2.outer
32 %indvar = phi i64 [ 0, %bb2.outer ], [ %indvar.next, %bb2 ] ; <i64> [#uses=3]
33 %indvar16 = trunc i64 %indvar to i16 ; <i16> [#uses=1]
34 %ctg2 = getelementptr i8, i8* %out, i64 %tmp21 ; <i8*> [#uses=1]
35 %tmp22 = ptrtoint i8* %ctg2 to i64 ; <i64> [#uses=1]
36 %tmp24 = sub i64 %tmp22, %indvar ; <i64> [#uses=1]
37 %out_addr.0.reg2mem.0 = inttoptr i64 %tmp24 to i8* ; <i8*> [#uses=1]
38 %j.0.reg2mem.0 = sub i16 479, %indvar16 ; <i16> [#uses=1]
39 %2 = zext i16 %j.0.reg2mem.0 to i32 ; <i32> [#uses=1]
40 %3 = add i32 %1, %2 ; <i32> [#uses=9]
41 %4 = add i32 %3, -481 ; <i32> [#uses=1]
42 %5 = zext i32 %4 to i64 ; <i64> [#uses=1]
43 %6 = getelementptr i8, i8* %in, i64 %5 ; <i8*> [#uses=1]
44 %7 = load i8, i8* %6, align 1 ; <i8> [#uses=1]
45 %8 = add i32 %3, -480 ; <i32> [#uses=1]
46 %9 = zext i32 %8 to i64 ; <i64> [#uses=1]
47 %10 = getelementptr i8, i8* %in, i64 %9 ; <i8*> [#uses=1]
48 %11 = load i8, i8* %10, align 1 ; <i8> [#uses=1]
49 %12 = add i32 %3, -479 ; <i32> [#uses=1]
50 %13 = zext i32 %12 to i64 ; <i64> [#uses=1]
51 %14 = getelementptr i8, i8* %in, i64 %13 ; <i8*> [#uses=1]
52 %15 = load i8, i8* %14, align 1 ; <i8> [#uses=1]
53 %16 = add i32 %3, -1 ; <i32> [#uses=1]
54 %17 = zext i32 %16 to i64 ; <i64> [#uses=1]
55 %18 = getelementptr i8, i8* %in, i64 %17 ; <i8*> [#uses=1]
56 %19 = load i8, i8* %18, align 1 ; <i8> [#uses=1]
57 %20 = zext i32 %3 to i64 ; <i64> [#uses=1]
58 %21 = getelementptr i8, i8* %in, i64 %20 ; <i8*> [#uses=1]
59 %22 = load i8, i8* %21, align 1 ; <i8> [#uses=1]
60 %23 = add i32 %3, 1 ; <i32> [#uses=1]
61 %24 = zext i32 %23 to i64 ; <i64> [#uses=1]
62 %25 = getelementptr i8, i8* %in, i64 %24 ; <i8*> [#uses=1]
63 %26 = load i8, i8* %25, align 1 ; <i8> [#uses=1]
64 %27 = add i32 %3, 481 ; <i32> [#uses=1]
65 %28 = zext i32 %27 to i64 ; <i64> [#uses=1]
66 %29 = getelementptr i8, i8* %in, i64 %28 ; <i8*> [#uses=1]
67 %30 = load i8, i8* %29, align 1 ; <i8> [#uses=1]
68 %31 = add i32 %3, 480 ; <i32> [#uses=1]
69 %32 = zext i32 %31 to i64 ; <i64> [#uses=1]
70 %33 = getelementptr i8, i8* %in, i64 %32 ; <i8*> [#uses=1]
71 %34 = load i8, i8* %33, align 1 ; <i8> [#uses=1]
72 %35 = add i32 %3, 479 ; <i32> [#uses=1]
73 %36 = zext i32 %35 to i64 ; <i64> [#uses=1]
74 %37 = getelementptr i8, i8* %in, i64 %36 ; <i8*> [#uses=1]
75 %38 = load i8, i8* %37, align 1 ; <i8> [#uses=1]
76 %39 = add i8 %11, %7 ; <i8> [#uses=1]
77 %40 = add i8 %39, %15 ; <i8> [#uses=1]
78 %41 = add i8 %40, %19 ; <i8> [#uses=1]
79 %42 = add i8 %41, %22 ; <i8> [#uses=1]
80 %43 = add i8 %42, %26 ; <i8> [#uses=1]
81 %44 = add i8 %43, %30 ; <i8> [#uses=1]
82 %45 = add i8 %44, %34 ; <i8> [#uses=1]
83 %46 = add i8 %45, %38 ; <i8> [#uses=1]
84 store i8 %46, i8* %out_addr.0.reg2mem.0, align 1
85 %indvar.next = add i64 %indvar, 1 ; <i64> [#uses=2]
86 %exitcond = icmp eq i64 %indvar.next, 478 ; <i1> [#uses=1]
87 br i1 %exitcond, label %bb4, label %bb2
90 %indvar.next29 = add i64 %indvar19, 1 ; <i64> [#uses=2]
91 %exitcond30 = icmp eq i64 %indvar.next29, 638 ; <i1> [#uses=1]
92 br i1 %exitcond30, label %return, label %bb2.outer
94 return: ; preds = %bb4