[ARM] Adjust how NEON shifts are lowered
[llvm-core.git] / test / CodeGen / X86 / change-compare-stride-1.ll
blobfe4fa1b026bd751e974f5e3288563c7fbf540f81
1 ; RUN: llc < %s -mtriple=x86_64-- -enable-lsr-nested | FileCheck %s
3 ; Nested LSR is required to optimize this case.
4 ; We do not expect to see this form of IR without -enable-iv-rewrite.
6 ; xfailed for now because the scheduler two-address hack has been disabled.
7 ; Now it's generating a leal -1 rather than a decq.
8 ; XFAIL: *
10 define void @borf(i8* nocapture %in, i8* nocapture %out) nounwind {
11 ; CHECK-LABEL: borf:
12 ; CHECK-NOT: inc
13 ; CHECK-NOT: leal 1(
14 ; CHECK-NOT: leal -1(
15 ; CHECK: decq
16 ; CHECK-NEXT: cmpq $-478
17 ; CHECK: ret
19 bb4.thread:
20         br label %bb2.outer
22 bb2.outer:              ; preds = %bb4, %bb4.thread
23         %indvar19 = phi i64 [ 0, %bb4.thread ], [ %indvar.next29, %bb4 ]                ; <i64> [#uses=3]
24         %indvar31 = trunc i64 %indvar19 to i16          ; <i16> [#uses=1]
25         %i.0.reg2mem.0.ph = sub i16 639, %indvar31              ; <i16> [#uses=1]
26         %0 = zext i16 %i.0.reg2mem.0.ph to i32          ; <i32> [#uses=1]
27         %1 = mul i32 %0, 480            ; <i32> [#uses=1]
28         %tmp21 = mul i64 %indvar19, -478                ; <i64> [#uses=1]
29         br label %bb2
31 bb2:            ; preds = %bb2, %bb2.outer
32         %indvar = phi i64 [ 0, %bb2.outer ], [ %indvar.next, %bb2 ]             ; <i64> [#uses=3]
33         %indvar16 = trunc i64 %indvar to i16            ; <i16> [#uses=1]
34         %ctg2 = getelementptr i8, i8* %out, i64 %tmp21          ; <i8*> [#uses=1]
35         %tmp22 = ptrtoint i8* %ctg2 to i64              ; <i64> [#uses=1]
36         %tmp24 = sub i64 %tmp22, %indvar                ; <i64> [#uses=1]
37         %out_addr.0.reg2mem.0 = inttoptr i64 %tmp24 to i8*              ; <i8*> [#uses=1]
38         %j.0.reg2mem.0 = sub i16 479, %indvar16         ; <i16> [#uses=1]
39         %2 = zext i16 %j.0.reg2mem.0 to i32             ; <i32> [#uses=1]
40         %3 = add i32 %1, %2             ; <i32> [#uses=9]
41         %4 = add i32 %3, -481           ; <i32> [#uses=1]
42         %5 = zext i32 %4 to i64         ; <i64> [#uses=1]
43         %6 = getelementptr i8, i8* %in, i64 %5          ; <i8*> [#uses=1]
44         %7 = load i8, i8* %6, align 1           ; <i8> [#uses=1]
45         %8 = add i32 %3, -480           ; <i32> [#uses=1]
46         %9 = zext i32 %8 to i64         ; <i64> [#uses=1]
47         %10 = getelementptr i8, i8* %in, i64 %9         ; <i8*> [#uses=1]
48         %11 = load i8, i8* %10, align 1         ; <i8> [#uses=1]
49         %12 = add i32 %3, -479          ; <i32> [#uses=1]
50         %13 = zext i32 %12 to i64               ; <i64> [#uses=1]
51         %14 = getelementptr i8, i8* %in, i64 %13                ; <i8*> [#uses=1]
52         %15 = load i8, i8* %14, align 1         ; <i8> [#uses=1]
53         %16 = add i32 %3, -1            ; <i32> [#uses=1]
54         %17 = zext i32 %16 to i64               ; <i64> [#uses=1]
55         %18 = getelementptr i8, i8* %in, i64 %17                ; <i8*> [#uses=1]
56         %19 = load i8, i8* %18, align 1         ; <i8> [#uses=1]
57         %20 = zext i32 %3 to i64                ; <i64> [#uses=1]
58         %21 = getelementptr i8, i8* %in, i64 %20                ; <i8*> [#uses=1]
59         %22 = load i8, i8* %21, align 1         ; <i8> [#uses=1]
60         %23 = add i32 %3, 1             ; <i32> [#uses=1]
61         %24 = zext i32 %23 to i64               ; <i64> [#uses=1]
62         %25 = getelementptr i8, i8* %in, i64 %24                ; <i8*> [#uses=1]
63         %26 = load i8, i8* %25, align 1         ; <i8> [#uses=1]
64         %27 = add i32 %3, 481           ; <i32> [#uses=1]
65         %28 = zext i32 %27 to i64               ; <i64> [#uses=1]
66         %29 = getelementptr i8, i8* %in, i64 %28                ; <i8*> [#uses=1]
67         %30 = load i8, i8* %29, align 1         ; <i8> [#uses=1]
68         %31 = add i32 %3, 480           ; <i32> [#uses=1]
69         %32 = zext i32 %31 to i64               ; <i64> [#uses=1]
70         %33 = getelementptr i8, i8* %in, i64 %32                ; <i8*> [#uses=1]
71         %34 = load i8, i8* %33, align 1         ; <i8> [#uses=1]
72         %35 = add i32 %3, 479           ; <i32> [#uses=1]
73         %36 = zext i32 %35 to i64               ; <i64> [#uses=1]
74         %37 = getelementptr i8, i8* %in, i64 %36                ; <i8*> [#uses=1]
75         %38 = load i8, i8* %37, align 1         ; <i8> [#uses=1]
76         %39 = add i8 %11, %7            ; <i8> [#uses=1]
77         %40 = add i8 %39, %15           ; <i8> [#uses=1]
78         %41 = add i8 %40, %19           ; <i8> [#uses=1]
79         %42 = add i8 %41, %22           ; <i8> [#uses=1]
80         %43 = add i8 %42, %26           ; <i8> [#uses=1]
81         %44 = add i8 %43, %30           ; <i8> [#uses=1]
82         %45 = add i8 %44, %34           ; <i8> [#uses=1]
83         %46 = add i8 %45, %38           ; <i8> [#uses=1]
84         store i8 %46, i8* %out_addr.0.reg2mem.0, align 1
85         %indvar.next = add i64 %indvar, 1               ; <i64> [#uses=2]
86         %exitcond = icmp eq i64 %indvar.next, 478               ; <i1> [#uses=1]
87         br i1 %exitcond, label %bb4, label %bb2
89 bb4:            ; preds = %bb2
90         %indvar.next29 = add i64 %indvar19, 1           ; <i64> [#uses=2]
91         %exitcond30 = icmp eq i64 %indvar.next29, 638           ; <i1> [#uses=1]
92         br i1 %exitcond30, label %return, label %bb2.outer
94 return:         ; preds = %bb4
95         ret void