[mlir][int-range] Limit xor int range inference to i1 (#116968)
[llvm-project.git] / llvm / test / Analysis / ScalarEvolution / lt-overflow.ll
blob81d0444eb5b79c68c7bc217caff069eb3ce41497
1 ; RUN: opt %s -passes='print<scalar-evolution>' -scalar-evolution-classify-expressions=0 2>&1 | FileCheck %s
3 target datalayout = "e-m:e-p270:32:32-p271:32:32-p272:64:64-i64:64-f80:128-n8:16:32:64-S128"
4 target triple = "x86_64-unknown-linux-gnu"
6 ; A collection of tests focused on exercising logic to prove no-unsigned wrap
7 ; from mustprogress semantics of loops.
9 ; CHECK: Determining loop execution counts for: @test
10 ; CHECK: Loop %for.body: backedge-taken count is ((-1 + (2 umax %N)) /u 2)
11 ; CHECK: Determining loop execution counts for: @test_preinc
12 ; CHECK: Loop %for.body: backedge-taken count is ((1 + %N) /u 2)
13 ; CHECK: Determining loop execution counts for: @test_well_defined_infinite_st
14 ; CHECK: Loop %for.body: Unpredictable backedge-taken count.
15 ; CHECK: Determining loop execution counts for: @test_well_defined_infinite_ld
16 ; CHECK: Loop %for.body: Unpredictable backedge-taken count.
17 ; CHECK: Determining loop execution counts for: @test_no_mustprogress
18 ; CHECK: Loop %for.body: Unpredictable backedge-taken count.
19 ; CHECK: Determining loop execution counts for: @test_1024
20 ; CHECK: Loop %for.body: backedge-taken count is ((-1 + (1024 umax %N)) /u 1024)
21 ; CHECK: Determining loop execution counts for: @test_uneven_divide
22 ; CHECK: Loop %for.body: Unpredictable backedge-taken count.
23 ; CHECK: Determining loop execution counts for: @test_non_invariant_rhs
24 ; CHECK: Loop %for.body: Unpredictable backedge-taken count.
25 ; CHECK: Determining loop execution counts for: @test_abnormal_exit
26 ; CHECK: Loop %for.body: Unpredictable backedge-taken count.
27 ; CHECK: Determining loop execution counts for: @test_other_exit
28 ; CHECK: Loop %for.body: <multiple exits> Unpredictable backedge-taken count.
29 ; CHECK: Determining loop execution counts for: @test_gt
30 ; CHECK: Loop %for.body: Unpredictable backedge-taken count.
31 ; CHECK: Determining loop execution counts for: @test_willreturn
32 ; CHECK: Loop %for.body: backedge-taken count is ((-1 + (1024 umax %N)) /u 1024)
33 ; CHECK: Determining loop execution counts for: @test_nowillreturn
34 ; CHECK: Loop %for.body: Unpredictable backedge-taken count.
35 ; TODO: investigate why willreturn is still needed on the callsite
36 ; CHECK: Determining loop execution counts for: @test_willreturn_nocallsite
37 ; CHECK: Loop %for.body: Unpredictable backedge-taken count.
39 define void @test(i32 %N) mustprogress {
40 entry:
41   br label %for.body
43 for.body:
44   %iv = phi i32 [ %iv.next, %for.body ], [ 0, %entry ]
45   %iv.next = add i32 %iv, 2
46   %cmp = icmp ult i32 %iv.next, %N
47   br i1 %cmp, label %for.body, label %for.cond.cleanup
49 for.cond.cleanup:
50   ret void
53 define void @test_preinc(i32 %N) mustprogress {
54 entry:
55   br label %for.body
57 for.body:
58   %iv = phi i32 [ %iv.next, %for.body ], [ 0, %entry ]
59   %iv.next = add i32 %iv, 2
60   %cmp = icmp ult i32 %iv, %N
61   br i1 %cmp, label %for.body, label %for.cond.cleanup
63 for.cond.cleanup:
64   ret void
68 @G = external global i32
70 define void @test_well_defined_infinite_st(i32 %N) mustprogress {
71 entry:
72   br label %for.body
74 for.body:
75   %iv = phi i32 [ %iv.next, %for.body ], [ 0, %entry ]
76   %iv.next = add i32 %iv, 2
77   store volatile i32 0, ptr @G
78   %cmp = icmp ult i32 %iv.next, %N
79   br i1 %cmp, label %for.body, label %for.cond.cleanup
81 for.cond.cleanup:
82   ret void
85 define void @test_well_defined_infinite_ld(i32 %N) mustprogress {
86 entry:
87   br label %for.body
89 for.body:
90   %iv = phi i32 [ %iv.next, %for.body ], [ 0, %entry ]
91   %iv.next = add i32 %iv, 2
92   %val = load volatile i32, ptr @G
93   %cmp = icmp ult i32 %iv.next, %N
94   br i1 %cmp, label %for.body, label %for.cond.cleanup
96 for.cond.cleanup:
97   ret void
100 define void @test_no_mustprogress(i32 %N) {
101 entry:
102   br label %for.body
104 for.body:
105   %iv = phi i32 [ %iv.next, %for.body ], [ 0, %entry ]
106   %iv.next = add i32 %iv, 2
107   %cmp = icmp ult i32 %iv.next, %N
108   br i1 %cmp, label %for.body, label %for.cond.cleanup
110 for.cond.cleanup:
111   ret void
116 define void @test_1024(i32 %N) mustprogress {
117 entry:
118   br label %for.body
120 for.body:
121   %iv = phi i32 [ %iv.next, %for.body ], [ 0, %entry ]
122   %iv.next = add i32 %iv, 1024
123   %cmp = icmp ult i32 %iv.next, %N
124   br i1 %cmp, label %for.body, label %for.cond.cleanup
126 for.cond.cleanup:
127   ret void
130 define void @test_uneven_divide(i32 %N) mustprogress {
131 entry:
132   br label %for.body
134 for.body:
135   %iv = phi i32 [ %iv.next, %for.body ], [ 0, %entry ]
136   %iv.next = add i32 %iv, 3
137   %cmp = icmp ult i32 %iv.next, %N
138   br i1 %cmp, label %for.body, label %for.cond.cleanup
140 for.cond.cleanup:
141   ret void
144 define void @test_non_invariant_rhs() mustprogress {
145 entry:
146   br label %for.body
148 for.body:
149   %iv = phi i32 [ %iv.next, %for.body ], [ 0, %entry ]
150   %iv.next = add i32 %iv, 2
151   %N = load i32, ptr @G
152   %cmp = icmp ult i32 %iv.next, %N
153   br i1 %cmp, label %for.body, label %for.cond.cleanup
155 for.cond.cleanup:
156   ret void
159 declare void @mayexit()
161 define void @test_abnormal_exit(i32 %N) mustprogress {
162 entry:
163   br label %for.body
165 for.body:
166   %iv = phi i32 [ %iv.next, %for.body ], [ 0, %entry ]
167   %iv.next = add i32 %iv, 2
168   call void @mayexit()
169   %cmp = icmp ult i32 %iv.next, %N
170   br i1 %cmp, label %for.body, label %for.cond.cleanup
172 for.cond.cleanup:
173   ret void
177 define void @test_other_exit(i32 %N) mustprogress {
178 entry:
179   br label %for.body
181 for.body:
182   %iv = phi i32 [ %iv.next, %for.latch ], [ 0, %entry ]
183   %iv.next = add i32 %iv, 2
184   %cmp1 = icmp ult i32 %iv.next, 20
185   br i1 %cmp1, label %for.latch, label %for.cond.cleanup
187 for.latch:
188   %cmp2 = icmp ult i32 %iv.next, %N
189   br i1 %cmp2, label %for.body, label %for.cond.cleanup
191 for.cond.cleanup:
192   ret void
195 define void @test_gt(i32 %S, i32 %N) mustprogress {
196 entry:
197   br label %for.body
199 for.body:
200   %iv = phi i32 [ %iv.next, %for.body ], [ %S, %entry ]
201   %iv.next = add i32 %iv, -2
202   %cmp = icmp ugt i32 %iv.next, %N
203   br i1 %cmp, label %for.body, label %for.cond.cleanup
205 for.cond.cleanup:
206   ret void
209 declare void @sideeffect()
211 define void @test_willreturn(i32 %S, i32 %N) willreturn {
212 entry:
213   br label %for.body
215 for.body:
216   %iv = phi i32 [ %iv.next, %for.body ], [ 0, %entry ]
217   %iv.next = add i32 %iv, 1024
218   call void @sideeffect() nounwind willreturn
219   %cmp = icmp ult i32 %iv.next, %N
220   br i1 %cmp, label %for.body, label %for.cond.cleanup
222 for.cond.cleanup:
223   ret void
226 define void @test_nowillreturn(i32 %S, i32 %N) {
227 entry:
228   br label %for.body
230 for.body:
231   %iv = phi i32 [ %iv.next, %for.body ], [ 0, %entry ]
232   %iv.next = add i32 %iv, 1024
233   call void @sideeffect() nounwind willreturn
234   %cmp = icmp ult i32 %iv.next, %N
235   br i1 %cmp, label %for.body, label %for.cond.cleanup
237 for.cond.cleanup:
238   ret void
241 define void @test_willreturn_nocallsite(i32 %S, i32 %N) willreturn {
242 entry:
243   br label %for.body
245 for.body:
246   %iv = phi i32 [ %iv.next, %for.body ], [ 0, %entry ]
247   %iv.next = add i32 %iv, 1024
248   call void @sideeffect() nounwind
249   %cmp = icmp ult i32 %iv.next, %N
250   br i1 %cmp, label %for.body, label %for.cond.cleanup
252 for.cond.cleanup:
253   ret void