[DAGCombiner] Add target hook function to decide folding (mul (add x, c1), c2)
[llvm-project.git] / llvm / test / Transforms / InstCombine / saturating-add-sub.ll
blob56463e9a84e2416fd053defbd29182d6679c46a5
1 ; NOTE: Assertions have been autogenerated by utils/update_test_checks.py
2 ; RUN: opt < %s -instcombine -instcombine-infinite-loop-threshold=2 -S | FileCheck %s
5 ; Saturating addition.
8 declare i8 @llvm.uadd.sat.i8(i8, i8)
9 declare i8 @llvm.sadd.sat.i8(i8, i8)
10 declare <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8>, <2 x i8>)
11 declare <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8>, <2 x i8>)
13 ; Constant uadd argument is canonicalized to the right.
14 define i8 @test_scalar_uadd_canonical(i8 %a) {
15 ; CHECK-LABEL: @test_scalar_uadd_canonical(
16 ; CHECK-NEXT:    [[X:%.*]] = call i8 @llvm.uadd.sat.i8(i8 [[A:%.*]], i8 10)
17 ; CHECK-NEXT:    ret i8 [[X]]
19   %x = call i8 @llvm.uadd.sat.i8(i8 10, i8 %a)
20   ret i8 %x
23 define <2 x i8> @test_vector_uadd_canonical(<2 x i8> %a) {
24 ; CHECK-LABEL: @test_vector_uadd_canonical(
25 ; CHECK-NEXT:    [[X:%.*]] = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> [[A:%.*]], <2 x i8> <i8 10, i8 20>)
26 ; CHECK-NEXT:    ret <2 x i8> [[X]]
28   %x = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> <i8 10, i8 20>, <2 x i8> %a)
29   ret <2 x i8> %x
32 ; Constant sadd argument is canonicalized to the right.
33 define i8 @test_scalar_sadd_canonical(i8 %a) {
34 ; CHECK-LABEL: @test_scalar_sadd_canonical(
35 ; CHECK-NEXT:    [[X:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[A:%.*]], i8 -10)
36 ; CHECK-NEXT:    ret i8 [[X]]
38   %x = call i8 @llvm.sadd.sat.i8(i8 -10, i8 %a)
39   ret i8 %x
42 define <2 x i8> @test_vector_sadd_canonical(<2 x i8> %a) {
43 ; CHECK-LABEL: @test_vector_sadd_canonical(
44 ; CHECK-NEXT:    [[X:%.*]] = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> [[A:%.*]], <2 x i8> <i8 10, i8 -20>)
45 ; CHECK-NEXT:    ret <2 x i8> [[X]]
47   %x = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> <i8 10, i8 -20>, <2 x i8> %a)
48   ret <2 x i8> %x
51 ; Can combine uadds with constant operands.
52 define i8 @test_scalar_uadd_combine(i8 %a) {
53 ; CHECK-LABEL: @test_scalar_uadd_combine(
54 ; CHECK-NEXT:    [[TMP1:%.*]] = call i8 @llvm.uadd.sat.i8(i8 [[A:%.*]], i8 30)
55 ; CHECK-NEXT:    ret i8 [[TMP1]]
57   %x1 = call i8 @llvm.uadd.sat.i8(i8 %a, i8 10)
58   %x2 = call i8 @llvm.uadd.sat.i8(i8 %x1, i8 20)
59   ret i8 %x2
62 define <2 x i8> @test_vector_uadd_combine(<2 x i8> %a) {
63 ; CHECK-LABEL: @test_vector_uadd_combine(
64 ; CHECK-NEXT:    [[TMP1:%.*]] = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> [[A:%.*]], <2 x i8> <i8 30, i8 30>)
65 ; CHECK-NEXT:    ret <2 x i8> [[TMP1]]
67   %x1 = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> %a, <2 x i8> <i8 10, i8 10>)
68   %x2 = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> %x1, <2 x i8> <i8 20, i8 20>)
69   ret <2 x i8> %x2
72 ; This could simplify, but currently doesn't.
73 define <2 x i8> @test_vector_uadd_combine_non_splat(<2 x i8> %a) {
74 ; CHECK-LABEL: @test_vector_uadd_combine_non_splat(
75 ; CHECK-NEXT:    [[X1:%.*]] = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> [[A:%.*]], <2 x i8> <i8 10, i8 20>)
76 ; CHECK-NEXT:    [[X2:%.*]] = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> [[X1]], <2 x i8> <i8 30, i8 40>)
77 ; CHECK-NEXT:    ret <2 x i8> [[X2]]
79   %x1 = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> %a, <2 x i8> <i8 10, i8 20>)
80   %x2 = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> %x1, <2 x i8> <i8 30, i8 40>)
81   ret <2 x i8> %x2
84 ; Can combine uadds even if they overflow.
85 define i8 @test_scalar_uadd_overflow(i8 %a) {
86 ; CHECK-LABEL: @test_scalar_uadd_overflow(
87 ; CHECK-NEXT:    ret i8 -1
89   %y1 = call i8 @llvm.uadd.sat.i8(i8 %a, i8 100)
90   %y2 = call i8 @llvm.uadd.sat.i8(i8 %y1, i8 200)
91   ret i8 %y2
94 define <2 x i8> @test_vector_uadd_overflow(<2 x i8> %a) {
95 ; CHECK-LABEL: @test_vector_uadd_overflow(
96 ; CHECK-NEXT:    ret <2 x i8> <i8 -1, i8 -1>
98   %y1 = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> %a, <2 x i8> <i8 100, i8 100>)
99   %y2 = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> %y1, <2 x i8> <i8 200, i8 200>)
100   ret <2 x i8> %y2
103 ; Can combine sadds if sign matches.
104 define i8 @test_scalar_sadd_both_positive(i8 %a) {
105 ; CHECK-LABEL: @test_scalar_sadd_both_positive(
106 ; CHECK-NEXT:    [[TMP1:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[A:%.*]], i8 30)
107 ; CHECK-NEXT:    ret i8 [[TMP1]]
109   %z1 = call i8 @llvm.sadd.sat.i8(i8 %a, i8 10)
110   %z2 = call i8 @llvm.sadd.sat.i8(i8 %z1, i8 20)
111   ret i8 %z2
114 define <2 x i8> @test_vector_sadd_both_positive(<2 x i8> %a) {
115 ; CHECK-LABEL: @test_vector_sadd_both_positive(
116 ; CHECK-NEXT:    [[TMP1:%.*]] = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> [[A:%.*]], <2 x i8> <i8 30, i8 30>)
117 ; CHECK-NEXT:    ret <2 x i8> [[TMP1]]
119   %z1 = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> %a, <2 x i8> <i8 10, i8 10>)
120   %z2 = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> %z1, <2 x i8> <i8 20, i8 20>)
121   ret <2 x i8> %z2
124 define i8 @test_scalar_sadd_both_negative(i8 %a) {
125 ; CHECK-LABEL: @test_scalar_sadd_both_negative(
126 ; CHECK-NEXT:    [[TMP1:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[A:%.*]], i8 -30)
127 ; CHECK-NEXT:    ret i8 [[TMP1]]
129   %u1 = call i8 @llvm.sadd.sat.i8(i8 %a, i8 -10)
130   %u2 = call i8 @llvm.sadd.sat.i8(i8 %u1, i8 -20)
131   ret i8 %u2
134 define <2 x i8> @test_vector_sadd_both_negative(<2 x i8> %a) {
135 ; CHECK-LABEL: @test_vector_sadd_both_negative(
136 ; CHECK-NEXT:    [[TMP1:%.*]] = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> [[A:%.*]], <2 x i8> <i8 -30, i8 -30>)
137 ; CHECK-NEXT:    ret <2 x i8> [[TMP1]]
139   %u1 = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> %a, <2 x i8> <i8 -10, i8 -10>)
140   %u2 = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> %u1, <2 x i8> <i8 -20, i8 -20>)
141   ret <2 x i8> %u2
144 ; Can't combine sadds if constants have different sign.
145 define i8 @test_scalar_sadd_different_sign(i8 %a) {
146 ; CHECK-LABEL: @test_scalar_sadd_different_sign(
147 ; CHECK-NEXT:    [[V1:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[A:%.*]], i8 10)
148 ; CHECK-NEXT:    [[V2:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[V1]], i8 -20)
149 ; CHECK-NEXT:    ret i8 [[V2]]
151   %v1 = call i8 @llvm.sadd.sat.i8(i8 %a, i8 10)
152   %v2 = call i8 @llvm.sadd.sat.i8(i8 %v1, i8 -20)
153   ret i8 %v2
156 ; Can't combine sadds if they overflow.
157 define i8 @test_scalar_sadd_overflow(i8 %a) {
158 ; CHECK-LABEL: @test_scalar_sadd_overflow(
159 ; CHECK-NEXT:    [[W1:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[A:%.*]], i8 100)
160 ; CHECK-NEXT:    [[W2:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[W1]], i8 100)
161 ; CHECK-NEXT:    ret i8 [[W2]]
163   %w1 = call i8 @llvm.sadd.sat.i8(i8 %a, i8 100)
164   %w2 = call i8 @llvm.sadd.sat.i8(i8 %w1, i8 100)
165   ret i8 %w2
168 ; neg uadd neg always overflows.
169 define i8 @test_scalar_uadd_neg_neg(i8 %a) {
170 ; CHECK-LABEL: @test_scalar_uadd_neg_neg(
171 ; CHECK-NEXT:    ret i8 -1
173   %a_neg = or i8 %a, -128
174   %r = call i8 @llvm.uadd.sat.i8(i8 %a_neg, i8 -10)
175   ret i8 %r
178 define <2 x i8> @test_vector_uadd_neg_neg(<2 x i8> %a) {
179 ; CHECK-LABEL: @test_vector_uadd_neg_neg(
180 ; CHECK-NEXT:    ret <2 x i8> <i8 -1, i8 -1>
182   %a_neg = or <2 x i8> %a, <i8 -128, i8 -128>
183   %r = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> %a_neg, <2 x i8> <i8 -10, i8 -20>)
184   ret <2 x i8> %r
187 ; nneg uadd nneg never overflows.
188 define i8 @test_scalar_uadd_nneg_nneg(i8 %a) {
189 ; CHECK-LABEL: @test_scalar_uadd_nneg_nneg(
190 ; CHECK-NEXT:    [[A_NNEG:%.*]] = and i8 [[A:%.*]], 127
191 ; CHECK-NEXT:    [[R:%.*]] = add nuw i8 [[A_NNEG]], 10
192 ; CHECK-NEXT:    ret i8 [[R]]
194   %a_nneg = and i8 %a, 127
195   %r = call i8 @llvm.uadd.sat.i8(i8 %a_nneg, i8 10)
196   ret i8 %r
199 define <2 x i8> @test_vector_uadd_nneg_nneg(<2 x i8> %a) {
200 ; CHECK-LABEL: @test_vector_uadd_nneg_nneg(
201 ; CHECK-NEXT:    [[A_NNEG:%.*]] = and <2 x i8> [[A:%.*]], <i8 127, i8 127>
202 ; CHECK-NEXT:    [[R:%.*]] = add nuw <2 x i8> [[A_NNEG]], <i8 10, i8 20>
203 ; CHECK-NEXT:    ret <2 x i8> [[R]]
205   %a_nneg = and <2 x i8> %a, <i8 127, i8 127>
206   %r = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> %a_nneg, <2 x i8> <i8 10, i8 20>)
207   ret <2 x i8> %r
210 ; neg uadd nneg might overflow.
211 define i8 @test_scalar_uadd_neg_nneg(i8 %a) {
212 ; CHECK-LABEL: @test_scalar_uadd_neg_nneg(
213 ; CHECK-NEXT:    [[A_NEG:%.*]] = or i8 [[A:%.*]], -128
214 ; CHECK-NEXT:    [[R:%.*]] = call i8 @llvm.uadd.sat.i8(i8 [[A_NEG]], i8 10)
215 ; CHECK-NEXT:    ret i8 [[R]]
217   %a_neg = or i8 %a, -128
218   %r = call i8 @llvm.uadd.sat.i8(i8 %a_neg, i8 10)
219   ret i8 %r
222 define <2 x i8> @test_vector_uadd_neg_nneg(<2 x i8> %a) {
223 ; CHECK-LABEL: @test_vector_uadd_neg_nneg(
224 ; CHECK-NEXT:    [[A_NEG:%.*]] = or <2 x i8> [[A:%.*]], <i8 -128, i8 -128>
225 ; CHECK-NEXT:    [[R:%.*]] = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> [[A_NEG]], <2 x i8> <i8 10, i8 20>)
226 ; CHECK-NEXT:    ret <2 x i8> [[R]]
228   %a_neg = or <2 x i8> %a, <i8 -128, i8 -128>
229   %r = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> %a_neg, <2 x i8> <i8 10, i8 20>)
230   ret <2 x i8> %r
233 define i8 @test_scalar_uadd_never_overflows(i8 %a) {
234 ; CHECK-LABEL: @test_scalar_uadd_never_overflows(
235 ; CHECK-NEXT:    [[A_MASKED:%.*]] = and i8 [[A:%.*]], -127
236 ; CHECK-NEXT:    [[R:%.*]] = add nuw nsw i8 [[A_MASKED]], 1
237 ; CHECK-NEXT:    ret i8 [[R]]
239   %a_masked = and i8 %a, 129
240   %r = call i8 @llvm.uadd.sat.i8(i8 %a_masked, i8 1)
241   ret i8 %r
244 define <2 x i8> @test_vector_uadd_never_overflows(<2 x i8> %a) {
245 ; CHECK-LABEL: @test_vector_uadd_never_overflows(
246 ; CHECK-NEXT:    [[A_MASKED:%.*]] = and <2 x i8> [[A:%.*]], <i8 -127, i8 -127>
247 ; CHECK-NEXT:    [[R:%.*]] = add nuw nsw <2 x i8> [[A_MASKED]], <i8 1, i8 1>
248 ; CHECK-NEXT:    ret <2 x i8> [[R]]
250   %a_masked = and <2 x i8> %a, <i8 129, i8 129>
251   %r = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> %a_masked, <2 x i8> <i8 1, i8 1>)
252   ret <2 x i8> %r
255 define i8 @test_scalar_uadd_always_overflows(i8 %a) {
256 ; CHECK-LABEL: @test_scalar_uadd_always_overflows(
257 ; CHECK-NEXT:    ret i8 -1
259   %a_masked = or i8 %a, 192
260   %r = call i8 @llvm.uadd.sat.i8(i8 %a_masked, i8 64)
261   ret i8 %r
264 define <2 x i8> @test_vector_uadd_always_overflows(<2 x i8> %a) {
265 ; CHECK-LABEL: @test_vector_uadd_always_overflows(
266 ; CHECK-NEXT:    ret <2 x i8> <i8 -1, i8 -1>
268   %a_masked = or <2 x i8> %a, <i8 192, i8 192>
269   %r = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> %a_masked, <2 x i8> <i8 64, i8 64>)
270   ret <2 x i8> %r
273 ; neg sadd nneg never overflows.
274 define i8 @test_scalar_sadd_neg_nneg(i8 %a) {
275 ; CHECK-LABEL: @test_scalar_sadd_neg_nneg(
276 ; CHECK-NEXT:    [[A_NEG:%.*]] = or i8 [[A:%.*]], -128
277 ; CHECK-NEXT:    [[R:%.*]] = add nsw i8 [[A_NEG]], 10
278 ; CHECK-NEXT:    ret i8 [[R]]
280   %a_neg = or i8 %a, -128
281   %r = call i8 @llvm.sadd.sat.i8(i8 %a_neg, i8 10)
282   ret i8 %r
285 define <2 x i8> @test_vector_sadd_neg_nneg(<2 x i8> %a) {
286 ; CHECK-LABEL: @test_vector_sadd_neg_nneg(
287 ; CHECK-NEXT:    [[A_NEG:%.*]] = or <2 x i8> [[A:%.*]], <i8 -128, i8 -128>
288 ; CHECK-NEXT:    [[R:%.*]] = add nsw <2 x i8> [[A_NEG]], <i8 10, i8 20>
289 ; CHECK-NEXT:    ret <2 x i8> [[R]]
291   %a_neg = or <2 x i8> %a, <i8 -128, i8 -128>
292   %r = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> %a_neg, <2 x i8> <i8 10, i8 20>)
293   ret <2 x i8> %r
296 ; nneg sadd neg never overflows.
297 define i8 @test_scalar_sadd_nneg_neg(i8 %a) {
298 ; CHECK-LABEL: @test_scalar_sadd_nneg_neg(
299 ; CHECK-NEXT:    [[A_NNEG:%.*]] = and i8 [[A:%.*]], 127
300 ; CHECK-NEXT:    [[R:%.*]] = add nsw i8 [[A_NNEG]], -10
301 ; CHECK-NEXT:    ret i8 [[R]]
303   %a_nneg = and i8 %a, 127
304   %r = call i8 @llvm.sadd.sat.i8(i8 %a_nneg, i8 -10)
305   ret i8 %r
308 define <2 x i8> @test_vector_sadd_nneg_neg(<2 x i8> %a) {
309 ; CHECK-LABEL: @test_vector_sadd_nneg_neg(
310 ; CHECK-NEXT:    [[A_NNEG:%.*]] = and <2 x i8> [[A:%.*]], <i8 127, i8 127>
311 ; CHECK-NEXT:    [[R:%.*]] = add nsw <2 x i8> [[A_NNEG]], <i8 -10, i8 -20>
312 ; CHECK-NEXT:    ret <2 x i8> [[R]]
314   %a_nneg = and <2 x i8> %a, <i8 127, i8 127>
315   %r = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> %a_nneg, <2 x i8> <i8 -10, i8 -20>)
316   ret <2 x i8> %r
319 ; neg sadd neg might overflow.
320 define i8 @test_scalar_sadd_neg_neg(i8 %a) {
321 ; CHECK-LABEL: @test_scalar_sadd_neg_neg(
322 ; CHECK-NEXT:    [[A_NEG:%.*]] = or i8 [[A:%.*]], -128
323 ; CHECK-NEXT:    [[R:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[A_NEG]], i8 -10)
324 ; CHECK-NEXT:    ret i8 [[R]]
326   %a_neg = or i8 %a, -128
327   %r = call i8 @llvm.sadd.sat.i8(i8 %a_neg, i8 -10)
328   ret i8 %r
331 define <2 x i8> @test_vector_sadd_neg_neg(<2 x i8> %a) {
332 ; CHECK-LABEL: @test_vector_sadd_neg_neg(
333 ; CHECK-NEXT:    [[A_NEG:%.*]] = or <2 x i8> [[A:%.*]], <i8 -128, i8 -128>
334 ; CHECK-NEXT:    [[R:%.*]] = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> [[A_NEG]], <2 x i8> <i8 -10, i8 -20>)
335 ; CHECK-NEXT:    ret <2 x i8> [[R]]
337   %a_neg = or <2 x i8> %a, <i8 -128, i8 -128>
338   %r = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> %a_neg, <2 x i8> <i8 -10, i8 -20>)
339   ret <2 x i8> %r
342 define i8 @test_scalar_sadd_always_overflows_low(i8 %a) {
343 ; CHECK-LABEL: @test_scalar_sadd_always_overflows_low(
344 ; CHECK-NEXT:    ret i8 -128
346   %cmp = icmp slt i8 %a, -120
347   %min = select i1 %cmp, i8 %a, i8 -120
348   %r = call i8 @llvm.sadd.sat.i8(i8 %min, i8 -10)
349   ret i8 %r
352 define i8 @test_scalar_sadd_always_overflows_high(i8 %a) {
353 ; CHECK-LABEL: @test_scalar_sadd_always_overflows_high(
354 ; CHECK-NEXT:    ret i8 127
356   %cmp = icmp sgt i8 %a, 120
357   %max = select i1 %cmp, i8 %a, i8 120
358   %r = call i8 @llvm.sadd.sat.i8(i8 %max, i8 10)
359   ret i8 %r
362 ; While this is a no-overflow condition, the nuw flag gets lost due to
363 ; canonicalization and we can no longer determine this
364 define i8 @test_scalar_uadd_sub_nuw_lost_no_ov(i8 %a) {
365 ; CHECK-LABEL: @test_scalar_uadd_sub_nuw_lost_no_ov(
366 ; CHECK-NEXT:    [[B:%.*]] = add i8 [[A:%.*]], -10
367 ; CHECK-NEXT:    [[R:%.*]] = call i8 @llvm.uadd.sat.i8(i8 [[B]], i8 9)
368 ; CHECK-NEXT:    ret i8 [[R]]
370   %b = sub nuw i8 %a, 10
371   %r = call i8 @llvm.uadd.sat.i8(i8 %b, i8 9)
372   ret i8 %r
375 define i8 @test_scalar_uadd_urem_no_ov(i8 %a) {
376 ; CHECK-LABEL: @test_scalar_uadd_urem_no_ov(
377 ; CHECK-NEXT:    [[B:%.*]] = urem i8 [[A:%.*]], 100
378 ; CHECK-NEXT:    [[R:%.*]] = add nuw nsw i8 [[B]], -100
379 ; CHECK-NEXT:    ret i8 [[R]]
381   %b = urem i8 %a, 100
382   %r = call i8 @llvm.uadd.sat.i8(i8 %b, i8 156)
383   ret i8 %r
386 define i8 @test_scalar_uadd_urem_may_ov(i8 %a) {
387 ; CHECK-LABEL: @test_scalar_uadd_urem_may_ov(
388 ; CHECK-NEXT:    [[B:%.*]] = urem i8 [[A:%.*]], 100
389 ; CHECK-NEXT:    [[R:%.*]] = call i8 @llvm.uadd.sat.i8(i8 [[B]], i8 -99)
390 ; CHECK-NEXT:    ret i8 [[R]]
392   %b = urem i8 %a, 100
393   %r = call i8 @llvm.uadd.sat.i8(i8 %b, i8 157)
394   ret i8 %r
397 ; We have a constant range for the LHS, but only known bits for the RHS
398 define i8 @test_scalar_uadd_udiv_known_bits(i8 %a, i8 %b) {
399 ; CHECK-LABEL: @test_scalar_uadd_udiv_known_bits(
400 ; CHECK-NEXT:    [[AA:%.*]] = udiv i8 -66, [[A:%.*]]
401 ; CHECK-NEXT:    [[BB:%.*]] = and i8 [[B:%.*]], 63
402 ; CHECK-NEXT:    [[R:%.*]] = add nuw i8 [[AA]], [[BB]]
403 ; CHECK-NEXT:    ret i8 [[R]]
405   %aa = udiv i8 190, %a
406   %bb = and i8 %b, 63
407   %r = call i8 @llvm.uadd.sat.i8(i8 %aa, i8 %bb)
408   ret i8 %r
411 define i8 @test_scalar_sadd_srem_no_ov(i8 %a) {
412 ; CHECK-LABEL: @test_scalar_sadd_srem_no_ov(
413 ; CHECK-NEXT:    [[B:%.*]] = srem i8 [[A:%.*]], 100
414 ; CHECK-NEXT:    [[R:%.*]] = add nsw i8 [[B]], 28
415 ; CHECK-NEXT:    ret i8 [[R]]
417   %b = srem i8 %a, 100
418   %r = call i8 @llvm.sadd.sat.i8(i8 %b, i8 28)
419   ret i8 %r
422 define i8 @test_scalar_sadd_srem_may_ov(i8 %a) {
423 ; CHECK-LABEL: @test_scalar_sadd_srem_may_ov(
424 ; CHECK-NEXT:    [[B:%.*]] = srem i8 [[A:%.*]], 100
425 ; CHECK-NEXT:    [[R:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[B]], i8 29)
426 ; CHECK-NEXT:    ret i8 [[R]]
428   %b = srem i8 %a, 100
429   %r = call i8 @llvm.sadd.sat.i8(i8 %b, i8 29)
430   ret i8 %r
433 define i8 @test_scalar_sadd_srem_and_no_ov(i8 %a, i8 %b) {
434 ; CHECK-LABEL: @test_scalar_sadd_srem_and_no_ov(
435 ; CHECK-NEXT:    [[AA:%.*]] = srem i8 [[A:%.*]], 100
436 ; CHECK-NEXT:    [[BB:%.*]] = and i8 [[B:%.*]], 15
437 ; CHECK-NEXT:    [[R:%.*]] = add nsw i8 [[AA]], [[BB]]
438 ; CHECK-NEXT:    ret i8 [[R]]
440   %aa = srem i8 %a, 100
441   %bb = and i8 %b, 15
442   %r = call i8 @llvm.sadd.sat.i8(i8 %aa, i8 %bb)
443   ret i8 %r
447 ; Saturating subtraction.
450 declare i8 @llvm.usub.sat.i8(i8, i8)
451 declare i8 @llvm.ssub.sat.i8(i8, i8)
452 declare <2 x i8> @llvm.usub.sat.v2i8(<2 x i8>, <2 x i8>)
453 declare <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8>, <2 x i8>)
455 ; Cannot canonicalize usub to uadd.
456 define i8 @test_scalar_usub_canonical(i8 %a) {
457 ; CHECK-LABEL: @test_scalar_usub_canonical(
458 ; CHECK-NEXT:    [[R:%.*]] = call i8 @llvm.usub.sat.i8(i8 [[A:%.*]], i8 10)
459 ; CHECK-NEXT:    ret i8 [[R]]
461   %r = call i8 @llvm.usub.sat.i8(i8 %a, i8 10)
462   ret i8 %r
465 ; Canonicalize ssub to sadd.
466 define i8 @test_scalar_ssub_canonical(i8 %a) {
467 ; CHECK-LABEL: @test_scalar_ssub_canonical(
468 ; CHECK-NEXT:    [[TMP1:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[A:%.*]], i8 -10)
469 ; CHECK-NEXT:    ret i8 [[TMP1]]
471   %r = call i8 @llvm.ssub.sat.i8(i8 %a, i8 10)
472   ret i8 %r
475 define <2 x i8> @test_vector_ssub_canonical(<2 x i8> %a) {
476 ; CHECK-LABEL: @test_vector_ssub_canonical(
477 ; CHECK-NEXT:    [[TMP1:%.*]] = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> [[A:%.*]], <2 x i8> <i8 -10, i8 -10>)
478 ; CHECK-NEXT:    ret <2 x i8> [[TMP1]]
480   %r = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> %a, <2 x i8> <i8 10, i8 10>)
481   ret <2 x i8> %r
484 define <2 x i8> @test_vector_ssub_canonical_min_non_splat(<2 x i8> %a) {
485 ; CHECK-LABEL: @test_vector_ssub_canonical_min_non_splat(
486 ; CHECK-NEXT:    [[TMP1:%.*]] = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> [[A:%.*]], <2 x i8> <i8 -10, i8 10>)
487 ; CHECK-NEXT:    ret <2 x i8> [[TMP1]]
489   %r = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> %a, <2 x i8> <i8 10, i8 -10>)
490   ret <2 x i8> %r
493 ; Cannot canonicalize signed min.
494 define i8 @test_scalar_ssub_canonical_min(i8 %a) {
495 ; CHECK-LABEL: @test_scalar_ssub_canonical_min(
496 ; CHECK-NEXT:    [[R:%.*]] = call i8 @llvm.ssub.sat.i8(i8 [[A:%.*]], i8 -128)
497 ; CHECK-NEXT:    ret i8 [[R]]
499   %r = call i8 @llvm.ssub.sat.i8(i8 %a, i8 -128)
500   ret i8 %r
503 define <2 x i8> @test_vector_ssub_canonical_min(<2 x i8> %a) {
504 ; CHECK-LABEL: @test_vector_ssub_canonical_min(
505 ; CHECK-NEXT:    [[R:%.*]] = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> [[A:%.*]], <2 x i8> <i8 -128, i8 -10>)
506 ; CHECK-NEXT:    ret <2 x i8> [[R]]
508   %r = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> %a, <2 x i8> <i8 -128, i8 -10>)
509   ret <2 x i8> %r
512 ; Can combine usubs with constant operands.
513 define i8 @test_scalar_usub_combine(i8 %a) {
514 ; CHECK-LABEL: @test_scalar_usub_combine(
515 ; CHECK-NEXT:    [[TMP1:%.*]] = call i8 @llvm.usub.sat.i8(i8 [[A:%.*]], i8 30)
516 ; CHECK-NEXT:    ret i8 [[TMP1]]
518   %x1 = call i8 @llvm.usub.sat.i8(i8 %a, i8 10)
519   %x2 = call i8 @llvm.usub.sat.i8(i8 %x1, i8 20)
520   ret i8 %x2
523 define <2 x i8> @test_vector_usub_combine(<2 x i8> %a) {
524 ; CHECK-LABEL: @test_vector_usub_combine(
525 ; CHECK-NEXT:    [[TMP1:%.*]] = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> [[A:%.*]], <2 x i8> <i8 30, i8 30>)
526 ; CHECK-NEXT:    ret <2 x i8> [[TMP1]]
528   %x1 = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %a, <2 x i8> <i8 10, i8 10>)
529   %x2 = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %x1, <2 x i8> <i8 20, i8 20>)
530   ret <2 x i8> %x2
533 ; This could simplify, but currently doesn't.
534 define <2 x i8> @test_vector_usub_combine_non_splat(<2 x i8> %a) {
535 ; CHECK-LABEL: @test_vector_usub_combine_non_splat(
536 ; CHECK-NEXT:    [[X1:%.*]] = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> [[A:%.*]], <2 x i8> <i8 10, i8 20>)
537 ; CHECK-NEXT:    [[X2:%.*]] = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> [[X1]], <2 x i8> <i8 30, i8 40>)
538 ; CHECK-NEXT:    ret <2 x i8> [[X2]]
540   %x1 = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %a, <2 x i8> <i8 10, i8 20>)
541   %x2 = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %x1, <2 x i8> <i8 30, i8 40>)
542   ret <2 x i8> %x2
545 ; Can combine usubs even if they overflow.
546 define i8 @test_scalar_usub_overflow(i8 %a) {
547 ; CHECK-LABEL: @test_scalar_usub_overflow(
548 ; CHECK-NEXT:    ret i8 0
550   %y1 = call i8 @llvm.usub.sat.i8(i8 %a, i8 100)
551   %y2 = call i8 @llvm.usub.sat.i8(i8 %y1, i8 200)
552   ret i8 %y2
555 define <2 x i8> @test_vector_usub_overflow(<2 x i8> %a) {
556 ; CHECK-LABEL: @test_vector_usub_overflow(
557 ; CHECK-NEXT:    ret <2 x i8> zeroinitializer
559   %y1 = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %a, <2 x i8> <i8 100, i8 100>)
560   %y2 = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %y1, <2 x i8> <i8 200, i8 200>)
561   ret <2 x i8> %y2
564 ; Can combine ssubs if sign matches.
565 define i8 @test_scalar_ssub_both_positive(i8 %a) {
566 ; CHECK-LABEL: @test_scalar_ssub_both_positive(
567 ; CHECK-NEXT:    [[TMP1:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[A:%.*]], i8 -30)
568 ; CHECK-NEXT:    ret i8 [[TMP1]]
570   %z1 = call i8 @llvm.ssub.sat.i8(i8 %a, i8 10)
571   %z2 = call i8 @llvm.ssub.sat.i8(i8 %z1, i8 20)
572   ret i8 %z2
575 define <2 x i8> @test_vector_ssub_both_positive(<2 x i8> %a) {
576 ; CHECK-LABEL: @test_vector_ssub_both_positive(
577 ; CHECK-NEXT:    [[TMP1:%.*]] = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> [[A:%.*]], <2 x i8> <i8 -30, i8 -30>)
578 ; CHECK-NEXT:    ret <2 x i8> [[TMP1]]
580   %z1 = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> %a, <2 x i8> <i8 10, i8 10>)
581   %z2 = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> %z1, <2 x i8> <i8 20, i8 20>)
582   ret <2 x i8> %z2
585 define i8 @test_scalar_ssub_both_negative(i8 %a) {
586 ; CHECK-LABEL: @test_scalar_ssub_both_negative(
587 ; CHECK-NEXT:    [[TMP1:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[A:%.*]], i8 30)
588 ; CHECK-NEXT:    ret i8 [[TMP1]]
590   %u1 = call i8 @llvm.ssub.sat.i8(i8 %a, i8 -10)
591   %u2 = call i8 @llvm.ssub.sat.i8(i8 %u1, i8 -20)
592   ret i8 %u2
595 define <2 x i8> @test_vector_ssub_both_negative(<2 x i8> %a) {
596 ; CHECK-LABEL: @test_vector_ssub_both_negative(
597 ; CHECK-NEXT:    [[TMP1:%.*]] = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> [[A:%.*]], <2 x i8> <i8 30, i8 30>)
598 ; CHECK-NEXT:    ret <2 x i8> [[TMP1]]
600   %u1 = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> %a, <2 x i8> <i8 -10, i8 -10>)
601   %u2 = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> %u1, <2 x i8> <i8 -20, i8 -20>)
602   ret <2 x i8> %u2
605 ; Can't combine ssubs if constants have different sign.
606 define i8 @test_scalar_ssub_different_sign(i8 %a) {
607 ; CHECK-LABEL: @test_scalar_ssub_different_sign(
608 ; CHECK-NEXT:    [[TMP1:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[A:%.*]], i8 -10)
609 ; CHECK-NEXT:    [[TMP2:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[TMP1]], i8 20)
610 ; CHECK-NEXT:    ret i8 [[TMP2]]
612   %v1 = call i8 @llvm.ssub.sat.i8(i8 %a, i8 10)
613   %v2 = call i8 @llvm.ssub.sat.i8(i8 %v1, i8 -20)
614   ret i8 %v2
617 ; Can combine sadd and ssub with appropriate signs.
618 define i8 @test_scalar_sadd_ssub(i8 %a) {
619 ; CHECK-LABEL: @test_scalar_sadd_ssub(
620 ; CHECK-NEXT:    [[TMP1:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[A:%.*]], i8 30)
621 ; CHECK-NEXT:    ret i8 [[TMP1]]
623   %v1 = call i8 @llvm.sadd.sat.i8(i8 10, i8 %a)
624   %v2 = call i8 @llvm.ssub.sat.i8(i8 %v1, i8 -20)
625   ret i8 %v2
628 define <2 x i8> @test_vector_sadd_ssub(<2 x i8> %a) {
629 ; CHECK-LABEL: @test_vector_sadd_ssub(
630 ; CHECK-NEXT:    [[TMP1:%.*]] = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> [[A:%.*]], <2 x i8> <i8 -30, i8 -30>)
631 ; CHECK-NEXT:    ret <2 x i8> [[TMP1]]
633   %v1 = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> <i8 -10, i8 -10>, <2 x i8> %a)
634   %v2 = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> %v1, <2 x i8> <i8 20, i8 20>)
635   ret <2 x i8> %v2
638 ; Can't combine ssubs if they overflow.
639 define i8 @test_scalar_ssub_overflow(i8 %a) {
640 ; CHECK-LABEL: @test_scalar_ssub_overflow(
641 ; CHECK-NEXT:    [[TMP1:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[A:%.*]], i8 -100)
642 ; CHECK-NEXT:    [[TMP2:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[TMP1]], i8 -100)
643 ; CHECK-NEXT:    ret i8 [[TMP2]]
645   %w1 = call i8 @llvm.ssub.sat.i8(i8 %a, i8 100)
646   %w2 = call i8 @llvm.ssub.sat.i8(i8 %w1, i8 100)
647   ret i8 %w2
650 ; nneg usub neg always overflows.
651 define i8 @test_scalar_usub_nneg_neg(i8 %a) {
652 ; CHECK-LABEL: @test_scalar_usub_nneg_neg(
653 ; CHECK-NEXT:    ret i8 0
655   %a_nneg = and i8 %a, 127
656   %r = call i8 @llvm.usub.sat.i8(i8 %a_nneg, i8 -10)
657   ret i8 %r
660 define <2 x i8> @test_vector_usub_nneg_neg(<2 x i8> %a) {
661 ; CHECK-LABEL: @test_vector_usub_nneg_neg(
662 ; CHECK-NEXT:    ret <2 x i8> zeroinitializer
664   %a_nneg = and <2 x i8> %a, <i8 127, i8 127>
665   %r = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %a_nneg, <2 x i8> <i8 -10, i8 -20>)
666   ret <2 x i8> %r
669 ; neg usub nneg never overflows.
670 define i8 @test_scalar_usub_neg_nneg(i8 %a) {
671 ; CHECK-LABEL: @test_scalar_usub_neg_nneg(
672 ; CHECK-NEXT:    [[A_NEG:%.*]] = or i8 [[A:%.*]], -128
673 ; CHECK-NEXT:    [[R:%.*]] = add i8 [[A_NEG]], -10
674 ; CHECK-NEXT:    ret i8 [[R]]
676   %a_neg = or i8 %a, -128
677   %r = call i8 @llvm.usub.sat.i8(i8 %a_neg, i8 10)
678   ret i8 %r
681 define <2 x i8> @test_vector_usub_neg_nneg(<2 x i8> %a) {
682 ; CHECK-LABEL: @test_vector_usub_neg_nneg(
683 ; CHECK-NEXT:    [[A_NEG:%.*]] = or <2 x i8> [[A:%.*]], <i8 -128, i8 -128>
684 ; CHECK-NEXT:    [[R:%.*]] = add <2 x i8> [[A_NEG]], <i8 -10, i8 -20>
685 ; CHECK-NEXT:    ret <2 x i8> [[R]]
687   %a_neg = or <2 x i8> %a, <i8 -128, i8 -128>
688   %r = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %a_neg, <2 x i8> <i8 10, i8 20>)
689   ret <2 x i8> %r
692 ; nneg usub nneg never may overflow.
693 define i8 @test_scalar_usub_nneg_nneg(i8 %a) {
694 ; CHECK-LABEL: @test_scalar_usub_nneg_nneg(
695 ; CHECK-NEXT:    [[A_NNEG:%.*]] = and i8 [[A:%.*]], 127
696 ; CHECK-NEXT:    [[R:%.*]] = call i8 @llvm.usub.sat.i8(i8 [[A_NNEG]], i8 10)
697 ; CHECK-NEXT:    ret i8 [[R]]
699   %a_nneg = and i8 %a, 127
700   %r = call i8 @llvm.usub.sat.i8(i8 %a_nneg, i8 10)
701   ret i8 %r
704 define <2 x i8> @test_vector_usub_nneg_nneg(<2 x i8> %a) {
705 ; CHECK-LABEL: @test_vector_usub_nneg_nneg(
706 ; CHECK-NEXT:    [[A_NNEG:%.*]] = and <2 x i8> [[A:%.*]], <i8 127, i8 127>
707 ; CHECK-NEXT:    [[R:%.*]] = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> [[A_NNEG]], <2 x i8> <i8 10, i8 20>)
708 ; CHECK-NEXT:    ret <2 x i8> [[R]]
710   %a_nneg = and <2 x i8> %a, <i8 127, i8 127>
711   %r = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %a_nneg, <2 x i8> <i8 10, i8 20>)
712   ret <2 x i8> %r
715 define i8 @test_scalar_usub_never_overflows(i8 %a) {
716 ; CHECK-LABEL: @test_scalar_usub_never_overflows(
717 ; CHECK-NEXT:    [[A_MASKED:%.*]] = or i8 [[A:%.*]], 64
718 ; CHECK-NEXT:    [[R:%.*]] = add nsw i8 [[A_MASKED]], -10
719 ; CHECK-NEXT:    ret i8 [[R]]
721   %a_masked = or i8 %a, 64
722   %r = call i8 @llvm.usub.sat.i8(i8 %a_masked, i8 10)
723   ret i8 %r
726 define <2 x i8> @test_vector_usub_never_overflows(<2 x i8> %a) {
727 ; CHECK-LABEL: @test_vector_usub_never_overflows(
728 ; CHECK-NEXT:    [[A_MASKED:%.*]] = or <2 x i8> [[A:%.*]], <i8 64, i8 64>
729 ; CHECK-NEXT:    [[R:%.*]] = add nsw <2 x i8> [[A_MASKED]], <i8 -10, i8 -10>
730 ; CHECK-NEXT:    ret <2 x i8> [[R]]
732   %a_masked = or <2 x i8> %a, <i8 64, i8 64>
733   %r = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %a_masked, <2 x i8> <i8 10, i8 10>)
734   ret <2 x i8> %r
737 define i8 @test_scalar_usub_always_overflows(i8 %a) {
738 ; CHECK-LABEL: @test_scalar_usub_always_overflows(
739 ; CHECK-NEXT:    ret i8 0
741   %a_masked = and i8 %a, 64
742   %r = call i8 @llvm.usub.sat.i8(i8 %a_masked, i8 100)
743   ret i8 %r
746 define <2 x i8> @test_vector_usub_always_overflows(<2 x i8> %a) {
747 ; CHECK-LABEL: @test_vector_usub_always_overflows(
748 ; CHECK-NEXT:    ret <2 x i8> zeroinitializer
750   %a_masked = and <2 x i8> %a, <i8 64, i8 64>
751   %r = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %a_masked, <2 x i8> <i8 100, i8 100>)
752   ret <2 x i8> %r
755 ; neg ssub neg never overflows.
756 define i8 @test_scalar_ssub_neg_neg(i8 %a) {
757 ; CHECK-LABEL: @test_scalar_ssub_neg_neg(
758 ; CHECK-NEXT:    [[A_NEG:%.*]] = or i8 [[A:%.*]], -128
759 ; CHECK-NEXT:    [[R:%.*]] = add nsw i8 [[A_NEG]], 10
760 ; CHECK-NEXT:    ret i8 [[R]]
762   %a_neg = or i8 %a, -128
763   %r = call i8 @llvm.ssub.sat.i8(i8 %a_neg, i8 -10)
764   ret i8 %r
767 define <2 x i8> @test_vector_ssub_neg_neg(<2 x i8> %a) {
768 ; CHECK-LABEL: @test_vector_ssub_neg_neg(
769 ; CHECK-NEXT:    [[A_NEG:%.*]] = or <2 x i8> [[A:%.*]], <i8 -128, i8 -128>
770 ; CHECK-NEXT:    [[R:%.*]] = add nsw <2 x i8> [[A_NEG]], <i8 10, i8 20>
771 ; CHECK-NEXT:    ret <2 x i8> [[R]]
773   %a_neg = or <2 x i8> %a, <i8 -128, i8 -128>
774   %r = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> %a_neg, <2 x i8> <i8 -10, i8 -20>)
775   ret <2 x i8> %r
778 ; nneg ssub nneg never overflows.
779 define i8 @test_scalar_ssub_nneg_nneg(i8 %a) {
780 ; CHECK-LABEL: @test_scalar_ssub_nneg_nneg(
781 ; CHECK-NEXT:    [[A_NNEG:%.*]] = and i8 [[A:%.*]], 127
782 ; CHECK-NEXT:    [[R:%.*]] = add nsw i8 [[A_NNEG]], -10
783 ; CHECK-NEXT:    ret i8 [[R]]
785   %a_nneg = and i8 %a, 127
786   %r = call i8 @llvm.ssub.sat.i8(i8 %a_nneg, i8 10)
787   ret i8 %r
790 define <2 x i8> @test_vector_ssub_nneg_nneg(<2 x i8> %a) {
791 ; CHECK-LABEL: @test_vector_ssub_nneg_nneg(
792 ; CHECK-NEXT:    [[A_NNEG:%.*]] = and <2 x i8> [[A:%.*]], <i8 127, i8 127>
793 ; CHECK-NEXT:    [[R:%.*]] = add nsw <2 x i8> [[A_NNEG]], <i8 -10, i8 -20>
794 ; CHECK-NEXT:    ret <2 x i8> [[R]]
796   %a_nneg = and <2 x i8> %a, <i8 127, i8 127>
797   %r = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> %a_nneg, <2 x i8> <i8 10, i8 20>)
798   ret <2 x i8> %r
801 ; neg ssub nneg may overflow.
802 define i8 @test_scalar_ssub_neg_nneg(i8 %a) {
803 ; CHECK-LABEL: @test_scalar_ssub_neg_nneg(
804 ; CHECK-NEXT:    [[A_NEG:%.*]] = or i8 [[A:%.*]], -128
805 ; CHECK-NEXT:    [[TMP1:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[A_NEG]], i8 -10)
806 ; CHECK-NEXT:    ret i8 [[TMP1]]
808   %a_neg = or i8 %a, -128
809   %r = call i8 @llvm.ssub.sat.i8(i8 %a_neg, i8 10)
810   ret i8 %r
813 define <2 x i8> @test_vector_ssub_neg_nneg(<2 x i8> %a) {
814 ; CHECK-LABEL: @test_vector_ssub_neg_nneg(
815 ; CHECK-NEXT:    [[A_NEG:%.*]] = or <2 x i8> [[A:%.*]], <i8 -128, i8 -128>
816 ; CHECK-NEXT:    [[TMP1:%.*]] = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> [[A_NEG]], <2 x i8> <i8 -10, i8 -20>)
817 ; CHECK-NEXT:    ret <2 x i8> [[TMP1]]
819   %a_neg = or <2 x i8> %a, <i8 -128, i8 -128>
820   %r = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> %a_neg, <2 x i8> <i8 10, i8 20>)
821   ret <2 x i8> %r
824 define i8 @test_scalar_ssub_always_overflows_low(i8 %a) {
825 ; CHECK-LABEL: @test_scalar_ssub_always_overflows_low(
826 ; CHECK-NEXT:    ret i8 -128
828   %cmp = icmp sgt i8 %a, 120
829   %max = select i1 %cmp, i8 %a, i8 120
830   %r = call i8 @llvm.ssub.sat.i8(i8 -10, i8 %max)
831   ret i8 %r
834 define i8 @test_scalar_ssub_always_overflows_high(i8 %a) {
835 ; CHECK-LABEL: @test_scalar_ssub_always_overflows_high(
836 ; CHECK-NEXT:    ret i8 127
838   %cmp = icmp slt i8 %a, -120
839   %min = select i1 %cmp, i8 %a, i8 -120
840   %r = call i8 @llvm.ssub.sat.i8(i8 10, i8 %min)
841   ret i8 %r
844 define i8 @test_scalar_usub_add_nuw_no_ov(i8 %a) {
845 ; CHECK-LABEL: @test_scalar_usub_add_nuw_no_ov(
846 ; CHECK-NEXT:    [[R:%.*]] = add i8 [[A:%.*]], 1
847 ; CHECK-NEXT:    ret i8 [[R]]
849   %b = add nuw i8 %a, 10
850   %r = call i8 @llvm.usub.sat.i8(i8 %b, i8 9)
851   ret i8 %r
854 define i8 @test_scalar_usub_add_nuw_eq(i8 %a) {
855 ; CHECK-LABEL: @test_scalar_usub_add_nuw_eq(
856 ; CHECK-NEXT:    ret i8 [[A:%.*]]
858   %b = add nuw i8 %a, 10
859   %r = call i8 @llvm.usub.sat.i8(i8 %b, i8 10)
860   ret i8 %r
863 define i8 @test_scalar_usub_add_nuw_may_ov(i8 %a) {
864 ; CHECK-LABEL: @test_scalar_usub_add_nuw_may_ov(
865 ; CHECK-NEXT:    [[B:%.*]] = add nuw i8 [[A:%.*]], 10
866 ; CHECK-NEXT:    [[R:%.*]] = call i8 @llvm.usub.sat.i8(i8 [[B]], i8 11)
867 ; CHECK-NEXT:    ret i8 [[R]]
869   %b = add nuw i8 %a, 10
870   %r = call i8 @llvm.usub.sat.i8(i8 %b, i8 11)
871   ret i8 %r
874 define i8 @test_scalar_usub_urem_must_ov(i8 %a) {
875 ; CHECK-LABEL: @test_scalar_usub_urem_must_ov(
876 ; CHECK-NEXT:    ret i8 0
878   %b = urem i8 %a, 10
879   %r = call i8 @llvm.usub.sat.i8(i8 %b, i8 10)
880   ret i8 %r
883 ; Like the previous case, the result is always zero here. However, as there's
884 ; no actual overflow, we won't know about it.
885 define i8 @test_scalar_usub_urem_must_zero(i8 %a) {
886 ; CHECK-LABEL: @test_scalar_usub_urem_must_zero(
887 ; CHECK-NEXT:    [[B:%.*]] = urem i8 [[A:%.*]], 10
888 ; CHECK-NEXT:    [[R:%.*]] = call i8 @llvm.usub.sat.i8(i8 [[B]], i8 9)
889 ; CHECK-NEXT:    ret i8 [[R]]
891   %b = urem i8 %a, 10
892   %r = call i8 @llvm.usub.sat.i8(i8 %b, i8 9)
893   ret i8 %r
896 ; We have a constant range for the LHS, but only known bits for the RHS
897 define i8 @test_scalar_usub_add_nuw_known_bits(i8 %a, i8 %b) {
898 ; CHECK-LABEL: @test_scalar_usub_add_nuw_known_bits(
899 ; CHECK-NEXT:    [[AA:%.*]] = add nuw i8 [[A:%.*]], 10
900 ; CHECK-NEXT:    [[BB:%.*]] = and i8 [[B:%.*]], 7
901 ; CHECK-NEXT:    [[R:%.*]] = sub nuw i8 [[AA]], [[BB]]
902 ; CHECK-NEXT:    ret i8 [[R]]
904   %aa = add nuw i8 %a, 10
905   %bb = and i8 %b, 7
906   %r = call i8 @llvm.usub.sat.i8(i8 %aa, i8 %bb)
907   ret i8 %r
910 define i8 @test_scalar_usub_add_nuw_inferred(i8 %a) {
911 ; CHECK-LABEL: @test_scalar_usub_add_nuw_inferred(
912 ; CHECK-NEXT:    [[B:%.*]] = call i8 @llvm.usub.sat.i8(i8 [[A:%.*]], i8 10)
913 ; CHECK-NEXT:    [[R:%.*]] = add nuw i8 [[B]], 9
914 ; CHECK-NEXT:    ret i8 [[R]]
916   %b = call i8 @llvm.usub.sat.i8(i8 %a, i8 10)
917   %r = add i8 %b, 9
918   ret i8 %r
921 define <2 x i8> @test_vector_usub_add_nuw_no_ov(<2 x i8> %a) {
922 ; CHECK-LABEL: @test_vector_usub_add_nuw_no_ov(
923 ; CHECK-NEXT:    [[R:%.*]] = add <2 x i8> [[A:%.*]], <i8 1, i8 1>
924 ; CHECK-NEXT:    ret <2 x i8> [[R]]
926   %b = add nuw <2 x i8> %a, <i8 10, i8 10>
927   %r = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %b, <2 x i8> <i8 9, i8 9>)
928   ret <2 x i8> %r
931 ; Can be optimized if the usub.sat RHS constant range handles non-splat vectors.
932 define <2 x i8> @test_vector_usub_add_nuw_no_ov_nonsplat1(<2 x i8> %a) {
933 ; CHECK-LABEL: @test_vector_usub_add_nuw_no_ov_nonsplat1(
934 ; CHECK-NEXT:    [[B:%.*]] = add nuw <2 x i8> [[A:%.*]], <i8 10, i8 10>
935 ; CHECK-NEXT:    [[R:%.*]] = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> [[B]], <2 x i8> <i8 10, i8 9>)
936 ; CHECK-NEXT:    ret <2 x i8> [[R]]
938   %b = add nuw <2 x i8> %a, <i8 10, i8 10>
939   %r = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %b, <2 x i8> <i8 10, i8 9>)
940   ret <2 x i8> %r
943 ; Can be optimized if the add nuw RHS constant range handles non-splat vectors.
944 define <2 x i8> @test_vector_usub_add_nuw_no_ov_nonsplat2(<2 x i8> %a) {
945 ; CHECK-LABEL: @test_vector_usub_add_nuw_no_ov_nonsplat2(
946 ; CHECK-NEXT:    [[B:%.*]] = add nuw <2 x i8> [[A:%.*]], <i8 10, i8 9>
947 ; CHECK-NEXT:    [[R:%.*]] = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> [[B]], <2 x i8> <i8 9, i8 9>)
948 ; CHECK-NEXT:    ret <2 x i8> [[R]]
950   %b = add nuw <2 x i8> %a, <i8 10, i8 9>
951   %r = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %b, <2 x i8> <i8 9, i8 9>)
952   ret <2 x i8> %r
955 ; Can be optimized if constant range is tracked per-element.
956 define <2 x i8> @test_vector_usub_add_nuw_no_ov_nonsplat3(<2 x i8> %a) {
957 ; CHECK-LABEL: @test_vector_usub_add_nuw_no_ov_nonsplat3(
958 ; CHECK-NEXT:    [[B:%.*]] = add nuw <2 x i8> [[A:%.*]], <i8 10, i8 9>
959 ; CHECK-NEXT:    [[R:%.*]] = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> [[B]], <2 x i8> <i8 10, i8 9>)
960 ; CHECK-NEXT:    ret <2 x i8> [[R]]
962   %b = add nuw <2 x i8> %a, <i8 10, i8 9>
963   %r = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %b, <2 x i8> <i8 10, i8 9>)
964   ret <2 x i8> %r
967 define i8 @test_scalar_ssub_add_nsw_no_ov(i8 %a, i8 %b) {
968 ; CHECK-LABEL: @test_scalar_ssub_add_nsw_no_ov(
969 ; CHECK-NEXT:    [[AA:%.*]] = add nsw i8 [[A:%.*]], 7
970 ; CHECK-NEXT:    [[BB:%.*]] = and i8 [[B:%.*]], 7
971 ; CHECK-NEXT:    [[R:%.*]] = sub nsw i8 [[AA]], [[BB]]
972 ; CHECK-NEXT:    ret i8 [[R]]
974   %aa = add nsw i8 %a, 7
975   %bb = and i8 %b, 7
976   %r = call i8 @llvm.ssub.sat.i8(i8 %aa, i8 %bb)
977   ret i8 %r
980 define i8 @test_scalar_ssub_add_nsw_may_ov(i8 %a, i8 %b) {
981 ; CHECK-LABEL: @test_scalar_ssub_add_nsw_may_ov(
982 ; CHECK-NEXT:    [[AA:%.*]] = add nsw i8 [[A:%.*]], 6
983 ; CHECK-NEXT:    [[BB:%.*]] = and i8 [[B:%.*]], 7
984 ; CHECK-NEXT:    [[R:%.*]] = call i8 @llvm.ssub.sat.i8(i8 [[AA]], i8 [[BB]])
985 ; CHECK-NEXT:    ret i8 [[R]]
987   %aa = add nsw i8 %a, 6
988   %bb = and i8 %b, 7
989   %r = call i8 @llvm.ssub.sat.i8(i8 %aa, i8 %bb)
990   ret i8 %r
993 define <2 x i8> @test_vector_ssub_add_nsw_no_ov_splat(<2 x i8> %a, <2 x i8> %b) {
994 ; CHECK-LABEL: @test_vector_ssub_add_nsw_no_ov_splat(
995 ; CHECK-NEXT:    [[AA:%.*]] = add nsw <2 x i8> [[A:%.*]], <i8 7, i8 7>
996 ; CHECK-NEXT:    [[BB:%.*]] = and <2 x i8> [[B:%.*]], <i8 7, i8 7>
997 ; CHECK-NEXT:    [[R:%.*]] = sub nsw <2 x i8> [[AA]], [[BB]]
998 ; CHECK-NEXT:    ret <2 x i8> [[R]]
1000   %aa = add nsw <2 x i8> %a, <i8 7, i8 7>
1001   %bb = and <2 x i8> %b, <i8 7, i8 7>
1002   %r = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> %aa, <2 x i8> %bb)
1003   ret <2 x i8> %r
1006 define <2 x i8> @test_vector_ssub_add_nsw_no_ov_nonsplat1(<2 x i8> %a, <2 x i8> %b) {
1007 ; CHECK-LABEL: @test_vector_ssub_add_nsw_no_ov_nonsplat1(
1008 ; CHECK-NEXT:    [[AA:%.*]] = add nsw <2 x i8> [[A:%.*]], <i8 7, i8 7>
1009 ; CHECK-NEXT:    [[BB:%.*]] = and <2 x i8> [[B:%.*]], <i8 7, i8 6>
1010 ; CHECK-NEXT:    [[R:%.*]] = sub nsw <2 x i8> [[AA]], [[BB]]
1011 ; CHECK-NEXT:    ret <2 x i8> [[R]]
1013   %aa = add nsw <2 x i8> %a, <i8 7, i8 7>
1014   %bb = and <2 x i8> %b, <i8 7, i8 6>
1015   %r = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> %aa, <2 x i8> %bb)
1016   ret <2 x i8> %r
1019 define <2 x i8> @test_vector_ssub_add_nsw_no_ov_nonsplat2(<2 x i8> %a, <2 x i8> %b) {
1020 ; CHECK-LABEL: @test_vector_ssub_add_nsw_no_ov_nonsplat2(
1021 ; CHECK-NEXT:    [[AA:%.*]] = add nsw <2 x i8> [[A:%.*]], <i8 7, i8 8>
1022 ; CHECK-NEXT:    [[BB:%.*]] = and <2 x i8> [[B:%.*]], <i8 7, i8 7>
1023 ; CHECK-NEXT:    [[R:%.*]] = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> [[AA]], <2 x i8> [[BB]])
1024 ; CHECK-NEXT:    ret <2 x i8> [[R]]
1026   %aa = add nsw <2 x i8> %a, <i8 7, i8 8>
1027   %bb = and <2 x i8> %b, <i8 7, i8 7>
1028   %r = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> %aa, <2 x i8> %bb)
1029   ret <2 x i8> %r
1032 define <2 x i8> @test_vector_ssub_add_nsw_no_ov_nonsplat3(<2 x i8> %a, <2 x i8> %b) {
1033 ; CHECK-LABEL: @test_vector_ssub_add_nsw_no_ov_nonsplat3(
1034 ; CHECK-NEXT:    [[AA:%.*]] = add nsw <2 x i8> [[A:%.*]], <i8 7, i8 6>
1035 ; CHECK-NEXT:    [[BB:%.*]] = and <2 x i8> [[B:%.*]], <i8 7, i8 6>
1036 ; CHECK-NEXT:    [[R:%.*]] = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> [[AA]], <2 x i8> [[BB]])
1037 ; CHECK-NEXT:    ret <2 x i8> [[R]]
1039   %aa = add nsw <2 x i8> %a, <i8 7, i8 6>
1040   %bb = and <2 x i8> %b, <i8 7, i8 6>
1041   %r = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> %aa, <2 x i8> %bb)
1042   ret <2 x i8> %r
1045 define i8 @test_scalar_usub_add(i8 %a, i8 %b) {
1046 ; CHECK-LABEL: @test_scalar_usub_add(
1047 ; CHECK-NEXT:    [[TMP1:%.*]] = call i8 @llvm.umax.i8(i8 [[A:%.*]], i8 [[B:%.*]])
1048 ; CHECK-NEXT:    ret i8 [[TMP1]]
1050   %sat = call i8 @llvm.usub.sat.i8(i8 %a, i8 %b)
1051   %res = add i8 %sat, %b
1052   ret i8 %res
1055 define i8 @test_scalar_usub_add_extra_use(i8 %a, i8 %b, i8* %p) {
1056 ; CHECK-LABEL: @test_scalar_usub_add_extra_use(
1057 ; CHECK-NEXT:    [[SAT:%.*]] = call i8 @llvm.usub.sat.i8(i8 [[A:%.*]], i8 [[B:%.*]])
1058 ; CHECK-NEXT:    store i8 [[SAT]], i8* [[P:%.*]], align 1
1059 ; CHECK-NEXT:    [[RES:%.*]] = add i8 [[SAT]], [[B]]
1060 ; CHECK-NEXT:    ret i8 [[RES]]
1062   %sat = call i8 @llvm.usub.sat.i8(i8 %a, i8 %b)
1063   store i8 %sat, i8* %p
1064   %res = add i8 %sat, %b
1065   ret i8 %res
1068 define i8 @test_scalar_usub_add_commuted(i8 %a, i8 %b) {
1069 ; CHECK-LABEL: @test_scalar_usub_add_commuted(
1070 ; CHECK-NEXT:    [[TMP1:%.*]] = call i8 @llvm.umax.i8(i8 [[A:%.*]], i8 [[B:%.*]])
1071 ; CHECK-NEXT:    ret i8 [[TMP1]]
1073   %sat = call i8 @llvm.usub.sat.i8(i8 %a, i8 %b)
1074   %res = add i8 %b, %sat
1075   ret i8 %res
1078 define i8 @test_scalar_usub_add_commuted_wrong(i8 %a, i8 %b) {
1079 ; CHECK-LABEL: @test_scalar_usub_add_commuted_wrong(
1080 ; CHECK-NEXT:    [[SAT:%.*]] = call i8 @llvm.usub.sat.i8(i8 [[B:%.*]], i8 [[A:%.*]])
1081 ; CHECK-NEXT:    [[RES:%.*]] = add i8 [[SAT]], [[B]]
1082 ; CHECK-NEXT:    ret i8 [[RES]]
1084   %sat = call i8 @llvm.usub.sat.i8(i8 %b, i8 %a)
1085   %res = add i8 %sat, %b
1086   ret i8 %res
1089 define i8 @test_scalar_usub_add_const(i8 %a) {
1090 ; CHECK-LABEL: @test_scalar_usub_add_const(
1091 ; CHECK-NEXT:    [[TMP1:%.*]] = call i8 @llvm.umax.i8(i8 [[A:%.*]], i8 42)
1092 ; CHECK-NEXT:    ret i8 [[TMP1]]
1094   %sat = call i8 @llvm.usub.sat.i8(i8 %a, i8 42)
1095   %res = add i8 %sat, 42
1096   ret i8 %res
1099 define i8 @test_scalar_usub_sub(i8 %a, i8 %b) {
1100 ; CHECK-LABEL: @test_scalar_usub_sub(
1101 ; CHECK-NEXT:    [[TMP1:%.*]] = call i8 @llvm.umin.i8(i8 [[A:%.*]], i8 [[B:%.*]])
1102 ; CHECK-NEXT:    ret i8 [[TMP1]]
1104   %sat = call i8 @llvm.usub.sat.i8(i8 %a, i8 %b)
1105   %res = sub i8 %a, %sat
1106   ret i8 %res
1109 define i8 @test_scalar_usub_sub_extra_use(i8 %a, i8 %b, i8* %p) {
1110 ; CHECK-LABEL: @test_scalar_usub_sub_extra_use(
1111 ; CHECK-NEXT:    [[SAT:%.*]] = call i8 @llvm.usub.sat.i8(i8 [[A:%.*]], i8 [[B:%.*]])
1112 ; CHECK-NEXT:    store i8 [[SAT]], i8* [[P:%.*]], align 1
1113 ; CHECK-NEXT:    [[RES:%.*]] = sub i8 [[A]], [[SAT]]
1114 ; CHECK-NEXT:    ret i8 [[RES]]
1116   %sat = call i8 @llvm.usub.sat.i8(i8 %a, i8 %b)
1117   store i8 %sat, i8* %p
1118   %res = sub i8 %a, %sat
1119   ret i8 %res
1122 define <2 x i8> @test_vector_usub_sub(<2 x i8> %a, <2 x i8> %b) {
1123 ; CHECK-LABEL: @test_vector_usub_sub(
1124 ; CHECK-NEXT:    [[TMP1:%.*]] = call <2 x i8> @llvm.umin.v2i8(<2 x i8> [[A:%.*]], <2 x i8> [[B:%.*]])
1125 ; CHECK-NEXT:    ret <2 x i8> [[TMP1]]
1127   %sat = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %a, <2 x i8> %b)
1128   %res = sub <2 x i8> %a, %sat
1129   ret <2 x i8> %res
1132 define i8 @test_scalar_usub_sub_wrong(i8 %a, i8 %b) {
1133 ; CHECK-LABEL: @test_scalar_usub_sub_wrong(
1134 ; CHECK-NEXT:    [[SAT:%.*]] = call i8 @llvm.usub.sat.i8(i8 [[A:%.*]], i8 [[B:%.*]])
1135 ; CHECK-NEXT:    [[RES:%.*]] = sub i8 [[B]], [[SAT]]
1136 ; CHECK-NEXT:    ret i8 [[RES]]
1138   %sat = call i8 @llvm.usub.sat.i8(i8 %a, i8 %b)
1139   %res = sub i8 %b, %sat
1140   ret i8 %res
1143 define i8 @test_scalar_usub_sub_wrong2(i8 %a, i8 %b) {
1144 ; CHECK-LABEL: @test_scalar_usub_sub_wrong2(
1145 ; CHECK-NEXT:    [[SAT:%.*]] = call i8 @llvm.usub.sat.i8(i8 [[A:%.*]], i8 [[B:%.*]])
1146 ; CHECK-NEXT:    [[RES:%.*]] = sub i8 [[SAT]], [[B]]
1147 ; CHECK-NEXT:    ret i8 [[RES]]
1149   %sat = call i8 @llvm.usub.sat.i8(i8 %a, i8 %b)
1150   %res = sub i8 %sat, %b
1151   ret i8 %res
1154 define i8 @test_scalar_uadd_sub(i8 %a, i8 %b) {
1155 ; CHECK-LABEL: @test_scalar_uadd_sub(
1156 ; CHECK-NEXT:    [[SAT:%.*]] = call i8 @llvm.uadd.sat.i8(i8 [[A:%.*]], i8 [[B:%.*]])
1157 ; CHECK-NEXT:    [[RES:%.*]] = sub i8 [[SAT]], [[B]]
1158 ; CHECK-NEXT:    ret i8 [[RES]]
1160   %sat = call i8 @llvm.uadd.sat.i8(i8 %a, i8 %b)
1161   %res = sub i8 %sat, %b
1162   ret i8 %res
1165 define i8 @test_scalar_uadd_sub_extra_use(i8 %a, i8 %b, i8* %p) {
1166 ; CHECK-LABEL: @test_scalar_uadd_sub_extra_use(
1167 ; CHECK-NEXT:    [[SAT:%.*]] = call i8 @llvm.uadd.sat.i8(i8 [[A:%.*]], i8 [[B:%.*]])
1168 ; CHECK-NEXT:    store i8 [[SAT]], i8* [[P:%.*]], align 1
1169 ; CHECK-NEXT:    [[RES:%.*]] = sub i8 [[SAT]], [[B]]
1170 ; CHECK-NEXT:    ret i8 [[RES]]
1172   %sat = call i8 @llvm.uadd.sat.i8(i8 %a, i8 %b)
1173   store i8 %sat, i8* %p
1174   %res = sub i8 %sat, %b
1175   ret i8 %res
1178 define i8 @test_scalar_uadd_sub_commuted(i8 %a, i8 %b) {
1179 ; CHECK-LABEL: @test_scalar_uadd_sub_commuted(
1180 ; CHECK-NEXT:    [[SAT:%.*]] = call i8 @llvm.uadd.sat.i8(i8 [[B:%.*]], i8 [[A:%.*]])
1181 ; CHECK-NEXT:    [[RES:%.*]] = sub i8 [[SAT]], [[B]]
1182 ; CHECK-NEXT:    ret i8 [[RES]]
1184   %sat = call i8 @llvm.uadd.sat.i8(i8 %b, i8 %a)
1185   %res = sub i8 %sat, %b
1186   ret i8 %res
1189 define i8 @test_scalar_uadd_sub_commuted_wrong(i8 %a, i8 %b) {
1190 ; CHECK-LABEL: @test_scalar_uadd_sub_commuted_wrong(
1191 ; CHECK-NEXT:    [[SAT:%.*]] = call i8 @llvm.uadd.sat.i8(i8 [[A:%.*]], i8 [[B:%.*]])
1192 ; CHECK-NEXT:    [[RES:%.*]] = sub i8 [[B]], [[SAT]]
1193 ; CHECK-NEXT:    ret i8 [[RES]]
1195   %sat = call i8 @llvm.uadd.sat.i8(i8 %a, i8 %b)
1196   %res = sub i8 %b, %sat
1197   ret i8 %res
1200 define i8 @test_scalar_uadd_sub_const(i8 %a) {
1201 ; CHECK-LABEL: @test_scalar_uadd_sub_const(
1202 ; CHECK-NEXT:    [[SAT:%.*]] = call i8 @llvm.uadd.sat.i8(i8 [[A:%.*]], i8 42)
1203 ; CHECK-NEXT:    [[RES:%.*]] = add i8 [[SAT]], -42
1204 ; CHECK-NEXT:    ret i8 [[RES]]
1206   %sat = call i8 @llvm.uadd.sat.i8(i8 %a, i8 42)
1207   %res = sub i8 %sat, 42
1208   ret i8 %res
1211 define i1 @scalar_uadd_eq_zero(i8 %a, i8 %b) {
1212 ; CHECK-LABEL: @scalar_uadd_eq_zero(
1213 ; CHECK-NEXT:    [[TMP1:%.*]] = or i8 [[A:%.*]], [[B:%.*]]
1214 ; CHECK-NEXT:    [[CMP:%.*]] = icmp eq i8 [[TMP1]], 0
1215 ; CHECK-NEXT:    ret i1 [[CMP]]
1217   %sat = call i8 @llvm.uadd.sat.i8(i8 %a, i8 %b)
1218   %cmp = icmp eq i8 %sat, 0
1219   ret i1 %cmp
1222 define i1 @scalar_uadd_ne_zero(i8 %a, i8 %b) {
1223 ; CHECK-LABEL: @scalar_uadd_ne_zero(
1224 ; CHECK-NEXT:    [[TMP1:%.*]] = or i8 [[A:%.*]], [[B:%.*]]
1225 ; CHECK-NEXT:    [[CMP:%.*]] = icmp ne i8 [[TMP1]], 0
1226 ; CHECK-NEXT:    ret i1 [[CMP]]
1228   %sat = call i8 @llvm.uadd.sat.i8(i8 %a, i8 %b)
1229   %cmp = icmp ne i8 %sat, 0
1230   ret i1 %cmp
1233 define i1 @scalar_usub_eq_zero(i8 %a, i8 %b) {
1234 ; CHECK-LABEL: @scalar_usub_eq_zero(
1235 ; CHECK-NEXT:    [[CMP:%.*]] = icmp ule i8 [[A:%.*]], [[B:%.*]]
1236 ; CHECK-NEXT:    ret i1 [[CMP]]
1238   %sat = call i8 @llvm.usub.sat.i8(i8 %a, i8 %b)
1239   %cmp = icmp eq i8 %sat, 0
1240   ret i1 %cmp
1243 define i1 @scalar_usub_ne_zero(i8 %a, i8 %b) {
1244 ; CHECK-LABEL: @scalar_usub_ne_zero(
1245 ; CHECK-NEXT:    [[CMP:%.*]] = icmp ugt i8 [[A:%.*]], [[B:%.*]]
1246 ; CHECK-NEXT:    ret i1 [[CMP]]
1248   %sat = call i8 @llvm.usub.sat.i8(i8 %a, i8 %b)
1249   %cmp = icmp ne i8 %sat, 0
1250   ret i1 %cmp
1253 ; Raw IR tests
1255 define i32 @uadd_sat(i32 %x, i32 %y) {
1256 ; CHECK-LABEL: @uadd_sat(
1257 ; CHECK-NEXT:    [[TMP1:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X:%.*]], i32 [[Y:%.*]])
1258 ; CHECK-NEXT:    ret i32 [[TMP1]]
1260   %notx = xor i32 %x, -1
1261   %a = add i32 %y, %x
1262   %c = icmp ult i32 %notx, %y
1263   %r = select i1 %c, i32 -1, i32 %a
1264   ret i32 %r
1266 define i32 @uadd_sat_nonstrict(i32 %x, i32 %y) {
1267 ; CHECK-LABEL: @uadd_sat_nonstrict(
1268 ; CHECK-NEXT:    [[TMP1:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X:%.*]], i32 [[Y:%.*]])
1269 ; CHECK-NEXT:    ret i32 [[TMP1]]
1271   %notx = xor i32 %x, -1
1272   %a = add i32 %y, %x
1273   %c = icmp ule i32 %notx, %y
1274   %r = select i1 %c, i32 -1, i32 %a
1275   ret i32 %r
1278 define i32 @uadd_sat_commute_add(i32 %xp, i32 %y) {
1279 ; CHECK-LABEL: @uadd_sat_commute_add(
1280 ; CHECK-NEXT:    [[X:%.*]] = urem i32 42, [[XP:%.*]]
1281 ; CHECK-NEXT:    [[TMP1:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X]], i32 [[Y:%.*]])
1282 ; CHECK-NEXT:    ret i32 [[TMP1]]
1284   %x = urem i32 42, %xp ; thwart complexity-based-canonicalization
1285   %notx = xor i32 %x, -1
1286   %a = add i32 %x, %y
1287   %c = icmp ult i32 %notx, %y
1288   %r = select i1 %c, i32 -1, i32 %a
1289   ret i32 %r
1292 define i32 @uadd_sat_ugt(i32 %x, i32 %yp) {
1293 ; CHECK-LABEL: @uadd_sat_ugt(
1294 ; CHECK-NEXT:    [[Y:%.*]] = sdiv i32 [[YP:%.*]], 2442
1295 ; CHECK-NEXT:    [[TMP1:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X:%.*]], i32 [[Y]])
1296 ; CHECK-NEXT:    ret i32 [[TMP1]]
1298   %y = sdiv i32 %yp, 2442 ; thwart complexity-based-canonicalization
1299   %notx = xor i32 %x, -1
1300   %a = add i32 %y, %x
1301   %c = icmp ugt i32 %y, %notx
1302   %r = select i1 %c, i32 -1, i32 %a
1303   ret i32 %r
1305 define i32 @uadd_sat_uge(i32 %x, i32 %yp) {
1306 ; CHECK-LABEL: @uadd_sat_uge(
1307 ; CHECK-NEXT:    [[Y:%.*]] = sdiv i32 [[YP:%.*]], 2442
1308 ; CHECK-NEXT:    [[TMP1:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X:%.*]], i32 [[Y]])
1309 ; CHECK-NEXT:    ret i32 [[TMP1]]
1311   %y = sdiv i32 %yp, 2442 ; thwart complexity-based-canonicalization
1312   %notx = xor i32 %x, -1
1313   %a = add i32 %y, %x
1314   %c = icmp uge i32 %y, %notx
1315   %r = select i1 %c, i32 -1, i32 %a
1316   ret i32 %r
1319 define <2 x i32> @uadd_sat_ugt_commute_add(<2 x i32> %xp, <2 x i32> %yp) {
1320 ; CHECK-LABEL: @uadd_sat_ugt_commute_add(
1321 ; CHECK-NEXT:    [[Y:%.*]] = sdiv <2 x i32> [[YP:%.*]], <i32 2442, i32 4242>
1322 ; CHECK-NEXT:    [[X:%.*]] = srem <2 x i32> <i32 42, i32 43>, [[XP:%.*]]
1323 ; CHECK-NEXT:    [[TMP1:%.*]] = call <2 x i32> @llvm.uadd.sat.v2i32(<2 x i32> [[X]], <2 x i32> [[Y]])
1324 ; CHECK-NEXT:    ret <2 x i32> [[TMP1]]
1326   %y = sdiv <2 x i32> %yp, <i32 2442, i32 4242> ; thwart complexity-based-canonicalization
1327   %x = srem <2 x i32> <i32 42, i32 43>, %xp     ; thwart complexity-based-canonicalization
1328   %notx = xor <2 x i32> %x, <i32 -1, i32 -1>
1329   %a = add <2 x i32> %x, %y
1330   %c = icmp ugt <2 x i32> %y, %notx
1331   %r = select <2 x i1> %c, <2 x i32> <i32 -1, i32 -1>, <2 x i32> %a
1332   ret <2 x i32> %r
1335 define i32 @uadd_sat_commute_select(i32 %x, i32 %yp) {
1336 ; CHECK-LABEL: @uadd_sat_commute_select(
1337 ; CHECK-NEXT:    [[Y:%.*]] = sdiv i32 [[YP:%.*]], 2442
1338 ; CHECK-NEXT:    [[TMP1:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X:%.*]], i32 [[Y]])
1339 ; CHECK-NEXT:    ret i32 [[TMP1]]
1341   %y = sdiv i32 %yp, 2442 ; thwart complexity-based-canonicalization
1342   %notx = xor i32 %x, -1
1343   %a = add i32 %y, %x
1344   %c = icmp ult i32 %y, %notx
1345   %r = select i1 %c, i32 %a, i32 -1
1346   ret i32 %r
1349 define i32 @uadd_sat_commute_select_nonstrict(i32 %x, i32 %yp) {
1350 ; CHECK-LABEL: @uadd_sat_commute_select_nonstrict(
1351 ; CHECK-NEXT:    [[Y:%.*]] = sdiv i32 [[YP:%.*]], 2442
1352 ; CHECK-NEXT:    [[TMP1:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X:%.*]], i32 [[Y]])
1353 ; CHECK-NEXT:    ret i32 [[TMP1]]
1355   %y = sdiv i32 %yp, 2442 ; thwart complexity-based-canonicalization
1356   %notx = xor i32 %x, -1
1357   %a = add i32 %y, %x
1358   %c = icmp ule i32 %y, %notx
1359   %r = select i1 %c, i32 %a, i32 -1
1360   ret i32 %r
1363 define i32 @uadd_sat_commute_select_commute_add(i32 %xp, i32 %yp) {
1364 ; CHECK-LABEL: @uadd_sat_commute_select_commute_add(
1365 ; CHECK-NEXT:    [[X:%.*]] = urem i32 42, [[XP:%.*]]
1366 ; CHECK-NEXT:    [[Y:%.*]] = sdiv i32 [[YP:%.*]], 2442
1367 ; CHECK-NEXT:    [[TMP1:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X]], i32 [[Y]])
1368 ; CHECK-NEXT:    ret i32 [[TMP1]]
1370   %x = urem i32 42, %xp ; thwart complexity-based-canonicalization
1371   %y = sdiv i32 %yp, 2442 ; thwart complexity-based-canonicalization
1372   %notx = xor i32 %x, -1
1373   %a = add i32 %x, %y
1374   %c = icmp ult i32 %y, %notx
1375   %r = select i1 %c, i32 %a, i32 -1
1376   ret i32 %r
1379 define <2 x i32> @uadd_sat_commute_select_ugt(<2 x i32> %x, <2 x i32> %y) {
1380 ; CHECK-LABEL: @uadd_sat_commute_select_ugt(
1381 ; CHECK-NEXT:    [[TMP1:%.*]] = call <2 x i32> @llvm.uadd.sat.v2i32(<2 x i32> [[X:%.*]], <2 x i32> [[Y:%.*]])
1382 ; CHECK-NEXT:    ret <2 x i32> [[TMP1]]
1384   %notx = xor <2 x i32> %x, <i32 -1, i32 -1>
1385   %a = add <2 x i32> %y, %x
1386   %c = icmp ugt <2 x i32> %notx, %y
1387   %r = select <2 x i1> %c, <2 x i32> %a, <2 x i32> <i32 -1, i32 -1>
1388   ret <2 x i32> %r
1391 define i32 @uadd_sat_commute_select_ugt_commute_add(i32 %xp, i32 %y) {
1392 ; CHECK-LABEL: @uadd_sat_commute_select_ugt_commute_add(
1393 ; CHECK-NEXT:    [[X:%.*]] = srem i32 42, [[XP:%.*]]
1394 ; CHECK-NEXT:    [[TMP1:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X]], i32 [[Y:%.*]])
1395 ; CHECK-NEXT:    ret i32 [[TMP1]]
1397   %x = srem i32 42, %xp   ; thwart complexity-based-canonicalization
1398   %notx = xor i32 %x, -1
1399   %a = add i32 %x, %y
1400   %c = icmp ugt i32 %notx, %y
1401   %r = select i1 %c, i32 %a, i32 -1
1402   ret i32 %r
1405 ; Negative test - make sure we have a -1 in the select.
1407 define i32 @not_uadd_sat(i32 %x, i32 %y) {
1408 ; CHECK-LABEL: @not_uadd_sat(
1409 ; CHECK-NEXT:    [[A:%.*]] = add i32 [[X:%.*]], -2
1410 ; CHECK-NEXT:    [[C:%.*]] = icmp ugt i32 [[X]], 1
1411 ; CHECK-NEXT:    [[R:%.*]] = select i1 [[C]], i32 [[A]], i32 [[Y:%.*]]
1412 ; CHECK-NEXT:    ret i32 [[R]]
1414   %a = add i32 %x, -2
1415   %c = icmp ugt i32 %x, 1
1416   %r = select i1 %c, i32 %a, i32 %y
1417   ret i32 %r
1420 ; Negative test - make sure the predicate is 'ult'.
1422 define i32 @not_uadd_sat2(i32 %x, i32 %y) {
1423 ; CHECK-LABEL: @not_uadd_sat2(
1424 ; CHECK-NEXT:    [[A:%.*]] = add i32 [[X:%.*]], -2
1425 ; CHECK-NEXT:    [[C:%.*]] = icmp ugt i32 [[X]], 1
1426 ; CHECK-NEXT:    [[R:%.*]] = select i1 [[C]], i32 [[A]], i32 -1
1427 ; CHECK-NEXT:    ret i32 [[R]]
1429   %a = add i32 %x, -2
1430   %c = icmp ugt i32 %x, 1
1431   %r = select i1 %c, i32 %a, i32 -1
1432   ret i32 %r
1435 ; The add may include a 'not' op rather than the cmp.
1437 define i32 @uadd_sat_not(i32 %x, i32 %y) {
1438 ; CHECK-LABEL: @uadd_sat_not(
1439 ; CHECK-NEXT:    [[NOTX:%.*]] = xor i32 [[X:%.*]], -1
1440 ; CHECK-NEXT:    [[TMP1:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[NOTX]], i32 [[Y:%.*]])
1441 ; CHECK-NEXT:    ret i32 [[TMP1]]
1443   %notx = xor i32 %x, -1
1444   %a = add i32 %notx, %y
1445   %c = icmp ult i32 %x, %y
1446   %r = select i1 %c, i32 -1, i32 %a
1447   ret i32 %r
1450 define i32 @uadd_sat_not_nonstrict(i32 %x, i32 %y) {
1451 ; CHECK-LABEL: @uadd_sat_not_nonstrict(
1452 ; CHECK-NEXT:    [[NOTX:%.*]] = xor i32 [[X:%.*]], -1
1453 ; CHECK-NEXT:    [[TMP1:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[NOTX]], i32 [[Y:%.*]])
1454 ; CHECK-NEXT:    ret i32 [[TMP1]]
1456   %notx = xor i32 %x, -1
1457   %a = add i32 %notx, %y
1458   %c = icmp ule i32 %x, %y
1459   %r = select i1 %c, i32 -1, i32 %a
1460   ret i32 %r
1463 define i32 @uadd_sat_not_commute_add(i32 %xp, i32 %yp) {
1464 ; CHECK-LABEL: @uadd_sat_not_commute_add(
1465 ; CHECK-NEXT:    [[X:%.*]] = srem i32 42, [[XP:%.*]]
1466 ; CHECK-NEXT:    [[Y:%.*]] = urem i32 42, [[YP:%.*]]
1467 ; CHECK-NEXT:    [[NOTX:%.*]] = xor i32 [[X]], -1
1468 ; CHECK-NEXT:    [[TMP1:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[Y]], i32 [[NOTX]])
1469 ; CHECK-NEXT:    ret i32 [[TMP1]]
1471   %x = srem i32 42, %xp ; thwart complexity-based-canonicalization
1472   %y = urem i32 42, %yp ; thwart complexity-based-canonicalization
1473   %notx = xor i32 %x, -1
1474   %a = add i32 %y, %notx
1475   %c = icmp ult i32 %x, %y
1476   %r = select i1 %c, i32 -1, i32 %a
1477   ret i32 %r
1480 define i32 @uadd_sat_not_ugt(i32 %x, i32 %y) {
1481 ; CHECK-LABEL: @uadd_sat_not_ugt(
1482 ; CHECK-NEXT:    [[NOTX:%.*]] = xor i32 [[X:%.*]], -1
1483 ; CHECK-NEXT:    [[TMP1:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[NOTX]], i32 [[Y:%.*]])
1484 ; CHECK-NEXT:    ret i32 [[TMP1]]
1486   %notx = xor i32 %x, -1
1487   %a = add i32 %notx, %y
1488   %c = icmp ugt i32 %y, %x
1489   %r = select i1 %c, i32 -1, i32 %a
1490   ret i32 %r
1493 define i32 @uadd_sat_not_uge(i32 %x, i32 %y) {
1494 ; CHECK-LABEL: @uadd_sat_not_uge(
1495 ; CHECK-NEXT:    [[NOTX:%.*]] = xor i32 [[X:%.*]], -1
1496 ; CHECK-NEXT:    [[TMP1:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[NOTX]], i32 [[Y:%.*]])
1497 ; CHECK-NEXT:    ret i32 [[TMP1]]
1499   %notx = xor i32 %x, -1
1500   %a = add i32 %notx, %y
1501   %c = icmp uge i32 %y, %x
1502   %r = select i1 %c, i32 -1, i32 %a
1503   ret i32 %r
1506 define <2 x i32> @uadd_sat_not_ugt_commute_add(<2 x i32> %x, <2 x i32> %yp) {
1507 ; CHECK-LABEL: @uadd_sat_not_ugt_commute_add(
1508 ; CHECK-NEXT:    [[Y:%.*]] = sdiv <2 x i32> [[YP:%.*]], <i32 2442, i32 4242>
1509 ; CHECK-NEXT:    [[NOTX:%.*]] = xor <2 x i32> [[X:%.*]], <i32 -1, i32 -1>
1510 ; CHECK-NEXT:    [[TMP1:%.*]] = call <2 x i32> @llvm.uadd.sat.v2i32(<2 x i32> [[Y]], <2 x i32> [[NOTX]])
1511 ; CHECK-NEXT:    ret <2 x i32> [[TMP1]]
1513   %y = sdiv <2 x i32> %yp, <i32 2442, i32 4242> ; thwart complexity-based-canonicalization
1514   %notx = xor <2 x i32> %x, <i32 -1, i32 -1>
1515   %a = add <2 x i32> %y, %notx
1516   %c = icmp ugt <2 x i32> %y, %x
1517   %r = select <2 x i1> %c, <2 x i32> <i32 -1, i32 -1>, <2 x i32> %a
1518   ret <2 x i32> %r
1521 define i32 @uadd_sat_not_commute_select(i32 %x, i32 %y) {
1522 ; CHECK-LABEL: @uadd_sat_not_commute_select(
1523 ; CHECK-NEXT:    [[NOTX:%.*]] = xor i32 [[X:%.*]], -1
1524 ; CHECK-NEXT:    [[TMP1:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[NOTX]], i32 [[Y:%.*]])
1525 ; CHECK-NEXT:    ret i32 [[TMP1]]
1527   %notx = xor i32 %x, -1
1528   %a = add i32 %notx, %y
1529   %c = icmp ult i32 %y, %x
1530   %r = select i1 %c, i32 %a, i32 -1
1531   ret i32 %r
1534 define i32 @uadd_sat_not_commute_select_nonstrict(i32 %x, i32 %y) {
1535 ; CHECK-LABEL: @uadd_sat_not_commute_select_nonstrict(
1536 ; CHECK-NEXT:    [[NOTX:%.*]] = xor i32 [[X:%.*]], -1
1537 ; CHECK-NEXT:    [[TMP1:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[NOTX]], i32 [[Y:%.*]])
1538 ; CHECK-NEXT:    ret i32 [[TMP1]]
1540   %notx = xor i32 %x, -1
1541   %a = add i32 %notx, %y
1542   %c = icmp ule i32 %y, %x
1543   %r = select i1 %c, i32 %a, i32 -1
1544   ret i32 %r
1547 define i32 @uadd_sat_not_commute_select_commute_add(i32 %x, i32 %yp) {
1548 ; CHECK-LABEL: @uadd_sat_not_commute_select_commute_add(
1549 ; CHECK-NEXT:    [[Y:%.*]] = sdiv i32 42, [[YP:%.*]]
1550 ; CHECK-NEXT:    [[NOTX:%.*]] = xor i32 [[X:%.*]], -1
1551 ; CHECK-NEXT:    [[TMP1:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[Y]], i32 [[NOTX]])
1552 ; CHECK-NEXT:    ret i32 [[TMP1]]
1554   %y = sdiv i32 42, %yp ; thwart complexity-based-canonicalization
1555   %notx = xor i32 %x, -1
1556   %a = add i32 %y, %notx
1557   %c = icmp ult i32 %y, %x
1558   %r = select i1 %c, i32 %a, i32 -1
1559   ret i32 %r
1562 define <2 x i32> @uadd_sat_not_commute_select_ugt(<2 x i32> %xp, <2 x i32> %yp) {
1563 ; CHECK-LABEL: @uadd_sat_not_commute_select_ugt(
1564 ; CHECK-NEXT:    [[X:%.*]] = urem <2 x i32> <i32 42, i32 -42>, [[XP:%.*]]
1565 ; CHECK-NEXT:    [[Y:%.*]] = srem <2 x i32> <i32 12, i32 412>, [[YP:%.*]]
1566 ; CHECK-NEXT:    [[NOTX:%.*]] = xor <2 x i32> [[X]], <i32 -1, i32 -1>
1567 ; CHECK-NEXT:    [[TMP1:%.*]] = call <2 x i32> @llvm.uadd.sat.v2i32(<2 x i32> [[Y]], <2 x i32> [[NOTX]])
1568 ; CHECK-NEXT:    ret <2 x i32> [[TMP1]]
1570   %x = urem <2 x i32> <i32 42, i32 -42>, %xp ; thwart complexity-based-canonicalization
1571   %y = srem <2 x i32> <i32 12, i32 412>, %yp ; thwart complexity-based-canonicalization
1572   %notx = xor <2 x i32> %x, <i32 -1, i32 -1>
1573   %a = add <2 x i32> %y, %notx
1574   %c = icmp ugt <2 x i32> %x, %y
1575   %r = select <2 x i1> %c, <2 x i32> %a, <2 x i32> <i32 -1, i32 -1>
1576   ret <2 x i32> %r
1579 define i32 @uadd_sat_not_commute_select_ugt_commute_add(i32 %x, i32 %y) {
1580 ; CHECK-LABEL: @uadd_sat_not_commute_select_ugt_commute_add(
1581 ; CHECK-NEXT:    [[NOTX:%.*]] = xor i32 [[X:%.*]], -1
1582 ; CHECK-NEXT:    [[TMP1:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[NOTX]], i32 [[Y:%.*]])
1583 ; CHECK-NEXT:    ret i32 [[TMP1]]
1585   %notx = xor i32 %x, -1
1586   %a = add i32 %notx, %y
1587   %c = icmp ugt i32 %x, %y
1588   %r = select i1 %c, i32 %a, i32 -1
1589   ret i32 %r
1592 define i32 @uadd_sat_not_commute_select_uge_commute_add(i32 %x, i32 %y) {
1593 ; CHECK-LABEL: @uadd_sat_not_commute_select_uge_commute_add(
1594 ; CHECK-NEXT:    [[NOTX:%.*]] = xor i32 [[X:%.*]], -1
1595 ; CHECK-NEXT:    [[TMP1:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[NOTX]], i32 [[Y:%.*]])
1596 ; CHECK-NEXT:    ret i32 [[TMP1]]
1598   %notx = xor i32 %x, -1
1599   %a = add i32 %notx, %y
1600   %c = icmp uge i32 %x, %y
1601   %r = select i1 %c, i32 %a, i32 -1
1602   ret i32 %r
1605 define i32 @uadd_sat_constant(i32 %x) {
1606 ; CHECK-LABEL: @uadd_sat_constant(
1607 ; CHECK-NEXT:    [[A:%.*]] = add i32 [[X:%.*]], 42
1608 ; CHECK-NEXT:    [[C:%.*]] = icmp ugt i32 [[X]], -43
1609 ; CHECK-NEXT:    [[R:%.*]] = select i1 [[C]], i32 -1, i32 [[A]]
1610 ; CHECK-NEXT:    ret i32 [[R]]
1612   %a = add i32 %x, 42
1613   %c = icmp ugt i32 %x, -43
1614   %r = select i1 %c, i32 -1, i32 %a
1615   ret i32 %r
1618 define i32 @uadd_sat_constant_commute(i32 %x) {
1619 ; CHECK-LABEL: @uadd_sat_constant_commute(
1620 ; CHECK-NEXT:    [[TMP1:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X:%.*]], i32 42)
1621 ; CHECK-NEXT:    ret i32 [[TMP1]]
1623   %a = add i32 %x, 42
1624   %c = icmp ult i32 %x, -43
1625   %r = select i1 %c, i32 %a, i32 -1
1626   ret i32 %r
1629 define i32 @uadd_sat_canon(i32 %x, i32 %y) {
1630 ; CHECK-LABEL: @uadd_sat_canon(
1631 ; CHECK-NEXT:    [[TMP1:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X:%.*]], i32 [[Y:%.*]])
1632 ; CHECK-NEXT:    ret i32 [[TMP1]]
1634   %a = add i32 %x, %y
1635   %c = icmp ult i32 %a, %x
1636   %r = select i1 %c, i32 -1, i32 %a
1637   ret i32 %r
1640 define i32 @uadd_sat_canon_y(i32 %x, i32 %y) {
1641 ; CHECK-LABEL: @uadd_sat_canon_y(
1642 ; CHECK-NEXT:    [[TMP1:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[Y:%.*]], i32 [[X:%.*]])
1643 ; CHECK-NEXT:    ret i32 [[TMP1]]
1645   %a = add i32 %x, %y
1646   %c = icmp ult i32 %a, %y
1647   %r = select i1 %c, i32 -1, i32 %a
1648   ret i32 %r
1651 define i32 @uadd_sat_canon_nuw(i32 %x, i32 %y) {
1652 ; CHECK-LABEL: @uadd_sat_canon_nuw(
1653 ; CHECK-NEXT:    [[A:%.*]] = add nuw i32 [[X:%.*]], [[Y:%.*]]
1654 ; CHECK-NEXT:    ret i32 [[A]]
1656   %a = add nuw i32 %x, %y
1657   %c = icmp ult i32 %a, %x
1658   %r = select i1 %c, i32 -1, i32 %a
1659   ret i32 %r
1662 define i32 @uadd_sat_canon_y_nuw(i32 %x, i32 %y) {
1663 ; CHECK-LABEL: @uadd_sat_canon_y_nuw(
1664 ; CHECK-NEXT:    [[A:%.*]] = add nuw i32 [[X:%.*]], [[Y:%.*]]
1665 ; CHECK-NEXT:    ret i32 [[A]]
1667   %a = add nuw i32 %x, %y
1668   %c = icmp ult i32 %a, %y
1669   %r = select i1 %c, i32 -1, i32 %a
1670   ret i32 %r
1673 define <4 x i32> @uadd_sat_constant_vec(<4 x i32> %x) {
1674 ; CHECK-LABEL: @uadd_sat_constant_vec(
1675 ; CHECK-NEXT:    [[A:%.*]] = add <4 x i32> [[X:%.*]], <i32 42, i32 42, i32 42, i32 42>
1676 ; CHECK-NEXT:    [[C:%.*]] = icmp ugt <4 x i32> [[X]], <i32 -43, i32 -43, i32 -43, i32 -43>
1677 ; CHECK-NEXT:    [[R:%.*]] = select <4 x i1> [[C]], <4 x i32> <i32 -1, i32 -1, i32 -1, i32 -1>, <4 x i32> [[A]]
1678 ; CHECK-NEXT:    ret <4 x i32> [[R]]
1680   %a = add <4 x i32> %x, <i32 42, i32 42, i32 42, i32 42>
1681   %c = icmp ugt <4 x i32> %x, <i32 -43, i32 -43, i32 -43, i32 -43>
1682   %r = select <4 x i1> %c, <4 x i32> <i32 -1, i32 -1, i32 -1, i32 -1>, <4 x i32> %a
1683   ret <4 x i32> %r
1686 define <4 x i32> @uadd_sat_constant_vec_commute(<4 x i32> %x) {
1687 ; CHECK-LABEL: @uadd_sat_constant_vec_commute(
1688 ; CHECK-NEXT:    [[TMP1:%.*]] = call <4 x i32> @llvm.uadd.sat.v4i32(<4 x i32> [[X:%.*]], <4 x i32> <i32 42, i32 42, i32 42, i32 42>)
1689 ; CHECK-NEXT:    ret <4 x i32> [[TMP1]]
1691   %a = add <4 x i32> %x, <i32 42, i32 42, i32 42, i32 42>
1692   %c = icmp ult <4 x i32> %x, <i32 -43, i32 -43, i32 -43, i32 -43>
1693   %r = select <4 x i1> %c, <4 x i32> %a, <4 x i32> <i32 -1, i32 -1, i32 -1, i32 -1>
1694   ret <4 x i32> %r
1697 define <4 x i32> @uadd_sat_constant_vec_commute_undefs(<4 x i32> %x) {
1698 ; CHECK-LABEL: @uadd_sat_constant_vec_commute_undefs(
1699 ; CHECK-NEXT:    [[A:%.*]] = add <4 x i32> [[X:%.*]], <i32 42, i32 42, i32 42, i32 undef>
1700 ; CHECK-NEXT:    [[C:%.*]] = icmp ult <4 x i32> [[X]], <i32 -43, i32 -43, i32 undef, i32 -43>
1701 ; CHECK-NEXT:    [[R:%.*]] = select <4 x i1> [[C]], <4 x i32> [[A]], <4 x i32> <i32 -1, i32 undef, i32 -1, i32 -1>
1702 ; CHECK-NEXT:    ret <4 x i32> [[R]]
1704   %a = add <4 x i32> %x, <i32 42, i32 42, i32 42, i32 undef>
1705   %c = icmp ult <4 x i32> %x, <i32 -43, i32 -43, i32 undef, i32 -43>
1706   %r = select <4 x i1> %c, <4 x i32> %a, <4 x i32> <i32 -1, i32 undef, i32 -1, i32 -1>
1707   ret <4 x i32> %r
1710 declare i32 @get_i32()
1711 declare <2 x i8> @get_v2i8()
1713 define i32 @unsigned_sat_variable_using_min_add(i32 %x) {
1714 ; CHECK-LABEL: @unsigned_sat_variable_using_min_add(
1715 ; CHECK-NEXT:    [[Y:%.*]] = call i32 @get_i32()
1716 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X:%.*]], i32 [[Y]])
1717 ; CHECK-NEXT:    ret i32 [[R]]
1719   %y = call i32 @get_i32() ; thwart complexity-based canonicalization
1720   %noty = xor i32 %y, -1
1721   %c = icmp ult i32 %x, %noty
1722   %s = select i1 %c, i32 %x, i32 %noty
1723   %r = add i32 %s, %y
1724   ret i32 %r
1727 define i32 @unsigned_sat_variable_using_min_commute_add(i32 %x) {
1728 ; CHECK-LABEL: @unsigned_sat_variable_using_min_commute_add(
1729 ; CHECK-NEXT:    [[Y:%.*]] = call i32 @get_i32()
1730 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X:%.*]], i32 [[Y]])
1731 ; CHECK-NEXT:    ret i32 [[R]]
1733   %y = call i32 @get_i32() ; thwart complexity-based canonicalization
1734   %noty = xor i32 %y, -1
1735   %c = icmp ult i32 %x, %noty
1736   %s = select i1 %c, i32 %x, i32 %noty
1737   %r = add i32 %y, %s
1738   ret i32 %r
1741 define <2 x i8> @unsigned_sat_variable_using_min_commute_select(<2 x i8> %x) {
1742 ; CHECK-LABEL: @unsigned_sat_variable_using_min_commute_select(
1743 ; CHECK-NEXT:    [[Y:%.*]] = call <2 x i8> @get_v2i8()
1744 ; CHECK-NEXT:    [[R:%.*]] = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> [[X:%.*]], <2 x i8> [[Y]])
1745 ; CHECK-NEXT:    ret <2 x i8> [[R]]
1747   %y = call <2 x i8> @get_v2i8() ; thwart complexity-based canonicalization
1748   %noty = xor <2 x i8> %y, <i8 -1, i8 -1>
1749   %c = icmp ult <2 x i8> %noty, %x
1750   %s = select <2 x i1> %c, <2 x i8> %noty, <2 x i8> %x
1751   %r = add <2 x i8> %s, %y
1752   ret <2 x i8> %r
1755 define <2 x i8> @unsigned_sat_variable_using_min_commute_add_select(<2 x i8> %x) {
1756 ; CHECK-LABEL: @unsigned_sat_variable_using_min_commute_add_select(
1757 ; CHECK-NEXT:    [[Y:%.*]] = call <2 x i8> @get_v2i8()
1758 ; CHECK-NEXT:    [[R:%.*]] = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> [[X:%.*]], <2 x i8> [[Y]])
1759 ; CHECK-NEXT:    ret <2 x i8> [[R]]
1761   %y = call <2 x i8> @get_v2i8() ; thwart complexity-based canonicalization
1762   %noty = xor <2 x i8> %y, <i8 -1, i8 -1>
1763   %c = icmp ult <2 x i8> %noty, %x
1764   %s = select <2 x i1> %c, <2 x i8> %noty, <2 x i8> %x
1765   %r = add <2 x i8> %y, %s
1766   ret <2 x i8> %r
1769 ; Negative test
1771 define i32 @unsigned_sat_variable_using_wrong_min(i32 %x) {
1772 ; CHECK-LABEL: @unsigned_sat_variable_using_wrong_min(
1773 ; CHECK-NEXT:    [[Y:%.*]] = call i32 @get_i32()
1774 ; CHECK-NEXT:    [[NOTY:%.*]] = xor i32 [[Y]], -1
1775 ; CHECK-NEXT:    [[C:%.*]] = icmp sgt i32 [[NOTY]], [[X:%.*]]
1776 ; CHECK-NEXT:    [[S:%.*]] = select i1 [[C]], i32 [[X]], i32 [[NOTY]]
1777 ; CHECK-NEXT:    [[R:%.*]] = add i32 [[Y]], [[S]]
1778 ; CHECK-NEXT:    ret i32 [[R]]
1780   %y = call i32 @get_i32() ; thwart complexity-based canonicalization
1781   %noty = xor i32 %y, -1
1782   %c = icmp slt i32 %x, %noty
1783   %s = select i1 %c, i32 %x, i32 %noty
1784   %r = add i32 %y, %s
1785   ret i32 %r
1788 ; Negative test
1790 define i32 @unsigned_sat_variable_using_wrong_value(i32 %x, i32 %z) {
1791 ; CHECK-LABEL: @unsigned_sat_variable_using_wrong_value(
1792 ; CHECK-NEXT:    [[Y:%.*]] = call i32 @get_i32()
1793 ; CHECK-NEXT:    [[NOTY:%.*]] = xor i32 [[Y]], -1
1794 ; CHECK-NEXT:    [[C:%.*]] = icmp ugt i32 [[NOTY]], [[X:%.*]]
1795 ; CHECK-NEXT:    [[S:%.*]] = select i1 [[C]], i32 [[X]], i32 [[NOTY]]
1796 ; CHECK-NEXT:    [[R:%.*]] = add i32 [[S]], [[Z:%.*]]
1797 ; CHECK-NEXT:    ret i32 [[R]]
1799   %y = call i32 @get_i32() ; thwart complexity-based canonicalization
1800   %noty = xor i32 %y, -1
1801   %c = icmp ult i32 %x, %noty
1802   %s = select i1 %c, i32 %x, i32 %noty
1803   %r = add i32 %z, %s
1804   ret i32 %r
1807 ; If we have a constant operand, there's no commutativity variation.
1809 define i32 @unsigned_sat_constant_using_min(i32 %x) {
1810 ; CHECK-LABEL: @unsigned_sat_constant_using_min(
1811 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X:%.*]], i32 -43)
1812 ; CHECK-NEXT:    ret i32 [[R]]
1814   %c = icmp ult i32 %x, 42
1815   %s = select i1 %c, i32 %x, i32 42
1816   %r = add i32 %s, -43
1817   ret i32 %r
1820 define <2 x i32> @unsigned_sat_constant_using_min_splat(<2 x i32> %x) {
1821 ; CHECK-LABEL: @unsigned_sat_constant_using_min_splat(
1822 ; CHECK-NEXT:    [[R:%.*]] = call <2 x i32> @llvm.uadd.sat.v2i32(<2 x i32> [[X:%.*]], <2 x i32> <i32 -15, i32 -15>)
1823 ; CHECK-NEXT:    ret <2 x i32> [[R]]
1825   %c = icmp ult <2 x i32> %x, <i32 14, i32 14>
1826   %s = select <2 x i1> %c, <2 x i32> %x, <2 x i32> <i32 14, i32 14>
1827   %r = add <2 x i32> %s, <i32 -15, i32 -15>
1828   ret <2 x i32> %r
1831 ; Negative test
1833 define i32 @unsigned_sat_constant_using_min_wrong_constant(i32 %x) {
1834 ; CHECK-LABEL: @unsigned_sat_constant_using_min_wrong_constant(
1835 ; CHECK-NEXT:    [[C:%.*]] = icmp ult i32 [[X:%.*]], 42
1836 ; CHECK-NEXT:    [[S:%.*]] = select i1 [[C]], i32 [[X]], i32 42
1837 ; CHECK-NEXT:    [[R:%.*]] = add nsw i32 [[S]], -42
1838 ; CHECK-NEXT:    ret i32 [[R]]
1840   %c = icmp ult i32 %x, 42
1841   %s = select i1 %c, i32 %x, i32 42
1842   %r = add i32 %s, -42
1843   ret i32 %r
1846 define i32 @uadd_sat_via_add(i32 %x, i32 %y) {
1847 ; CHECK-LABEL: @uadd_sat_via_add(
1848 ; CHECK-NEXT:    [[TMP1:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[Y:%.*]], i32 [[X:%.*]])
1849 ; CHECK-NEXT:    ret i32 [[TMP1]]
1851   %a = add i32 %x, %y
1852   %c = icmp ult i32 %a, %y
1853   %r = select i1 %c, i32 -1, i32 %a
1854   ret i32 %r
1857 define i32 @uadd_sat_via_add_nonstrict(i32 %x, i32 %y) {
1858 ; CHECK-LABEL: @uadd_sat_via_add_nonstrict(
1859 ; CHECK-NEXT:    [[A:%.*]] = add i32 [[X:%.*]], [[Y:%.*]]
1860 ; CHECK-NEXT:    [[C_NOT:%.*]] = icmp ugt i32 [[A]], [[Y]]
1861 ; CHECK-NEXT:    [[R:%.*]] = select i1 [[C_NOT]], i32 [[A]], i32 -1
1862 ; CHECK-NEXT:    ret i32 [[R]]
1864   %a = add i32 %x, %y
1865   %c = icmp ule i32 %a, %y
1866   %r = select i1 %c, i32 -1, i32 %a
1867   ret i32 %r
1870 define i32 @uadd_sat_via_add_swapped_select(i32 %x, i32 %y) {
1871 ; CHECK-LABEL: @uadd_sat_via_add_swapped_select(
1872 ; CHECK-NEXT:    [[TMP1:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[Y:%.*]], i32 [[X:%.*]])
1873 ; CHECK-NEXT:    ret i32 [[TMP1]]
1875   %a = add i32 %x, %y
1876   %c = icmp uge i32 %a, %y
1877   %r = select i1 %c, i32 %a, i32 -1
1878   ret i32 %r
1881 define i32 @uadd_sat_via_add_swapped_select_strict(i32 %x, i32 %y) {
1882 ; CHECK-LABEL: @uadd_sat_via_add_swapped_select_strict(
1883 ; CHECK-NEXT:    [[A:%.*]] = add i32 [[X:%.*]], [[Y:%.*]]
1884 ; CHECK-NEXT:    [[C:%.*]] = icmp ugt i32 [[A]], [[Y]]
1885 ; CHECK-NEXT:    [[R:%.*]] = select i1 [[C]], i32 [[A]], i32 -1
1886 ; CHECK-NEXT:    ret i32 [[R]]
1888   %a = add i32 %x, %y
1889   %c = icmp ugt i32 %a, %y
1890   %r = select i1 %c, i32 %a, i32 -1
1891   ret i32 %r
1894 define i32 @uadd_sat_via_add_swapped_cmp(i32 %x, i32 %y) {
1895 ; CHECK-LABEL: @uadd_sat_via_add_swapped_cmp(
1896 ; CHECK-NEXT:    [[TMP1:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[Y:%.*]], i32 [[X:%.*]])
1897 ; CHECK-NEXT:    ret i32 [[TMP1]]
1899   %a = add i32 %x, %y
1900   %c = icmp ugt i32 %y, %a
1901   %r = select i1 %c, i32 -1, i32 %a
1902   ret i32 %r
1905 define i32 @uadd_sat_via_add_swapped_cmp_nonstrict(i32 %x, i32 %y) {
1906 ; CHECK-LABEL: @uadd_sat_via_add_swapped_cmp_nonstrict(
1907 ; CHECK-NEXT:    [[A:%.*]] = add i32 [[X:%.*]], [[Y:%.*]]
1908 ; CHECK-NEXT:    [[C_NOT:%.*]] = icmp ugt i32 [[A]], [[Y]]
1909 ; CHECK-NEXT:    [[R:%.*]] = select i1 [[C_NOT]], i32 [[A]], i32 -1
1910 ; CHECK-NEXT:    ret i32 [[R]]
1912   %a = add i32 %x, %y
1913   %c = icmp uge i32 %y, %a
1914   %r = select i1 %c, i32 -1, i32 %a
1915   ret i32 %r
1918 define i32 @uadd_sat_via_add_swapped_cmp_nonstric(i32 %x, i32 %y) {
1919 ; CHECK-LABEL: @uadd_sat_via_add_swapped_cmp_nonstric(
1920 ; CHECK-NEXT:    [[TMP1:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[Y:%.*]], i32 [[X:%.*]])
1921 ; CHECK-NEXT:    ret i32 [[TMP1]]
1923   %a = add i32 %x, %y
1924   %c = icmp ule i32 %y, %a
1925   %r = select i1 %c, i32 %a, i32 -1
1926   ret i32 %r
1929 define i32 @uadd_sat_via_add_swapped_cmp_select_nonstrict(i32 %x, i32 %y) {
1930 ; CHECK-LABEL: @uadd_sat_via_add_swapped_cmp_select_nonstrict(
1931 ; CHECK-NEXT:    [[A:%.*]] = add i32 [[X:%.*]], [[Y:%.*]]
1932 ; CHECK-NEXT:    [[C:%.*]] = icmp ugt i32 [[A]], [[Y]]
1933 ; CHECK-NEXT:    [[R:%.*]] = select i1 [[C]], i32 [[A]], i32 -1
1934 ; CHECK-NEXT:    ret i32 [[R]]
1936   %a = add i32 %x, %y
1937   %c = icmp ult i32 %y, %a
1938   %r = select i1 %c, i32 %a, i32 -1
1939   ret i32 %r