[AArch64][NFC] NFC for const vector as Instruction operand (#116790)
[llvm-project.git] / llvm / test / Transforms / InstCombine / saturating-add-sub.ll
blob9236d96f59a55b714d30e8e5f0f7d1400c04bbac
1 ; NOTE: Assertions have been autogenerated by utils/update_test_checks.py
2 ; RUN: opt < %s -passes=instcombine -S | FileCheck %s
5 ; Saturating addition.
8 declare i8 @llvm.uadd.sat.i8(i8, i8)
9 declare i8 @llvm.sadd.sat.i8(i8, i8)
10 declare <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8>, <2 x i8>)
11 declare <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8>, <2 x i8>)
13 ; Constant uadd argument is canonicalized to the right.
14 define i8 @test_scalar_uadd_canonical(i8 %a) {
15 ; CHECK-LABEL: @test_scalar_uadd_canonical(
16 ; CHECK-NEXT:    [[X:%.*]] = call i8 @llvm.uadd.sat.i8(i8 [[A:%.*]], i8 10)
17 ; CHECK-NEXT:    ret i8 [[X]]
19   %x = call i8 @llvm.uadd.sat.i8(i8 10, i8 %a)
20   ret i8 %x
23 define <2 x i8> @test_vector_uadd_canonical(<2 x i8> %a) {
24 ; CHECK-LABEL: @test_vector_uadd_canonical(
25 ; CHECK-NEXT:    [[X:%.*]] = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> [[A:%.*]], <2 x i8> <i8 10, i8 20>)
26 ; CHECK-NEXT:    ret <2 x i8> [[X]]
28   %x = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> <i8 10, i8 20>, <2 x i8> %a)
29   ret <2 x i8> %x
32 ; Constant sadd argument is canonicalized to the right.
33 define i8 @test_scalar_sadd_canonical(i8 %a) {
34 ; CHECK-LABEL: @test_scalar_sadd_canonical(
35 ; CHECK-NEXT:    [[X:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[A:%.*]], i8 -10)
36 ; CHECK-NEXT:    ret i8 [[X]]
38   %x = call i8 @llvm.sadd.sat.i8(i8 -10, i8 %a)
39   ret i8 %x
42 define <2 x i8> @test_vector_sadd_canonical(<2 x i8> %a) {
43 ; CHECK-LABEL: @test_vector_sadd_canonical(
44 ; CHECK-NEXT:    [[X:%.*]] = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> [[A:%.*]], <2 x i8> <i8 10, i8 -20>)
45 ; CHECK-NEXT:    ret <2 x i8> [[X]]
47   %x = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> <i8 10, i8 -20>, <2 x i8> %a)
48   ret <2 x i8> %x
51 ; Can combine uadds with constant operands.
52 define i8 @test_scalar_uadd_combine(i8 %a) {
53 ; CHECK-LABEL: @test_scalar_uadd_combine(
54 ; CHECK-NEXT:    [[X2:%.*]] = call i8 @llvm.uadd.sat.i8(i8 [[A:%.*]], i8 30)
55 ; CHECK-NEXT:    ret i8 [[X2]]
57   %x1 = call i8 @llvm.uadd.sat.i8(i8 %a, i8 10)
58   %x2 = call i8 @llvm.uadd.sat.i8(i8 %x1, i8 20)
59   ret i8 %x2
62 define <2 x i8> @test_vector_uadd_combine(<2 x i8> %a) {
63 ; CHECK-LABEL: @test_vector_uadd_combine(
64 ; CHECK-NEXT:    [[X2:%.*]] = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> [[A:%.*]], <2 x i8> splat (i8 30))
65 ; CHECK-NEXT:    ret <2 x i8> [[X2]]
67   %x1 = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> %a, <2 x i8> <i8 10, i8 10>)
68   %x2 = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> %x1, <2 x i8> <i8 20, i8 20>)
69   ret <2 x i8> %x2
72 ; This could simplify, but currently doesn't.
73 define <2 x i8> @test_vector_uadd_combine_non_splat(<2 x i8> %a) {
74 ; CHECK-LABEL: @test_vector_uadd_combine_non_splat(
75 ; CHECK-NEXT:    [[X1:%.*]] = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> [[A:%.*]], <2 x i8> <i8 10, i8 20>)
76 ; CHECK-NEXT:    [[X2:%.*]] = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> [[X1]], <2 x i8> <i8 30, i8 40>)
77 ; CHECK-NEXT:    ret <2 x i8> [[X2]]
79   %x1 = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> %a, <2 x i8> <i8 10, i8 20>)
80   %x2 = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> %x1, <2 x i8> <i8 30, i8 40>)
81   ret <2 x i8> %x2
84 ; Can combine uadds even if they overflow.
85 define i8 @test_scalar_uadd_overflow(i8 %a) {
86 ; CHECK-LABEL: @test_scalar_uadd_overflow(
87 ; CHECK-NEXT:    ret i8 -1
89   %y1 = call i8 @llvm.uadd.sat.i8(i8 %a, i8 100)
90   %y2 = call i8 @llvm.uadd.sat.i8(i8 %y1, i8 200)
91   ret i8 %y2
94 define <2 x i8> @test_vector_uadd_overflow(<2 x i8> %a) {
95 ; CHECK-LABEL: @test_vector_uadd_overflow(
96 ; CHECK-NEXT:    ret <2 x i8> splat (i8 -1)
98   %y1 = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> %a, <2 x i8> <i8 100, i8 100>)
99   %y2 = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> %y1, <2 x i8> <i8 200, i8 200>)
100   ret <2 x i8> %y2
103 ; Can combine sadds if sign matches.
104 define i8 @test_scalar_sadd_both_positive(i8 %a) {
105 ; CHECK-LABEL: @test_scalar_sadd_both_positive(
106 ; CHECK-NEXT:    [[Z2:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[A:%.*]], i8 30)
107 ; CHECK-NEXT:    ret i8 [[Z2]]
109   %z1 = call i8 @llvm.sadd.sat.i8(i8 %a, i8 10)
110   %z2 = call i8 @llvm.sadd.sat.i8(i8 %z1, i8 20)
111   ret i8 %z2
114 define <2 x i8> @test_vector_sadd_both_positive(<2 x i8> %a) {
115 ; CHECK-LABEL: @test_vector_sadd_both_positive(
116 ; CHECK-NEXT:    [[Z2:%.*]] = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> [[A:%.*]], <2 x i8> splat (i8 30))
117 ; CHECK-NEXT:    ret <2 x i8> [[Z2]]
119   %z1 = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> %a, <2 x i8> <i8 10, i8 10>)
120   %z2 = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> %z1, <2 x i8> <i8 20, i8 20>)
121   ret <2 x i8> %z2
124 define i8 @test_scalar_sadd_both_negative(i8 %a) {
125 ; CHECK-LABEL: @test_scalar_sadd_both_negative(
126 ; CHECK-NEXT:    [[U2:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[A:%.*]], i8 -30)
127 ; CHECK-NEXT:    ret i8 [[U2]]
129   %u1 = call i8 @llvm.sadd.sat.i8(i8 %a, i8 -10)
130   %u2 = call i8 @llvm.sadd.sat.i8(i8 %u1, i8 -20)
131   ret i8 %u2
134 define <2 x i8> @test_vector_sadd_both_negative(<2 x i8> %a) {
135 ; CHECK-LABEL: @test_vector_sadd_both_negative(
136 ; CHECK-NEXT:    [[U2:%.*]] = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> [[A:%.*]], <2 x i8> splat (i8 -30))
137 ; CHECK-NEXT:    ret <2 x i8> [[U2]]
139   %u1 = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> %a, <2 x i8> <i8 -10, i8 -10>)
140   %u2 = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> %u1, <2 x i8> <i8 -20, i8 -20>)
141   ret <2 x i8> %u2
144 ; Can't combine sadds if constants have different sign.
145 define i8 @test_scalar_sadd_different_sign(i8 %a) {
146 ; CHECK-LABEL: @test_scalar_sadd_different_sign(
147 ; CHECK-NEXT:    [[V1:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[A:%.*]], i8 10)
148 ; CHECK-NEXT:    [[V2:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[V1]], i8 -20)
149 ; CHECK-NEXT:    ret i8 [[V2]]
151   %v1 = call i8 @llvm.sadd.sat.i8(i8 %a, i8 10)
152   %v2 = call i8 @llvm.sadd.sat.i8(i8 %v1, i8 -20)
153   ret i8 %v2
156 ; Can't combine sadds if they overflow.
157 define i8 @test_scalar_sadd_overflow(i8 %a) {
158 ; CHECK-LABEL: @test_scalar_sadd_overflow(
159 ; CHECK-NEXT:    [[W1:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[A:%.*]], i8 100)
160 ; CHECK-NEXT:    [[W2:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[W1]], i8 100)
161 ; CHECK-NEXT:    ret i8 [[W2]]
163   %w1 = call i8 @llvm.sadd.sat.i8(i8 %a, i8 100)
164   %w2 = call i8 @llvm.sadd.sat.i8(i8 %w1, i8 100)
165   ret i8 %w2
168 ; neg uadd neg always overflows.
169 define i8 @test_scalar_uadd_neg_neg(i8 %a) {
170 ; CHECK-LABEL: @test_scalar_uadd_neg_neg(
171 ; CHECK-NEXT:    ret i8 -1
173   %a_neg = or i8 %a, -128
174   %r = call i8 @llvm.uadd.sat.i8(i8 %a_neg, i8 -10)
175   ret i8 %r
178 define <2 x i8> @test_vector_uadd_neg_neg(<2 x i8> %a) {
179 ; CHECK-LABEL: @test_vector_uadd_neg_neg(
180 ; CHECK-NEXT:    ret <2 x i8> splat (i8 -1)
182   %a_neg = or <2 x i8> %a, <i8 -128, i8 -128>
183   %r = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> %a_neg, <2 x i8> <i8 -10, i8 -20>)
184   ret <2 x i8> %r
187 ; nneg uadd nneg never overflows.
188 define i8 @test_scalar_uadd_nneg_nneg(i8 %a) {
189 ; CHECK-LABEL: @test_scalar_uadd_nneg_nneg(
190 ; CHECK-NEXT:    [[A_NNEG:%.*]] = and i8 [[A:%.*]], 127
191 ; CHECK-NEXT:    [[R:%.*]] = add nuw i8 [[A_NNEG]], 10
192 ; CHECK-NEXT:    ret i8 [[R]]
194   %a_nneg = and i8 %a, 127
195   %r = call i8 @llvm.uadd.sat.i8(i8 %a_nneg, i8 10)
196   ret i8 %r
199 define <2 x i8> @test_vector_uadd_nneg_nneg(<2 x i8> %a) {
200 ; CHECK-LABEL: @test_vector_uadd_nneg_nneg(
201 ; CHECK-NEXT:    [[A_NNEG:%.*]] = and <2 x i8> [[A:%.*]], splat (i8 127)
202 ; CHECK-NEXT:    [[R:%.*]] = add nuw <2 x i8> [[A_NNEG]], <i8 10, i8 20>
203 ; CHECK-NEXT:    ret <2 x i8> [[R]]
205   %a_nneg = and <2 x i8> %a, <i8 127, i8 127>
206   %r = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> %a_nneg, <2 x i8> <i8 10, i8 20>)
207   ret <2 x i8> %r
210 ; neg uadd nneg might overflow.
211 define i8 @test_scalar_uadd_neg_nneg(i8 %a) {
212 ; CHECK-LABEL: @test_scalar_uadd_neg_nneg(
213 ; CHECK-NEXT:    [[A_NEG:%.*]] = or i8 [[A:%.*]], -128
214 ; CHECK-NEXT:    [[R:%.*]] = call i8 @llvm.uadd.sat.i8(i8 [[A_NEG]], i8 10)
215 ; CHECK-NEXT:    ret i8 [[R]]
217   %a_neg = or i8 %a, -128
218   %r = call i8 @llvm.uadd.sat.i8(i8 %a_neg, i8 10)
219   ret i8 %r
222 define <2 x i8> @test_vector_uadd_neg_nneg(<2 x i8> %a) {
223 ; CHECK-LABEL: @test_vector_uadd_neg_nneg(
224 ; CHECK-NEXT:    [[A_NEG:%.*]] = or <2 x i8> [[A:%.*]], splat (i8 -128)
225 ; CHECK-NEXT:    [[R:%.*]] = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> [[A_NEG]], <2 x i8> <i8 10, i8 20>)
226 ; CHECK-NEXT:    ret <2 x i8> [[R]]
228   %a_neg = or <2 x i8> %a, <i8 -128, i8 -128>
229   %r = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> %a_neg, <2 x i8> <i8 10, i8 20>)
230   ret <2 x i8> %r
233 define i8 @test_scalar_uadd_never_overflows(i8 %a) {
234 ; CHECK-LABEL: @test_scalar_uadd_never_overflows(
235 ; CHECK-NEXT:    [[A_MASKED:%.*]] = and i8 [[A:%.*]], -127
236 ; CHECK-NEXT:    [[R:%.*]] = add nuw nsw i8 [[A_MASKED]], 1
237 ; CHECK-NEXT:    ret i8 [[R]]
239   %a_masked = and i8 %a, 129
240   %r = call i8 @llvm.uadd.sat.i8(i8 %a_masked, i8 1)
241   ret i8 %r
244 define <2 x i8> @test_vector_uadd_never_overflows(<2 x i8> %a) {
245 ; CHECK-LABEL: @test_vector_uadd_never_overflows(
246 ; CHECK-NEXT:    [[A_MASKED:%.*]] = and <2 x i8> [[A:%.*]], splat (i8 -127)
247 ; CHECK-NEXT:    [[R:%.*]] = add nuw nsw <2 x i8> [[A_MASKED]], splat (i8 1)
248 ; CHECK-NEXT:    ret <2 x i8> [[R]]
250   %a_masked = and <2 x i8> %a, <i8 129, i8 129>
251   %r = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> %a_masked, <2 x i8> <i8 1, i8 1>)
252   ret <2 x i8> %r
255 define i8 @test_scalar_uadd_always_overflows(i8 %a) {
256 ; CHECK-LABEL: @test_scalar_uadd_always_overflows(
257 ; CHECK-NEXT:    ret i8 -1
259   %a_masked = or i8 %a, 192
260   %r = call i8 @llvm.uadd.sat.i8(i8 %a_masked, i8 64)
261   ret i8 %r
264 define <2 x i8> @test_vector_uadd_always_overflows(<2 x i8> %a) {
265 ; CHECK-LABEL: @test_vector_uadd_always_overflows(
266 ; CHECK-NEXT:    ret <2 x i8> splat (i8 -1)
268   %a_masked = or <2 x i8> %a, <i8 192, i8 192>
269   %r = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> %a_masked, <2 x i8> <i8 64, i8 64>)
270   ret <2 x i8> %r
273 ; neg sadd nneg never overflows.
274 define i8 @test_scalar_sadd_neg_nneg(i8 %a) {
275 ; CHECK-LABEL: @test_scalar_sadd_neg_nneg(
276 ; CHECK-NEXT:    [[A_NEG:%.*]] = or i8 [[A:%.*]], -128
277 ; CHECK-NEXT:    [[R:%.*]] = add nsw i8 [[A_NEG]], 10
278 ; CHECK-NEXT:    ret i8 [[R]]
280   %a_neg = or i8 %a, -128
281   %r = call i8 @llvm.sadd.sat.i8(i8 %a_neg, i8 10)
282   ret i8 %r
285 define <2 x i8> @test_vector_sadd_neg_nneg(<2 x i8> %a) {
286 ; CHECK-LABEL: @test_vector_sadd_neg_nneg(
287 ; CHECK-NEXT:    [[A_NEG:%.*]] = or <2 x i8> [[A:%.*]], splat (i8 -128)
288 ; CHECK-NEXT:    [[R:%.*]] = add nsw <2 x i8> [[A_NEG]], <i8 10, i8 20>
289 ; CHECK-NEXT:    ret <2 x i8> [[R]]
291   %a_neg = or <2 x i8> %a, <i8 -128, i8 -128>
292   %r = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> %a_neg, <2 x i8> <i8 10, i8 20>)
293   ret <2 x i8> %r
296 ; nneg sadd neg never overflows.
297 define i8 @test_scalar_sadd_nneg_neg(i8 %a) {
298 ; CHECK-LABEL: @test_scalar_sadd_nneg_neg(
299 ; CHECK-NEXT:    [[A_NNEG:%.*]] = and i8 [[A:%.*]], 127
300 ; CHECK-NEXT:    [[R:%.*]] = add nsw i8 [[A_NNEG]], -10
301 ; CHECK-NEXT:    ret i8 [[R]]
303   %a_nneg = and i8 %a, 127
304   %r = call i8 @llvm.sadd.sat.i8(i8 %a_nneg, i8 -10)
305   ret i8 %r
308 define <2 x i8> @test_vector_sadd_nneg_neg(<2 x i8> %a) {
309 ; CHECK-LABEL: @test_vector_sadd_nneg_neg(
310 ; CHECK-NEXT:    [[A_NNEG:%.*]] = and <2 x i8> [[A:%.*]], splat (i8 127)
311 ; CHECK-NEXT:    [[R:%.*]] = add nsw <2 x i8> [[A_NNEG]], <i8 -10, i8 -20>
312 ; CHECK-NEXT:    ret <2 x i8> [[R]]
314   %a_nneg = and <2 x i8> %a, <i8 127, i8 127>
315   %r = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> %a_nneg, <2 x i8> <i8 -10, i8 -20>)
316   ret <2 x i8> %r
319 ; neg sadd neg might overflow.
320 define i8 @test_scalar_sadd_neg_neg(i8 %a) {
321 ; CHECK-LABEL: @test_scalar_sadd_neg_neg(
322 ; CHECK-NEXT:    [[A_NEG:%.*]] = or i8 [[A:%.*]], -128
323 ; CHECK-NEXT:    [[R:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[A_NEG]], i8 -10)
324 ; CHECK-NEXT:    ret i8 [[R]]
326   %a_neg = or i8 %a, -128
327   %r = call i8 @llvm.sadd.sat.i8(i8 %a_neg, i8 -10)
328   ret i8 %r
331 define <2 x i8> @test_vector_sadd_neg_neg(<2 x i8> %a) {
332 ; CHECK-LABEL: @test_vector_sadd_neg_neg(
333 ; CHECK-NEXT:    [[A_NEG:%.*]] = or <2 x i8> [[A:%.*]], splat (i8 -128)
334 ; CHECK-NEXT:    [[R:%.*]] = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> [[A_NEG]], <2 x i8> <i8 -10, i8 -20>)
335 ; CHECK-NEXT:    ret <2 x i8> [[R]]
337   %a_neg = or <2 x i8> %a, <i8 -128, i8 -128>
338   %r = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> %a_neg, <2 x i8> <i8 -10, i8 -20>)
339   ret <2 x i8> %r
342 define i8 @test_scalar_sadd_always_overflows_low(i8 %a) {
343 ; CHECK-LABEL: @test_scalar_sadd_always_overflows_low(
344 ; CHECK-NEXT:    ret i8 -128
346   %cmp = icmp slt i8 %a, -120
347   %min = select i1 %cmp, i8 %a, i8 -120
348   %r = call i8 @llvm.sadd.sat.i8(i8 %min, i8 -10)
349   ret i8 %r
352 define i8 @test_scalar_sadd_always_overflows_high(i8 %a) {
353 ; CHECK-LABEL: @test_scalar_sadd_always_overflows_high(
354 ; CHECK-NEXT:    ret i8 127
356   %cmp = icmp sgt i8 %a, 120
357   %max = select i1 %cmp, i8 %a, i8 120
358   %r = call i8 @llvm.sadd.sat.i8(i8 %max, i8 10)
359   ret i8 %r
362 ; While this is a no-overflow condition, the nuw flag gets lost due to
363 ; canonicalization and we can no longer determine this
364 define i8 @test_scalar_uadd_sub_nuw_lost_no_ov(i8 %a) {
365 ; CHECK-LABEL: @test_scalar_uadd_sub_nuw_lost_no_ov(
366 ; CHECK-NEXT:    [[B:%.*]] = add i8 [[A:%.*]], -10
367 ; CHECK-NEXT:    [[R:%.*]] = call i8 @llvm.uadd.sat.i8(i8 [[B]], i8 9)
368 ; CHECK-NEXT:    ret i8 [[R]]
370   %b = sub nuw i8 %a, 10
371   %r = call i8 @llvm.uadd.sat.i8(i8 %b, i8 9)
372   ret i8 %r
375 define i8 @test_scalar_uadd_urem_no_ov(i8 %a) {
376 ; CHECK-LABEL: @test_scalar_uadd_urem_no_ov(
377 ; CHECK-NEXT:    [[B:%.*]] = urem i8 [[A:%.*]], 100
378 ; CHECK-NEXT:    [[R:%.*]] = add nuw nsw i8 [[B]], -100
379 ; CHECK-NEXT:    ret i8 [[R]]
381   %b = urem i8 %a, 100
382   %r = call i8 @llvm.uadd.sat.i8(i8 %b, i8 156)
383   ret i8 %r
386 define i8 @test_scalar_uadd_urem_may_ov(i8 %a) {
387 ; CHECK-LABEL: @test_scalar_uadd_urem_may_ov(
388 ; CHECK-NEXT:    [[B:%.*]] = urem i8 [[A:%.*]], 100
389 ; CHECK-NEXT:    [[R:%.*]] = call i8 @llvm.uadd.sat.i8(i8 [[B]], i8 -99)
390 ; CHECK-NEXT:    ret i8 [[R]]
392   %b = urem i8 %a, 100
393   %r = call i8 @llvm.uadd.sat.i8(i8 %b, i8 157)
394   ret i8 %r
397 ; We have a constant range for the LHS, but only known bits for the RHS
398 define i8 @test_scalar_uadd_udiv_known_bits(i8 %a, i8 %b) {
399 ; CHECK-LABEL: @test_scalar_uadd_udiv_known_bits(
400 ; CHECK-NEXT:    [[AA:%.*]] = udiv i8 -66, [[A:%.*]]
401 ; CHECK-NEXT:    [[BB:%.*]] = and i8 [[B:%.*]], 63
402 ; CHECK-NEXT:    [[R:%.*]] = add nuw i8 [[AA]], [[BB]]
403 ; CHECK-NEXT:    ret i8 [[R]]
405   %aa = udiv i8 190, %a
406   %bb = and i8 %b, 63
407   %r = call i8 @llvm.uadd.sat.i8(i8 %aa, i8 %bb)
408   ret i8 %r
411 define i8 @test_scalar_sadd_srem_no_ov(i8 %a) {
412 ; CHECK-LABEL: @test_scalar_sadd_srem_no_ov(
413 ; CHECK-NEXT:    [[B:%.*]] = srem i8 [[A:%.*]], 100
414 ; CHECK-NEXT:    [[R:%.*]] = add nsw i8 [[B]], 28
415 ; CHECK-NEXT:    ret i8 [[R]]
417   %b = srem i8 %a, 100
418   %r = call i8 @llvm.sadd.sat.i8(i8 %b, i8 28)
419   ret i8 %r
422 define i8 @test_scalar_sadd_srem_may_ov(i8 %a) {
423 ; CHECK-LABEL: @test_scalar_sadd_srem_may_ov(
424 ; CHECK-NEXT:    [[B:%.*]] = srem i8 [[A:%.*]], 100
425 ; CHECK-NEXT:    [[R:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[B]], i8 29)
426 ; CHECK-NEXT:    ret i8 [[R]]
428   %b = srem i8 %a, 100
429   %r = call i8 @llvm.sadd.sat.i8(i8 %b, i8 29)
430   ret i8 %r
433 define i8 @test_scalar_sadd_srem_and_no_ov(i8 %a, i8 %b) {
434 ; CHECK-LABEL: @test_scalar_sadd_srem_and_no_ov(
435 ; CHECK-NEXT:    [[AA:%.*]] = srem i8 [[A:%.*]], 100
436 ; CHECK-NEXT:    [[BB:%.*]] = and i8 [[B:%.*]], 15
437 ; CHECK-NEXT:    [[R:%.*]] = add nsw i8 [[AA]], [[BB]]
438 ; CHECK-NEXT:    ret i8 [[R]]
440   %aa = srem i8 %a, 100
441   %bb = and i8 %b, 15
442   %r = call i8 @llvm.sadd.sat.i8(i8 %aa, i8 %bb)
443   ret i8 %r
447 ; Saturating subtraction.
450 declare i8 @llvm.usub.sat.i8(i8, i8)
451 declare i8 @llvm.ssub.sat.i8(i8, i8)
452 declare <2 x i8> @llvm.usub.sat.v2i8(<2 x i8>, <2 x i8>)
453 declare <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8>, <2 x i8>)
455 ; Cannot canonicalize usub to uadd.
456 define i8 @test_scalar_usub_canonical(i8 %a) {
457 ; CHECK-LABEL: @test_scalar_usub_canonical(
458 ; CHECK-NEXT:    [[R:%.*]] = call i8 @llvm.usub.sat.i8(i8 [[A:%.*]], i8 10)
459 ; CHECK-NEXT:    ret i8 [[R]]
461   %r = call i8 @llvm.usub.sat.i8(i8 %a, i8 10)
462   ret i8 %r
465 ; Canonicalize ssub to sadd.
466 define i8 @test_scalar_ssub_canonical(i8 %a) {
467 ; CHECK-LABEL: @test_scalar_ssub_canonical(
468 ; CHECK-NEXT:    [[R:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[A:%.*]], i8 -10)
469 ; CHECK-NEXT:    ret i8 [[R]]
471   %r = call i8 @llvm.ssub.sat.i8(i8 %a, i8 10)
472   ret i8 %r
475 define <2 x i8> @test_vector_ssub_canonical(<2 x i8> %a) {
476 ; CHECK-LABEL: @test_vector_ssub_canonical(
477 ; CHECK-NEXT:    [[R:%.*]] = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> [[A:%.*]], <2 x i8> splat (i8 -10))
478 ; CHECK-NEXT:    ret <2 x i8> [[R]]
480   %r = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> %a, <2 x i8> <i8 10, i8 10>)
481   ret <2 x i8> %r
484 define <2 x i8> @test_vector_ssub_canonical_min_non_splat(<2 x i8> %a) {
485 ; CHECK-LABEL: @test_vector_ssub_canonical_min_non_splat(
486 ; CHECK-NEXT:    [[R:%.*]] = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> [[A:%.*]], <2 x i8> <i8 -10, i8 10>)
487 ; CHECK-NEXT:    ret <2 x i8> [[R]]
489   %r = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> %a, <2 x i8> <i8 10, i8 -10>)
490   ret <2 x i8> %r
493 ; Cannot canonicalize signed min.
494 define i8 @test_scalar_ssub_canonical_min(i8 %a) {
495 ; CHECK-LABEL: @test_scalar_ssub_canonical_min(
496 ; CHECK-NEXT:    [[R:%.*]] = call i8 @llvm.ssub.sat.i8(i8 [[A:%.*]], i8 -128)
497 ; CHECK-NEXT:    ret i8 [[R]]
499   %r = call i8 @llvm.ssub.sat.i8(i8 %a, i8 -128)
500   ret i8 %r
503 define <2 x i8> @test_vector_ssub_canonical_min(<2 x i8> %a) {
504 ; CHECK-LABEL: @test_vector_ssub_canonical_min(
505 ; CHECK-NEXT:    [[R:%.*]] = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> [[A:%.*]], <2 x i8> <i8 -128, i8 -10>)
506 ; CHECK-NEXT:    ret <2 x i8> [[R]]
508   %r = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> %a, <2 x i8> <i8 -128, i8 -10>)
509   ret <2 x i8> %r
512 ; Can combine usubs with constant operands.
513 define i8 @test_scalar_usub_combine(i8 %a) {
514 ; CHECK-LABEL: @test_scalar_usub_combine(
515 ; CHECK-NEXT:    [[X2:%.*]] = call i8 @llvm.usub.sat.i8(i8 [[A:%.*]], i8 30)
516 ; CHECK-NEXT:    ret i8 [[X2]]
518   %x1 = call i8 @llvm.usub.sat.i8(i8 %a, i8 10)
519   %x2 = call i8 @llvm.usub.sat.i8(i8 %x1, i8 20)
520   ret i8 %x2
523 ; Can simplify zero check followed by decrement
524 define i8 @test_simplify_decrement(i8 %a) {
525 ; CHECK-LABEL: @test_simplify_decrement(
526 ; CHECK-NEXT:    [[I2:%.*]] = call i8 @llvm.usub.sat.i8(i8 [[A:%.*]], i8 1)
527 ; CHECK-NEXT:    ret i8 [[I2]]
529   %i = icmp eq i8 %a, 0
530   %i1 = sub i8 %a, 1
531   %i2 = select i1 %i, i8 0, i8 %i1
532   ret i8 %i2
535 declare void @use.i1(i1)
537 define i8 @test_simplify_decrement_ne(i8 %a) {
538 ; CHECK-LABEL: @test_simplify_decrement_ne(
539 ; CHECK-NEXT:    [[I:%.*]] = icmp ne i8 [[A:%.*]], 0
540 ; CHECK-NEXT:    call void @use.i1(i1 [[I]])
541 ; CHECK-NEXT:    [[I2:%.*]] = call i8 @llvm.usub.sat.i8(i8 [[A]], i8 1)
542 ; CHECK-NEXT:    ret i8 [[I2]]
544   %i = icmp ne i8 %a, 0
545   call void @use.i1(i1 %i)
546   %i1 = add i8 %a, -1
547   %i2 = select i1 %i, i8 %i1, i8 0
548   ret i8 %i2
551 define <2 x i8> @test_simplify_decrement_vec(<2 x i8> %a) {
552 ; CHECK-LABEL: @test_simplify_decrement_vec(
553 ; CHECK-NEXT:    [[I2:%.*]] = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> [[A:%.*]], <2 x i8> splat (i8 1))
554 ; CHECK-NEXT:    ret <2 x i8> [[I2]]
556   %i = icmp eq <2 x i8> %a, <i8 0, i8 0>
557   %i1 = sub <2 x i8> %a, <i8 1, i8 1>
558   %i2 = select <2 x i1> %i, <2 x i8> <i8 0, i8 0>, <2 x i8> %i1
559   ret <2 x i8> %i2
562 define <2 x i8> @test_simplify_decrement_vec_poison(<2 x i8> %a) {
563 ; CHECK-LABEL: @test_simplify_decrement_vec_poison(
564 ; CHECK-NEXT:    [[I2:%.*]] = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> [[A:%.*]], <2 x i8> splat (i8 1))
565 ; CHECK-NEXT:    ret <2 x i8> [[I2]]
567   %i = icmp eq <2 x i8> %a, <i8 0, i8 0>
568   %i1 = sub <2 x i8> %a, <i8 1, i8 1>
569   %i2 = select <2 x i1> %i, <2 x i8> <i8 0, i8 poison>, <2 x i8> %i1
570   ret <2 x i8> %i2
573 define i8 @test_simplify_decrement_invalid_ne(i8 %a) {
574 ; CHECK-LABEL: @test_simplify_decrement_invalid_ne(
575 ; CHECK-NEXT:    [[I_NOT:%.*]] = icmp eq i8 [[A:%.*]], 0
576 ; CHECK-NEXT:    [[I2:%.*]] = sext i1 [[I_NOT]] to i8
577 ; CHECK-NEXT:    ret i8 [[I2]]
579   %i = icmp ne i8 %a, 0
580   %i1 = sub i8 %a, 1
581   %i2 = select i1 %i, i8 0, i8 %i1
582   ret i8 %i2
585 define i8 @test_invalid_simplify_sub2(i8 %a) {
586 ; CHECK-LABEL: @test_invalid_simplify_sub2(
587 ; CHECK-NEXT:    [[I:%.*]] = icmp eq i8 [[A:%.*]], 0
588 ; CHECK-NEXT:    [[I1:%.*]] = add i8 [[A]], -2
589 ; CHECK-NEXT:    [[I2:%.*]] = select i1 [[I]], i8 0, i8 [[I1]]
590 ; CHECK-NEXT:    ret i8 [[I2]]
592   %i = icmp eq i8 %a, 0
593   %i1 = sub i8 %a, 2
594   %i2 = select i1 %i, i8 0, i8 %i1
595   ret i8 %i2
598 define i8 @test_invalid_simplify_eq2(i8 %a) {
599 ; CHECK-LABEL: @test_invalid_simplify_eq2(
600 ; CHECK-NEXT:    [[I:%.*]] = icmp eq i8 [[A:%.*]], 2
601 ; CHECK-NEXT:    [[I1:%.*]] = add i8 [[A]], -1
602 ; CHECK-NEXT:    [[I2:%.*]] = select i1 [[I]], i8 0, i8 [[I1]]
603 ; CHECK-NEXT:    ret i8 [[I2]]
605   %i = icmp eq i8 %a, 2
606   %i1 = sub i8 %a, 1
607   %i2 = select i1 %i, i8 0, i8 %i1
608   ret i8 %i2
611 define i8 @test_invalid_simplify_select_1(i8 %a) {
612 ; CHECK-LABEL: @test_invalid_simplify_select_1(
613 ; CHECK-NEXT:    [[I:%.*]] = icmp eq i8 [[A:%.*]], 0
614 ; CHECK-NEXT:    [[I1:%.*]] = add i8 [[A]], -1
615 ; CHECK-NEXT:    [[I2:%.*]] = select i1 [[I]], i8 1, i8 [[I1]]
616 ; CHECK-NEXT:    ret i8 [[I2]]
618   %i = icmp eq i8 %a, 0
619   %i1 = sub i8 %a, 1
620   %i2 = select i1 %i, i8 1, i8 %i1
621   ret i8 %i2
624 define i8 @test_invalid_simplify_other(i8 %a, i8 %b) {
625 ; CHECK-LABEL: @test_invalid_simplify_other(
626 ; CHECK-NEXT:    [[I:%.*]] = icmp eq i8 [[A:%.*]], 0
627 ; CHECK-NEXT:    [[I1:%.*]] = add i8 [[B:%.*]], -1
628 ; CHECK-NEXT:    [[I2:%.*]] = select i1 [[I]], i8 0, i8 [[I1]]
629 ; CHECK-NEXT:    ret i8 [[I2]]
631   %i = icmp eq i8 %a, 0
632   %i1 = sub i8 %b, 1
633   %i2 = select i1 %i, i8 0, i8 %i1
634   ret i8 %i2
637 define <2 x i8> @test_vector_usub_combine(<2 x i8> %a) {
638 ; CHECK-LABEL: @test_vector_usub_combine(
639 ; CHECK-NEXT:    [[X2:%.*]] = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> [[A:%.*]], <2 x i8> splat (i8 30))
640 ; CHECK-NEXT:    ret <2 x i8> [[X2]]
642   %x1 = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %a, <2 x i8> <i8 10, i8 10>)
643   %x2 = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %x1, <2 x i8> <i8 20, i8 20>)
644   ret <2 x i8> %x2
647 ; This could simplify, but currently doesn't.
648 define <2 x i8> @test_vector_usub_combine_non_splat(<2 x i8> %a) {
649 ; CHECK-LABEL: @test_vector_usub_combine_non_splat(
650 ; CHECK-NEXT:    [[X1:%.*]] = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> [[A:%.*]], <2 x i8> <i8 10, i8 20>)
651 ; CHECK-NEXT:    [[X2:%.*]] = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> [[X1]], <2 x i8> <i8 30, i8 40>)
652 ; CHECK-NEXT:    ret <2 x i8> [[X2]]
654   %x1 = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %a, <2 x i8> <i8 10, i8 20>)
655   %x2 = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %x1, <2 x i8> <i8 30, i8 40>)
656   ret <2 x i8> %x2
659 ; Can combine usubs even if they overflow.
660 define i8 @test_scalar_usub_overflow(i8 %a) {
661 ; CHECK-LABEL: @test_scalar_usub_overflow(
662 ; CHECK-NEXT:    ret i8 0
664   %y1 = call i8 @llvm.usub.sat.i8(i8 %a, i8 100)
665   %y2 = call i8 @llvm.usub.sat.i8(i8 %y1, i8 200)
666   ret i8 %y2
669 define <2 x i8> @test_vector_usub_overflow(<2 x i8> %a) {
670 ; CHECK-LABEL: @test_vector_usub_overflow(
671 ; CHECK-NEXT:    ret <2 x i8> zeroinitializer
673   %y1 = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %a, <2 x i8> <i8 100, i8 100>)
674   %y2 = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %y1, <2 x i8> <i8 200, i8 200>)
675   ret <2 x i8> %y2
678 ; Can combine ssubs if sign matches.
679 define i8 @test_scalar_ssub_both_positive(i8 %a) {
680 ; CHECK-LABEL: @test_scalar_ssub_both_positive(
681 ; CHECK-NEXT:    [[Z2:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[A:%.*]], i8 -30)
682 ; CHECK-NEXT:    ret i8 [[Z2]]
684   %z1 = call i8 @llvm.ssub.sat.i8(i8 %a, i8 10)
685   %z2 = call i8 @llvm.ssub.sat.i8(i8 %z1, i8 20)
686   ret i8 %z2
689 define <2 x i8> @test_vector_ssub_both_positive(<2 x i8> %a) {
690 ; CHECK-LABEL: @test_vector_ssub_both_positive(
691 ; CHECK-NEXT:    [[Z2:%.*]] = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> [[A:%.*]], <2 x i8> splat (i8 -30))
692 ; CHECK-NEXT:    ret <2 x i8> [[Z2]]
694   %z1 = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> %a, <2 x i8> <i8 10, i8 10>)
695   %z2 = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> %z1, <2 x i8> <i8 20, i8 20>)
696   ret <2 x i8> %z2
699 define i8 @test_scalar_ssub_both_negative(i8 %a) {
700 ; CHECK-LABEL: @test_scalar_ssub_both_negative(
701 ; CHECK-NEXT:    [[U2:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[A:%.*]], i8 30)
702 ; CHECK-NEXT:    ret i8 [[U2]]
704   %u1 = call i8 @llvm.ssub.sat.i8(i8 %a, i8 -10)
705   %u2 = call i8 @llvm.ssub.sat.i8(i8 %u1, i8 -20)
706   ret i8 %u2
709 define <2 x i8> @test_vector_ssub_both_negative(<2 x i8> %a) {
710 ; CHECK-LABEL: @test_vector_ssub_both_negative(
711 ; CHECK-NEXT:    [[U2:%.*]] = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> [[A:%.*]], <2 x i8> splat (i8 30))
712 ; CHECK-NEXT:    ret <2 x i8> [[U2]]
714   %u1 = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> %a, <2 x i8> <i8 -10, i8 -10>)
715   %u2 = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> %u1, <2 x i8> <i8 -20, i8 -20>)
716   ret <2 x i8> %u2
719 ; Can't combine ssubs if constants have different sign.
720 define i8 @test_scalar_ssub_different_sign(i8 %a) {
721 ; CHECK-LABEL: @test_scalar_ssub_different_sign(
722 ; CHECK-NEXT:    [[V1:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[A:%.*]], i8 -10)
723 ; CHECK-NEXT:    [[V2:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[V1]], i8 20)
724 ; CHECK-NEXT:    ret i8 [[V2]]
726   %v1 = call i8 @llvm.ssub.sat.i8(i8 %a, i8 10)
727   %v2 = call i8 @llvm.ssub.sat.i8(i8 %v1, i8 -20)
728   ret i8 %v2
731 ; Can combine sadd and ssub with appropriate signs.
732 define i8 @test_scalar_sadd_ssub(i8 %a) {
733 ; CHECK-LABEL: @test_scalar_sadd_ssub(
734 ; CHECK-NEXT:    [[V2:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[A:%.*]], i8 30)
735 ; CHECK-NEXT:    ret i8 [[V2]]
737   %v1 = call i8 @llvm.sadd.sat.i8(i8 10, i8 %a)
738   %v2 = call i8 @llvm.ssub.sat.i8(i8 %v1, i8 -20)
739   ret i8 %v2
742 define <2 x i8> @test_vector_sadd_ssub(<2 x i8> %a) {
743 ; CHECK-LABEL: @test_vector_sadd_ssub(
744 ; CHECK-NEXT:    [[V2:%.*]] = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> [[A:%.*]], <2 x i8> splat (i8 -30))
745 ; CHECK-NEXT:    ret <2 x i8> [[V2]]
747   %v1 = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> <i8 -10, i8 -10>, <2 x i8> %a)
748   %v2 = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> %v1, <2 x i8> <i8 20, i8 20>)
749   ret <2 x i8> %v2
752 ; Can't combine ssubs if they overflow.
753 define i8 @test_scalar_ssub_overflow(i8 %a) {
754 ; CHECK-LABEL: @test_scalar_ssub_overflow(
755 ; CHECK-NEXT:    [[W1:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[A:%.*]], i8 -100)
756 ; CHECK-NEXT:    [[W2:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[W1]], i8 -100)
757 ; CHECK-NEXT:    ret i8 [[W2]]
759   %w1 = call i8 @llvm.ssub.sat.i8(i8 %a, i8 100)
760   %w2 = call i8 @llvm.ssub.sat.i8(i8 %w1, i8 100)
761   ret i8 %w2
764 ; nneg usub neg always overflows.
765 define i8 @test_scalar_usub_nneg_neg(i8 %a) {
766 ; CHECK-LABEL: @test_scalar_usub_nneg_neg(
767 ; CHECK-NEXT:    ret i8 0
769   %a_nneg = and i8 %a, 127
770   %r = call i8 @llvm.usub.sat.i8(i8 %a_nneg, i8 -10)
771   ret i8 %r
774 define <2 x i8> @test_vector_usub_nneg_neg(<2 x i8> %a) {
775 ; CHECK-LABEL: @test_vector_usub_nneg_neg(
776 ; CHECK-NEXT:    ret <2 x i8> zeroinitializer
778   %a_nneg = and <2 x i8> %a, <i8 127, i8 127>
779   %r = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %a_nneg, <2 x i8> <i8 -10, i8 -20>)
780   ret <2 x i8> %r
783 ; neg usub nneg never overflows.
784 define i8 @test_scalar_usub_neg_nneg(i8 %a) {
785 ; CHECK-LABEL: @test_scalar_usub_neg_nneg(
786 ; CHECK-NEXT:    [[A_NEG:%.*]] = or i8 [[A:%.*]], -128
787 ; CHECK-NEXT:    [[R:%.*]] = add i8 [[A_NEG]], -10
788 ; CHECK-NEXT:    ret i8 [[R]]
790   %a_neg = or i8 %a, -128
791   %r = call i8 @llvm.usub.sat.i8(i8 %a_neg, i8 10)
792   ret i8 %r
795 define <2 x i8> @test_vector_usub_neg_nneg(<2 x i8> %a) {
796 ; CHECK-LABEL: @test_vector_usub_neg_nneg(
797 ; CHECK-NEXT:    [[A_NEG:%.*]] = or <2 x i8> [[A:%.*]], splat (i8 -128)
798 ; CHECK-NEXT:    [[R:%.*]] = add <2 x i8> [[A_NEG]], <i8 -10, i8 -20>
799 ; CHECK-NEXT:    ret <2 x i8> [[R]]
801   %a_neg = or <2 x i8> %a, <i8 -128, i8 -128>
802   %r = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %a_neg, <2 x i8> <i8 10, i8 20>)
803   ret <2 x i8> %r
806 ; nneg usub nneg never may overflow.
807 define i8 @test_scalar_usub_nneg_nneg(i8 %a) {
808 ; CHECK-LABEL: @test_scalar_usub_nneg_nneg(
809 ; CHECK-NEXT:    [[A_NNEG:%.*]] = and i8 [[A:%.*]], 127
810 ; CHECK-NEXT:    [[R:%.*]] = call i8 @llvm.usub.sat.i8(i8 [[A_NNEG]], i8 10)
811 ; CHECK-NEXT:    ret i8 [[R]]
813   %a_nneg = and i8 %a, 127
814   %r = call i8 @llvm.usub.sat.i8(i8 %a_nneg, i8 10)
815   ret i8 %r
818 define <2 x i8> @test_vector_usub_nneg_nneg(<2 x i8> %a) {
819 ; CHECK-LABEL: @test_vector_usub_nneg_nneg(
820 ; CHECK-NEXT:    [[A_NNEG:%.*]] = and <2 x i8> [[A:%.*]], splat (i8 127)
821 ; CHECK-NEXT:    [[R:%.*]] = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> [[A_NNEG]], <2 x i8> <i8 10, i8 20>)
822 ; CHECK-NEXT:    ret <2 x i8> [[R]]
824   %a_nneg = and <2 x i8> %a, <i8 127, i8 127>
825   %r = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %a_nneg, <2 x i8> <i8 10, i8 20>)
826   ret <2 x i8> %r
829 define i8 @test_scalar_usub_never_overflows(i8 %a) {
830 ; CHECK-LABEL: @test_scalar_usub_never_overflows(
831 ; CHECK-NEXT:    [[A_MASKED:%.*]] = or i8 [[A:%.*]], 64
832 ; CHECK-NEXT:    [[R:%.*]] = add nsw i8 [[A_MASKED]], -10
833 ; CHECK-NEXT:    ret i8 [[R]]
835   %a_masked = or i8 %a, 64
836   %r = call i8 @llvm.usub.sat.i8(i8 %a_masked, i8 10)
837   ret i8 %r
840 define <2 x i8> @test_vector_usub_never_overflows(<2 x i8> %a) {
841 ; CHECK-LABEL: @test_vector_usub_never_overflows(
842 ; CHECK-NEXT:    [[A_MASKED:%.*]] = or <2 x i8> [[A:%.*]], splat (i8 64)
843 ; CHECK-NEXT:    [[R:%.*]] = add nsw <2 x i8> [[A_MASKED]], splat (i8 -10)
844 ; CHECK-NEXT:    ret <2 x i8> [[R]]
846   %a_masked = or <2 x i8> %a, <i8 64, i8 64>
847   %r = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %a_masked, <2 x i8> <i8 10, i8 10>)
848   ret <2 x i8> %r
851 define i8 @test_scalar_usub_always_overflows(i8 %a) {
852 ; CHECK-LABEL: @test_scalar_usub_always_overflows(
853 ; CHECK-NEXT:    ret i8 0
855   %a_masked = and i8 %a, 64
856   %r = call i8 @llvm.usub.sat.i8(i8 %a_masked, i8 100)
857   ret i8 %r
860 define <2 x i8> @test_vector_usub_always_overflows(<2 x i8> %a) {
861 ; CHECK-LABEL: @test_vector_usub_always_overflows(
862 ; CHECK-NEXT:    ret <2 x i8> zeroinitializer
864   %a_masked = and <2 x i8> %a, <i8 64, i8 64>
865   %r = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %a_masked, <2 x i8> <i8 100, i8 100>)
866   ret <2 x i8> %r
869 ; neg ssub neg never overflows.
870 define i8 @test_scalar_ssub_neg_neg(i8 %a) {
871 ; CHECK-LABEL: @test_scalar_ssub_neg_neg(
872 ; CHECK-NEXT:    [[A_NEG:%.*]] = or i8 [[A:%.*]], -128
873 ; CHECK-NEXT:    [[R:%.*]] = add nsw i8 [[A_NEG]], 10
874 ; CHECK-NEXT:    ret i8 [[R]]
876   %a_neg = or i8 %a, -128
877   %r = call i8 @llvm.ssub.sat.i8(i8 %a_neg, i8 -10)
878   ret i8 %r
881 define <2 x i8> @test_vector_ssub_neg_neg(<2 x i8> %a) {
882 ; CHECK-LABEL: @test_vector_ssub_neg_neg(
883 ; CHECK-NEXT:    [[A_NEG:%.*]] = or <2 x i8> [[A:%.*]], splat (i8 -128)
884 ; CHECK-NEXT:    [[R:%.*]] = add nsw <2 x i8> [[A_NEG]], <i8 10, i8 20>
885 ; CHECK-NEXT:    ret <2 x i8> [[R]]
887   %a_neg = or <2 x i8> %a, <i8 -128, i8 -128>
888   %r = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> %a_neg, <2 x i8> <i8 -10, i8 -20>)
889   ret <2 x i8> %r
892 ; nneg ssub nneg never overflows.
893 define i8 @test_scalar_ssub_nneg_nneg(i8 %a) {
894 ; CHECK-LABEL: @test_scalar_ssub_nneg_nneg(
895 ; CHECK-NEXT:    [[A_NNEG:%.*]] = and i8 [[A:%.*]], 127
896 ; CHECK-NEXT:    [[R:%.*]] = add nsw i8 [[A_NNEG]], -10
897 ; CHECK-NEXT:    ret i8 [[R]]
899   %a_nneg = and i8 %a, 127
900   %r = call i8 @llvm.ssub.sat.i8(i8 %a_nneg, i8 10)
901   ret i8 %r
904 define <2 x i8> @test_vector_ssub_nneg_nneg(<2 x i8> %a) {
905 ; CHECK-LABEL: @test_vector_ssub_nneg_nneg(
906 ; CHECK-NEXT:    [[A_NNEG:%.*]] = and <2 x i8> [[A:%.*]], splat (i8 127)
907 ; CHECK-NEXT:    [[R:%.*]] = add nsw <2 x i8> [[A_NNEG]], <i8 -10, i8 -20>
908 ; CHECK-NEXT:    ret <2 x i8> [[R]]
910   %a_nneg = and <2 x i8> %a, <i8 127, i8 127>
911   %r = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> %a_nneg, <2 x i8> <i8 10, i8 20>)
912   ret <2 x i8> %r
915 ; neg ssub nneg may overflow.
916 define i8 @test_scalar_ssub_neg_nneg(i8 %a) {
917 ; CHECK-LABEL: @test_scalar_ssub_neg_nneg(
918 ; CHECK-NEXT:    [[A_NEG:%.*]] = or i8 [[A:%.*]], -128
919 ; CHECK-NEXT:    [[R:%.*]] = call i8 @llvm.sadd.sat.i8(i8 [[A_NEG]], i8 -10)
920 ; CHECK-NEXT:    ret i8 [[R]]
922   %a_neg = or i8 %a, -128
923   %r = call i8 @llvm.ssub.sat.i8(i8 %a_neg, i8 10)
924   ret i8 %r
927 define <2 x i8> @test_vector_ssub_neg_nneg(<2 x i8> %a) {
928 ; CHECK-LABEL: @test_vector_ssub_neg_nneg(
929 ; CHECK-NEXT:    [[A_NEG:%.*]] = or <2 x i8> [[A:%.*]], splat (i8 -128)
930 ; CHECK-NEXT:    [[R:%.*]] = call <2 x i8> @llvm.sadd.sat.v2i8(<2 x i8> [[A_NEG]], <2 x i8> <i8 -10, i8 -20>)
931 ; CHECK-NEXT:    ret <2 x i8> [[R]]
933   %a_neg = or <2 x i8> %a, <i8 -128, i8 -128>
934   %r = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> %a_neg, <2 x i8> <i8 10, i8 20>)
935   ret <2 x i8> %r
938 define i8 @test_scalar_ssub_always_overflows_low(i8 %a) {
939 ; CHECK-LABEL: @test_scalar_ssub_always_overflows_low(
940 ; CHECK-NEXT:    ret i8 -128
942   %cmp = icmp sgt i8 %a, 120
943   %max = select i1 %cmp, i8 %a, i8 120
944   %r = call i8 @llvm.ssub.sat.i8(i8 -10, i8 %max)
945   ret i8 %r
948 define i8 @test_scalar_ssub_always_overflows_high(i8 %a) {
949 ; CHECK-LABEL: @test_scalar_ssub_always_overflows_high(
950 ; CHECK-NEXT:    ret i8 127
952   %cmp = icmp slt i8 %a, -120
953   %min = select i1 %cmp, i8 %a, i8 -120
954   %r = call i8 @llvm.ssub.sat.i8(i8 10, i8 %min)
955   ret i8 %r
958 define i8 @test_scalar_usub_add_nuw_no_ov(i8 %a) {
959 ; CHECK-LABEL: @test_scalar_usub_add_nuw_no_ov(
960 ; CHECK-NEXT:    [[R:%.*]] = add i8 [[A:%.*]], 1
961 ; CHECK-NEXT:    ret i8 [[R]]
963   %b = add nuw i8 %a, 10
964   %r = call i8 @llvm.usub.sat.i8(i8 %b, i8 9)
965   ret i8 %r
968 define i8 @test_scalar_usub_add_nuw_nsw_no_ov(i8 %a) {
969 ; CHECK-LABEL: @test_scalar_usub_add_nuw_nsw_no_ov(
970 ; CHECK-NEXT:    [[R:%.*]] = add i8 [[A:%.*]], 1
971 ; CHECK-NEXT:    ret i8 [[R]]
973   %b = add nuw nsw i8 %a, 10
974   %r = call i8 @llvm.usub.sat.i8(i8 %b, i8 9)
975   ret i8 %r
978 define i8 @test_scalar_usub_add_nuw_eq(i8 %a) {
979 ; CHECK-LABEL: @test_scalar_usub_add_nuw_eq(
980 ; CHECK-NEXT:    ret i8 [[A:%.*]]
982   %b = add nuw i8 %a, 10
983   %r = call i8 @llvm.usub.sat.i8(i8 %b, i8 10)
984   ret i8 %r
987 define i8 @test_scalar_usub_add_nuw_may_ov(i8 %a) {
988 ; CHECK-LABEL: @test_scalar_usub_add_nuw_may_ov(
989 ; CHECK-NEXT:    [[B:%.*]] = add nuw i8 [[A:%.*]], 10
990 ; CHECK-NEXT:    [[R:%.*]] = call i8 @llvm.usub.sat.i8(i8 [[B]], i8 11)
991 ; CHECK-NEXT:    ret i8 [[R]]
993   %b = add nuw i8 %a, 10
994   %r = call i8 @llvm.usub.sat.i8(i8 %b, i8 11)
995   ret i8 %r
998 define i8 @test_scalar_usub_urem_must_ov(i8 %a) {
999 ; CHECK-LABEL: @test_scalar_usub_urem_must_ov(
1000 ; CHECK-NEXT:    ret i8 0
1002   %b = urem i8 %a, 10
1003   %r = call i8 @llvm.usub.sat.i8(i8 %b, i8 10)
1004   ret i8 %r
1007 ; Like the previous case, the result is always zero here. However, as there's
1008 ; no actual overflow, we won't know about it.
1009 define i8 @test_scalar_usub_urem_must_zero(i8 %a) {
1010 ; CHECK-LABEL: @test_scalar_usub_urem_must_zero(
1011 ; CHECK-NEXT:    [[B:%.*]] = urem i8 [[A:%.*]], 10
1012 ; CHECK-NEXT:    [[R:%.*]] = call i8 @llvm.usub.sat.i8(i8 [[B]], i8 9)
1013 ; CHECK-NEXT:    ret i8 [[R]]
1015   %b = urem i8 %a, 10
1016   %r = call i8 @llvm.usub.sat.i8(i8 %b, i8 9)
1017   ret i8 %r
1020 ; We have a constant range for the LHS, but only known bits for the RHS
1021 define i8 @test_scalar_usub_add_nuw_known_bits(i8 %a, i8 %b) {
1022 ; CHECK-LABEL: @test_scalar_usub_add_nuw_known_bits(
1023 ; CHECK-NEXT:    [[AA:%.*]] = add nuw i8 [[A:%.*]], 10
1024 ; CHECK-NEXT:    [[BB:%.*]] = and i8 [[B:%.*]], 7
1025 ; CHECK-NEXT:    [[R:%.*]] = sub nuw i8 [[AA]], [[BB]]
1026 ; CHECK-NEXT:    ret i8 [[R]]
1028   %aa = add nuw i8 %a, 10
1029   %bb = and i8 %b, 7
1030   %r = call i8 @llvm.usub.sat.i8(i8 %aa, i8 %bb)
1031   ret i8 %r
1034 define i8 @test_scalar_usub_add_nuw_inferred(i8 %a) {
1035 ; CHECK-LABEL: @test_scalar_usub_add_nuw_inferred(
1036 ; CHECK-NEXT:    [[B:%.*]] = call i8 @llvm.usub.sat.i8(i8 [[A:%.*]], i8 10)
1037 ; CHECK-NEXT:    [[R:%.*]] = add nuw i8 [[B]], 9
1038 ; CHECK-NEXT:    ret i8 [[R]]
1040   %b = call i8 @llvm.usub.sat.i8(i8 %a, i8 10)
1041   %r = add i8 %b, 9
1042   ret i8 %r
1045 define <2 x i8> @test_vector_usub_add_nuw_no_ov(<2 x i8> %a) {
1046 ; CHECK-LABEL: @test_vector_usub_add_nuw_no_ov(
1047 ; CHECK-NEXT:    [[R:%.*]] = add <2 x i8> [[A:%.*]], splat (i8 1)
1048 ; CHECK-NEXT:    ret <2 x i8> [[R]]
1050   %b = add nuw <2 x i8> %a, <i8 10, i8 10>
1051   %r = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %b, <2 x i8> <i8 9, i8 9>)
1052   ret <2 x i8> %r
1055 define <2 x i8> @test_vector_usub_add_nuw_no_ov_nonsplat1(<2 x i8> %a) {
1056 ; CHECK-LABEL: @test_vector_usub_add_nuw_no_ov_nonsplat1(
1057 ; CHECK-NEXT:    [[R:%.*]] = add <2 x i8> [[A:%.*]], <i8 0, i8 1>
1058 ; CHECK-NEXT:    ret <2 x i8> [[R]]
1060   %b = add nuw <2 x i8> %a, <i8 10, i8 10>
1061   %r = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %b, <2 x i8> <i8 10, i8 9>)
1062   ret <2 x i8> %r
1065 define <3 x i8> @test_vector_usub_add_nuw_no_ov_nonsplat1_poison(<3 x i8> %a) {
1066 ; CHECK-LABEL: @test_vector_usub_add_nuw_no_ov_nonsplat1_poison(
1067 ; CHECK-NEXT:    [[R:%.*]] = add <3 x i8> [[A:%.*]], <i8 0, i8 1, i8 poison>
1068 ; CHECK-NEXT:    ret <3 x i8> [[R]]
1070   %b = add nuw <3 x i8> %a, <i8 10, i8 10, i8 10>
1071   %r = call <3 x i8> @llvm.usub.sat.v3i8(<3 x i8> %b, <3 x i8> <i8 10, i8 9, i8 poison>)
1072   ret <3 x i8> %r
1075 ; Can be optimized if the add nuw RHS constant range handles non-splat vectors.
1076 define <2 x i8> @test_vector_usub_add_nuw_no_ov_nonsplat2(<2 x i8> %a) {
1077 ; CHECK-LABEL: @test_vector_usub_add_nuw_no_ov_nonsplat2(
1078 ; CHECK-NEXT:    [[B:%.*]] = add nuw <2 x i8> [[A:%.*]], <i8 10, i8 9>
1079 ; CHECK-NEXT:    [[R:%.*]] = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> [[B]], <2 x i8> splat (i8 9))
1080 ; CHECK-NEXT:    ret <2 x i8> [[R]]
1082   %b = add nuw <2 x i8> %a, <i8 10, i8 9>
1083   %r = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %b, <2 x i8> <i8 9, i8 9>)
1084   ret <2 x i8> %r
1087 ; Can be optimized if constant range is tracked per-element.
1088 define <2 x i8> @test_vector_usub_add_nuw_no_ov_nonsplat3(<2 x i8> %a) {
1089 ; CHECK-LABEL: @test_vector_usub_add_nuw_no_ov_nonsplat3(
1090 ; CHECK-NEXT:    [[B:%.*]] = add nuw <2 x i8> [[A:%.*]], <i8 10, i8 9>
1091 ; CHECK-NEXT:    [[R:%.*]] = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> [[B]], <2 x i8> <i8 10, i8 9>)
1092 ; CHECK-NEXT:    ret <2 x i8> [[R]]
1094   %b = add nuw <2 x i8> %a, <i8 10, i8 9>
1095   %r = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %b, <2 x i8> <i8 10, i8 9>)
1096   ret <2 x i8> %r
1099 define i8 @test_scalar_ssub_add_nsw_no_ov(i8 %a, i8 %b) {
1100 ; CHECK-LABEL: @test_scalar_ssub_add_nsw_no_ov(
1101 ; CHECK-NEXT:    [[AA:%.*]] = add nsw i8 [[A:%.*]], 7
1102 ; CHECK-NEXT:    [[BB:%.*]] = and i8 [[B:%.*]], 7
1103 ; CHECK-NEXT:    [[R:%.*]] = sub nsw i8 [[AA]], [[BB]]
1104 ; CHECK-NEXT:    ret i8 [[R]]
1106   %aa = add nsw i8 %a, 7
1107   %bb = and i8 %b, 7
1108   %r = call i8 @llvm.ssub.sat.i8(i8 %aa, i8 %bb)
1109   ret i8 %r
1112 define i8 @test_scalar_ssub_add_nsw_may_ov(i8 %a, i8 %b) {
1113 ; CHECK-LABEL: @test_scalar_ssub_add_nsw_may_ov(
1114 ; CHECK-NEXT:    [[AA:%.*]] = add nsw i8 [[A:%.*]], 6
1115 ; CHECK-NEXT:    [[BB:%.*]] = and i8 [[B:%.*]], 7
1116 ; CHECK-NEXT:    [[R:%.*]] = call i8 @llvm.ssub.sat.i8(i8 [[AA]], i8 [[BB]])
1117 ; CHECK-NEXT:    ret i8 [[R]]
1119   %aa = add nsw i8 %a, 6
1120   %bb = and i8 %b, 7
1121   %r = call i8 @llvm.ssub.sat.i8(i8 %aa, i8 %bb)
1122   ret i8 %r
1125 define <2 x i8> @test_vector_ssub_add_nsw_no_ov_splat(<2 x i8> %a, <2 x i8> %b) {
1126 ; CHECK-LABEL: @test_vector_ssub_add_nsw_no_ov_splat(
1127 ; CHECK-NEXT:    [[AA:%.*]] = add nsw <2 x i8> [[A:%.*]], splat (i8 7)
1128 ; CHECK-NEXT:    [[BB:%.*]] = and <2 x i8> [[B:%.*]], splat (i8 7)
1129 ; CHECK-NEXT:    [[R:%.*]] = sub nsw <2 x i8> [[AA]], [[BB]]
1130 ; CHECK-NEXT:    ret <2 x i8> [[R]]
1132   %aa = add nsw <2 x i8> %a, <i8 7, i8 7>
1133   %bb = and <2 x i8> %b, <i8 7, i8 7>
1134   %r = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> %aa, <2 x i8> %bb)
1135   ret <2 x i8> %r
1138 define <2 x i8> @test_vector_ssub_add_nsw_no_ov_nonsplat1(<2 x i8> %a, <2 x i8> %b) {
1139 ; CHECK-LABEL: @test_vector_ssub_add_nsw_no_ov_nonsplat1(
1140 ; CHECK-NEXT:    [[AA:%.*]] = add nsw <2 x i8> [[A:%.*]], splat (i8 7)
1141 ; CHECK-NEXT:    [[BB:%.*]] = and <2 x i8> [[B:%.*]], <i8 7, i8 6>
1142 ; CHECK-NEXT:    [[R:%.*]] = sub nsw <2 x i8> [[AA]], [[BB]]
1143 ; CHECK-NEXT:    ret <2 x i8> [[R]]
1145   %aa = add nsw <2 x i8> %a, <i8 7, i8 7>
1146   %bb = and <2 x i8> %b, <i8 7, i8 6>
1147   %r = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> %aa, <2 x i8> %bb)
1148   ret <2 x i8> %r
1151 define <2 x i8> @test_vector_ssub_add_nsw_no_ov_nonsplat2(<2 x i8> %a, <2 x i8> %b) {
1152 ; CHECK-LABEL: @test_vector_ssub_add_nsw_no_ov_nonsplat2(
1153 ; CHECK-NEXT:    [[AA:%.*]] = add nsw <2 x i8> [[A:%.*]], <i8 7, i8 8>
1154 ; CHECK-NEXT:    [[BB:%.*]] = and <2 x i8> [[B:%.*]], splat (i8 7)
1155 ; CHECK-NEXT:    [[R:%.*]] = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> [[AA]], <2 x i8> [[BB]])
1156 ; CHECK-NEXT:    ret <2 x i8> [[R]]
1158   %aa = add nsw <2 x i8> %a, <i8 7, i8 8>
1159   %bb = and <2 x i8> %b, <i8 7, i8 7>
1160   %r = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> %aa, <2 x i8> %bb)
1161   ret <2 x i8> %r
1164 define <2 x i8> @test_vector_ssub_add_nsw_no_ov_nonsplat3(<2 x i8> %a, <2 x i8> %b) {
1165 ; CHECK-LABEL: @test_vector_ssub_add_nsw_no_ov_nonsplat3(
1166 ; CHECK-NEXT:    [[AA:%.*]] = add nsw <2 x i8> [[A:%.*]], <i8 7, i8 6>
1167 ; CHECK-NEXT:    [[BB:%.*]] = and <2 x i8> [[B:%.*]], <i8 7, i8 6>
1168 ; CHECK-NEXT:    [[R:%.*]] = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> [[AA]], <2 x i8> [[BB]])
1169 ; CHECK-NEXT:    ret <2 x i8> [[R]]
1171   %aa = add nsw <2 x i8> %a, <i8 7, i8 6>
1172   %bb = and <2 x i8> %b, <i8 7, i8 6>
1173   %r = call <2 x i8> @llvm.ssub.sat.v2i8(<2 x i8> %aa, <2 x i8> %bb)
1174   ret <2 x i8> %r
1177 define i8 @test_scalar_usub_add(i8 %a, i8 %b) {
1178 ; CHECK-LABEL: @test_scalar_usub_add(
1179 ; CHECK-NEXT:    [[RES:%.*]] = call i8 @llvm.umax.i8(i8 [[A:%.*]], i8 [[B:%.*]])
1180 ; CHECK-NEXT:    ret i8 [[RES]]
1182   %sat = call i8 @llvm.usub.sat.i8(i8 %a, i8 %b)
1183   %res = add i8 %sat, %b
1184   ret i8 %res
1187 define i8 @test_scalar_usub_add_extra_use(i8 %a, i8 %b, ptr %p) {
1188 ; CHECK-LABEL: @test_scalar_usub_add_extra_use(
1189 ; CHECK-NEXT:    [[SAT:%.*]] = call i8 @llvm.usub.sat.i8(i8 [[A:%.*]], i8 [[B:%.*]])
1190 ; CHECK-NEXT:    store i8 [[SAT]], ptr [[P:%.*]], align 1
1191 ; CHECK-NEXT:    [[RES:%.*]] = add i8 [[SAT]], [[B]]
1192 ; CHECK-NEXT:    ret i8 [[RES]]
1194   %sat = call i8 @llvm.usub.sat.i8(i8 %a, i8 %b)
1195   store i8 %sat, ptr %p
1196   %res = add i8 %sat, %b
1197   ret i8 %res
1200 define i8 @test_scalar_usub_add_commuted(i8 %a, i8 %b) {
1201 ; CHECK-LABEL: @test_scalar_usub_add_commuted(
1202 ; CHECK-NEXT:    [[RES:%.*]] = call i8 @llvm.umax.i8(i8 [[A:%.*]], i8 [[B:%.*]])
1203 ; CHECK-NEXT:    ret i8 [[RES]]
1205   %sat = call i8 @llvm.usub.sat.i8(i8 %a, i8 %b)
1206   %res = add i8 %b, %sat
1207   ret i8 %res
1210 define i8 @test_scalar_usub_add_commuted_wrong(i8 %a, i8 %b) {
1211 ; CHECK-LABEL: @test_scalar_usub_add_commuted_wrong(
1212 ; CHECK-NEXT:    [[SAT:%.*]] = call i8 @llvm.usub.sat.i8(i8 [[B:%.*]], i8 [[A:%.*]])
1213 ; CHECK-NEXT:    [[RES:%.*]] = add i8 [[SAT]], [[B]]
1214 ; CHECK-NEXT:    ret i8 [[RES]]
1216   %sat = call i8 @llvm.usub.sat.i8(i8 %b, i8 %a)
1217   %res = add i8 %sat, %b
1218   ret i8 %res
1221 define i8 @test_scalar_usub_add_const(i8 %a) {
1222 ; CHECK-LABEL: @test_scalar_usub_add_const(
1223 ; CHECK-NEXT:    [[RES:%.*]] = call i8 @llvm.umax.i8(i8 [[A:%.*]], i8 42)
1224 ; CHECK-NEXT:    ret i8 [[RES]]
1226   %sat = call i8 @llvm.usub.sat.i8(i8 %a, i8 42)
1227   %res = add i8 %sat, 42
1228   ret i8 %res
1231 define i8 @test_scalar_usub_sub(i8 %a, i8 %b) {
1232 ; CHECK-LABEL: @test_scalar_usub_sub(
1233 ; CHECK-NEXT:    [[RES:%.*]] = call i8 @llvm.umin.i8(i8 [[A:%.*]], i8 [[B:%.*]])
1234 ; CHECK-NEXT:    ret i8 [[RES]]
1236   %sat = call i8 @llvm.usub.sat.i8(i8 %a, i8 %b)
1237   %res = sub i8 %a, %sat
1238   ret i8 %res
1241 define i8 @test_scalar_usub_sub_extra_use(i8 %a, i8 %b, ptr %p) {
1242 ; CHECK-LABEL: @test_scalar_usub_sub_extra_use(
1243 ; CHECK-NEXT:    [[SAT:%.*]] = call i8 @llvm.usub.sat.i8(i8 [[A:%.*]], i8 [[B:%.*]])
1244 ; CHECK-NEXT:    store i8 [[SAT]], ptr [[P:%.*]], align 1
1245 ; CHECK-NEXT:    [[RES:%.*]] = sub i8 [[A]], [[SAT]]
1246 ; CHECK-NEXT:    ret i8 [[RES]]
1248   %sat = call i8 @llvm.usub.sat.i8(i8 %a, i8 %b)
1249   store i8 %sat, ptr %p
1250   %res = sub i8 %a, %sat
1251   ret i8 %res
1254 define <2 x i8> @test_vector_usub_sub(<2 x i8> %a, <2 x i8> %b) {
1255 ; CHECK-LABEL: @test_vector_usub_sub(
1256 ; CHECK-NEXT:    [[RES:%.*]] = call <2 x i8> @llvm.umin.v2i8(<2 x i8> [[A:%.*]], <2 x i8> [[B:%.*]])
1257 ; CHECK-NEXT:    ret <2 x i8> [[RES]]
1259   %sat = call <2 x i8> @llvm.usub.sat.v2i8(<2 x i8> %a, <2 x i8> %b)
1260   %res = sub <2 x i8> %a, %sat
1261   ret <2 x i8> %res
1264 define i8 @test_scalar_usub_sub_wrong(i8 %a, i8 %b) {
1265 ; CHECK-LABEL: @test_scalar_usub_sub_wrong(
1266 ; CHECK-NEXT:    [[SAT:%.*]] = call i8 @llvm.usub.sat.i8(i8 [[A:%.*]], i8 [[B:%.*]])
1267 ; CHECK-NEXT:    [[RES:%.*]] = sub i8 [[B]], [[SAT]]
1268 ; CHECK-NEXT:    ret i8 [[RES]]
1270   %sat = call i8 @llvm.usub.sat.i8(i8 %a, i8 %b)
1271   %res = sub i8 %b, %sat
1272   ret i8 %res
1275 define i8 @test_scalar_usub_sub_wrong2(i8 %a, i8 %b) {
1276 ; CHECK-LABEL: @test_scalar_usub_sub_wrong2(
1277 ; CHECK-NEXT:    [[SAT:%.*]] = call i8 @llvm.usub.sat.i8(i8 [[A:%.*]], i8 [[B:%.*]])
1278 ; CHECK-NEXT:    [[RES:%.*]] = sub i8 [[SAT]], [[B]]
1279 ; CHECK-NEXT:    ret i8 [[RES]]
1281   %sat = call i8 @llvm.usub.sat.i8(i8 %a, i8 %b)
1282   %res = sub i8 %sat, %b
1283   ret i8 %res
1286 define i8 @test_scalar_uadd_sub(i8 %a, i8 %b) {
1287 ; CHECK-LABEL: @test_scalar_uadd_sub(
1288 ; CHECK-NEXT:    [[SAT:%.*]] = call i8 @llvm.uadd.sat.i8(i8 [[A:%.*]], i8 [[B:%.*]])
1289 ; CHECK-NEXT:    [[RES:%.*]] = sub i8 [[SAT]], [[B]]
1290 ; CHECK-NEXT:    ret i8 [[RES]]
1292   %sat = call i8 @llvm.uadd.sat.i8(i8 %a, i8 %b)
1293   %res = sub i8 %sat, %b
1294   ret i8 %res
1297 define i8 @test_scalar_uadd_sub_extra_use(i8 %a, i8 %b, ptr %p) {
1298 ; CHECK-LABEL: @test_scalar_uadd_sub_extra_use(
1299 ; CHECK-NEXT:    [[SAT:%.*]] = call i8 @llvm.uadd.sat.i8(i8 [[A:%.*]], i8 [[B:%.*]])
1300 ; CHECK-NEXT:    store i8 [[SAT]], ptr [[P:%.*]], align 1
1301 ; CHECK-NEXT:    [[RES:%.*]] = sub i8 [[SAT]], [[B]]
1302 ; CHECK-NEXT:    ret i8 [[RES]]
1304   %sat = call i8 @llvm.uadd.sat.i8(i8 %a, i8 %b)
1305   store i8 %sat, ptr %p
1306   %res = sub i8 %sat, %b
1307   ret i8 %res
1310 define i8 @test_scalar_uadd_sub_commuted(i8 %a, i8 %b) {
1311 ; CHECK-LABEL: @test_scalar_uadd_sub_commuted(
1312 ; CHECK-NEXT:    [[SAT:%.*]] = call i8 @llvm.uadd.sat.i8(i8 [[B:%.*]], i8 [[A:%.*]])
1313 ; CHECK-NEXT:    [[RES:%.*]] = sub i8 [[SAT]], [[B]]
1314 ; CHECK-NEXT:    ret i8 [[RES]]
1316   %sat = call i8 @llvm.uadd.sat.i8(i8 %b, i8 %a)
1317   %res = sub i8 %sat, %b
1318   ret i8 %res
1321 define i8 @test_scalar_uadd_sub_commuted_wrong(i8 %a, i8 %b) {
1322 ; CHECK-LABEL: @test_scalar_uadd_sub_commuted_wrong(
1323 ; CHECK-NEXT:    [[SAT:%.*]] = call i8 @llvm.uadd.sat.i8(i8 [[A:%.*]], i8 [[B:%.*]])
1324 ; CHECK-NEXT:    [[RES:%.*]] = sub i8 [[B]], [[SAT]]
1325 ; CHECK-NEXT:    ret i8 [[RES]]
1327   %sat = call i8 @llvm.uadd.sat.i8(i8 %a, i8 %b)
1328   %res = sub i8 %b, %sat
1329   ret i8 %res
1332 define i8 @test_scalar_uadd_sub_const(i8 %a) {
1333 ; CHECK-LABEL: @test_scalar_uadd_sub_const(
1334 ; CHECK-NEXT:    [[SAT:%.*]] = call i8 @llvm.uadd.sat.i8(i8 [[A:%.*]], i8 42)
1335 ; CHECK-NEXT:    [[RES:%.*]] = add i8 [[SAT]], -42
1336 ; CHECK-NEXT:    ret i8 [[RES]]
1338   %sat = call i8 @llvm.uadd.sat.i8(i8 %a, i8 42)
1339   %res = sub i8 %sat, 42
1340   ret i8 %res
1343 define i1 @scalar_uadd_eq_zero(i8 %a, i8 %b) {
1344 ; CHECK-LABEL: @scalar_uadd_eq_zero(
1345 ; CHECK-NEXT:    [[TMP1:%.*]] = or i8 [[A:%.*]], [[B:%.*]]
1346 ; CHECK-NEXT:    [[CMP:%.*]] = icmp eq i8 [[TMP1]], 0
1347 ; CHECK-NEXT:    ret i1 [[CMP]]
1349   %sat = call i8 @llvm.uadd.sat.i8(i8 %a, i8 %b)
1350   %cmp = icmp eq i8 %sat, 0
1351   ret i1 %cmp
1354 define i1 @scalar_uadd_ne_zero(i8 %a, i8 %b) {
1355 ; CHECK-LABEL: @scalar_uadd_ne_zero(
1356 ; CHECK-NEXT:    [[TMP1:%.*]] = or i8 [[A:%.*]], [[B:%.*]]
1357 ; CHECK-NEXT:    [[CMP:%.*]] = icmp ne i8 [[TMP1]], 0
1358 ; CHECK-NEXT:    ret i1 [[CMP]]
1360   %sat = call i8 @llvm.uadd.sat.i8(i8 %a, i8 %b)
1361   %cmp = icmp ne i8 %sat, 0
1362   ret i1 %cmp
1365 define i1 @scalar_usub_eq_zero(i8 %a, i8 %b) {
1366 ; CHECK-LABEL: @scalar_usub_eq_zero(
1367 ; CHECK-NEXT:    [[CMP:%.*]] = icmp ule i8 [[A:%.*]], [[B:%.*]]
1368 ; CHECK-NEXT:    ret i1 [[CMP]]
1370   %sat = call i8 @llvm.usub.sat.i8(i8 %a, i8 %b)
1371   %cmp = icmp eq i8 %sat, 0
1372   ret i1 %cmp
1375 define i1 @scalar_usub_ne_zero(i8 %a, i8 %b) {
1376 ; CHECK-LABEL: @scalar_usub_ne_zero(
1377 ; CHECK-NEXT:    [[CMP:%.*]] = icmp ugt i8 [[A:%.*]], [[B:%.*]]
1378 ; CHECK-NEXT:    ret i1 [[CMP]]
1380   %sat = call i8 @llvm.usub.sat.i8(i8 %a, i8 %b)
1381   %cmp = icmp ne i8 %sat, 0
1382   ret i1 %cmp
1385 ; Raw IR tests
1387 define i32 @uadd_sat(i32 %x, i32 %y) {
1388 ; CHECK-LABEL: @uadd_sat(
1389 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X:%.*]], i32 [[Y:%.*]])
1390 ; CHECK-NEXT:    ret i32 [[R]]
1392   %notx = xor i32 %x, -1
1393   %a = add i32 %y, %x
1394   %c = icmp ult i32 %notx, %y
1395   %r = select i1 %c, i32 -1, i32 %a
1396   ret i32 %r
1399 define i32 @uadd_sat_flipped(i32 %x) {
1400 ; CHECK-LABEL: @uadd_sat_flipped(
1401 ; CHECK-NEXT:    [[COND:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X:%.*]], i32 9)
1402 ; CHECK-NEXT:    ret i32 [[COND]]
1404   %cmp = icmp ugt i32 %x, -11
1405   %add = add i32 %x, 9
1406   %cond = select i1 %cmp, i32 -1, i32 %add
1407   ret i32 %cond
1410 define i32 @uadd_sat_flipped2(i32 %x) {
1411 ; CHECK-LABEL: @uadd_sat_flipped2(
1412 ; CHECK-NEXT:    [[COND:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X:%.*]], i32 9)
1413 ; CHECK-NEXT:    ret i32 [[COND]]
1415   %cmp = icmp ugt i32 %x, -10
1416   %add = add i32 %x, 9
1417   %cond = select i1 %cmp, i32 -1, i32 %add
1418   ret i32 %cond
1421 define i32 @uadd_sat_flipped3(i32 %x) {
1422 ; CHECK-LABEL: @uadd_sat_flipped3(
1423 ; CHECK-NEXT:    [[CMP:%.*]] = icmp ugt i32 [[X:%.*]], -8
1424 ; CHECK-NEXT:    [[ADD:%.*]] = add nuw i32 [[X]], 9
1425 ; CHECK-NEXT:    [[COND:%.*]] = select i1 [[CMP]], i32 -1, i32 [[ADD]]
1426 ; CHECK-NEXT:    ret i32 [[COND]]
1428   %cmp = icmp ugt i32 %x, -8
1429   %add = add nuw i32 %x, 9
1430   %cond = select i1 %cmp, i32 -1, i32 %add
1431   ret i32 %cond
1434 ; Negative Test
1436 define i32 @uadd_sat_flipped3_neg_no_nuw(i32 %x) {
1437 ; CHECK-LABEL: @uadd_sat_flipped3_neg_no_nuw(
1438 ; CHECK-NEXT:    [[CMP:%.*]] = icmp ugt i32 [[X:%.*]], -8
1439 ; CHECK-NEXT:    [[ADD:%.*]] = add i32 [[X]], 9
1440 ; CHECK-NEXT:    [[COND:%.*]] = select i1 [[CMP]], i32 -1, i32 [[ADD]]
1441 ; CHECK-NEXT:    ret i32 [[COND]]
1443   %cmp = icmp ugt i32 %x, -8
1444   %add = add i32 %x, 9
1445   %cond = select i1 %cmp, i32 -1, i32 %add
1446   ret i32 %cond
1449 define i32 @uadd_sat_negative_one(i32 %x) {
1450 ; CHECK-LABEL: @uadd_sat_negative_one(
1451 ; CHECK-NEXT:    [[COND:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X:%.*]], i32 1)
1452 ; CHECK-NEXT:    ret i32 [[COND]]
1454   %cmp = icmp eq i32 %x, -1
1455   %add = add i32 %x, 1
1456   %cond = select i1 %cmp, i32 -1, i32 %add
1457   ret i32 %cond
1460 define <2 x i8> @uadd_sat_flipped4_vector(<2 x i8> %x) {
1461 ; CHECK-LABEL: @uadd_sat_flipped4_vector(
1462 ; CHECK-NEXT:    [[COND:%.*]] = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> [[X:%.*]], <2 x i8> splat (i8 9))
1463 ; CHECK-NEXT:    ret <2 x i8> [[COND]]
1465   %cmp = icmp ult <2 x i8> %x, <i8 -10, i8 -10>
1466   %add = add <2 x i8> %x, <i8 9, i8 9>
1467   %cond = select <2 x i1> %cmp, <2 x i8> %add, <2 x i8> <i8 -1, i8 -1>
1468   ret <2 x i8> %cond
1471 define <2 x i8> @uadd_sat_flipped4_poison_vector(<2 x i8> %x) {
1472 ; CHECK-LABEL: @uadd_sat_flipped4_poison_vector(
1473 ; CHECK-NEXT:    [[COND:%.*]] = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> [[X:%.*]], <2 x i8> splat (i8 9))
1474 ; CHECK-NEXT:    ret <2 x i8> [[COND]]
1476   %cmp = icmp ult <2 x i8> %x, <i8 -10, i8 poison>
1477   %add = add <2 x i8> %x, <i8 9, i8 9>
1478   %cond = select <2 x i1> %cmp, <2 x i8> %add,<2 x i8> <i8 -1, i8 -1>
1479   ret <2 x i8> %cond
1482 define <2 x i8> @uadd_sat_flipped4_poison_vector_compare(<2 x i8> %x) {
1483 ; CHECK-LABEL: @uadd_sat_flipped4_poison_vector_compare(
1484 ; CHECK-NEXT:    [[COND:%.*]] = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> [[X:%.*]], <2 x i8> splat (i8 9))
1485 ; CHECK-NEXT:    ret <2 x i8> [[COND]]
1487   %cmp = icmp ult <2 x i8> %x, <i8 -10, i8 poison>
1488   %add = add <2 x i8> %x, <i8 9, i8 poison>
1489   %cond = select <2 x i1> %cmp, <2 x i8> %add,<2 x i8> <i8 -1, i8 -1>
1490   ret <2 x i8> %cond
1493 define <2 x i8> @uadd_sat_flipped4_poison_vector_compare2(<2 x i8> %x) {
1494 ; CHECK-LABEL: @uadd_sat_flipped4_poison_vector_compare2(
1495 ; CHECK-NEXT:    ret <2 x i8> splat (i8 -1)
1497   %cmp = icmp ult <2 x i8> %x, <i8 -10, i8 poison>
1498   %add = add <2 x i8> %x, <i8 poison, i8 poison>
1499   %cond = select <2 x i1> %cmp, <2 x i8> %add,<2 x i8> <i8 -1, i8 -1>
1500   ret <2 x i8> %cond
1503 ; Negative test:
1505 define i32 @uadd_sat_flipped_too_big(i32 %x) {
1506 ; CHECK-LABEL: @uadd_sat_flipped_too_big(
1507 ; CHECK-NEXT:    [[CMP:%.*]] = icmp ult i32 [[X:%.*]], -8
1508 ; CHECK-NEXT:    [[ADD:%.*]] = add i32 [[X]], 9
1509 ; CHECK-NEXT:    [[COND:%.*]] = select i1 [[CMP]], i32 [[ADD]], i32 -1
1510 ; CHECK-NEXT:    ret i32 [[COND]]
1512   %cmp = icmp ult i32 %x, -8
1513   %add = add i32 %x, 9
1514   %cond = select i1 %cmp, i32 %add, i32 -1
1515   ret i32 %cond
1518 ; Negative test:
1520 define i32 @uadd_sat_flipped_wrong_bounds(i32 %x) {
1521 ; CHECK-LABEL: @uadd_sat_flipped_wrong_bounds(
1522 ; CHECK-NEXT:    [[CMP:%.*]] = icmp ugt i32 [[X:%.*]], -13
1523 ; CHECK-NEXT:    [[ADD:%.*]] = add i32 [[X]], 9
1524 ; CHECK-NEXT:    [[COND:%.*]] = select i1 [[CMP]], i32 -1, i32 [[ADD]]
1525 ; CHECK-NEXT:    ret i32 [[COND]]
1527   %cmp = icmp uge i32 %x, -12
1528   %add = add i32 %x, 9
1529   %cond = select i1 %cmp, i32 -1, i32 %add
1530   ret i32 %cond
1533 ; Negative test:
1535 define i32 @uadd_sat_flipped_wrong_bounds2(i32 %x) {
1536 ; CHECK-LABEL: @uadd_sat_flipped_wrong_bounds2(
1537 ; CHECK-NEXT:    [[CMP:%.*]] = icmp ugt i32 [[X:%.*]], -12
1538 ; CHECK-NEXT:    [[ADD:%.*]] = add i32 [[X]], 9
1539 ; CHECK-NEXT:    [[COND:%.*]] = select i1 [[CMP]], i32 -1, i32 [[ADD]]
1540 ; CHECK-NEXT:    ret i32 [[COND]]
1542   %cmp = icmp ugt i32 %x, -12
1543   %add = add i32 %x, 9
1544   %cond = select i1 %cmp, i32 -1, i32 %add
1545   ret i32 %cond
1548 ; Negative test:
1550 define i32 @uadd_sat_flipped_wrong_bounds3(i32 %x) {
1551 ; CHECK-LABEL: @uadd_sat_flipped_wrong_bounds3(
1552 ; CHECK-NEXT:    [[CMP:%.*]] = icmp ugt i32 [[X:%.*]], -12
1553 ; CHECK-NEXT:    [[ADD:%.*]] = add i32 [[X]], 9
1554 ; CHECK-NEXT:    [[COND:%.*]] = select i1 [[CMP]], i32 -1, i32 [[ADD]]
1555 ; CHECK-NEXT:    ret i32 [[COND]]
1557   %cmp = icmp ugt i32 %x, -12
1558   %add = add i32 %x, 9
1559   %cond = select i1 %cmp, i32 -1, i32 %add
1560   ret i32 %cond
1563 ; Negative test:
1565 define i32 @uadd_sat_flipped_wrong_bounds4(i32 %x) {
1566 ; CHECK-LABEL: @uadd_sat_flipped_wrong_bounds4(
1567 ; CHECK-NEXT:    [[CMP:%.*]] = icmp ugt i32 [[X:%.*]], -9
1568 ; CHECK-NEXT:    [[ADD:%.*]] = add i32 [[X]], 9
1569 ; CHECK-NEXT:    [[COND:%.*]] = select i1 [[CMP]], i32 -1, i32 [[ADD]]
1570 ; CHECK-NEXT:    ret i32 [[COND]]
1572   %cmp = icmp uge i32 %x, -8
1573   %add = add i32 %x, 9
1574   %cond = select i1 %cmp, i32 -1, i32 %add
1575   ret i32 %cond
1578 ; Negative test:
1580 define i32 @uadd_sat_flipped_wrong_bounds5(i32 %x) {
1581 ; CHECK-LABEL: @uadd_sat_flipped_wrong_bounds5(
1582 ; CHECK-NEXT:    [[CMP:%.*]] = icmp ult i32 [[X:%.*]], -8
1583 ; CHECK-NEXT:    [[ADD:%.*]] = add i32 [[X]], 9
1584 ; CHECK-NEXT:    [[COND:%.*]] = select i1 [[CMP]], i32 [[ADD]], i32 -1
1585 ; CHECK-NEXT:    ret i32 [[COND]]
1587   %cmp = icmp ult i32 %x, -8
1588   %add = add i32 %x, 9
1589   %cond = select i1 %cmp, i32 %add, i32 -1
1590   ret i32 %cond
1593 ; Negative test:
1595 define i32 @uadd_sat_flipped_wrong_bounds6(i32 %x) {
1596 ; CHECK-LABEL: @uadd_sat_flipped_wrong_bounds6(
1597 ; CHECK-NEXT:    [[CMP:%.*]] = icmp ult i32 [[X:%.*]], -11
1598 ; CHECK-NEXT:    [[ADD:%.*]] = add i32 [[X]], 9
1599 ; CHECK-NEXT:    [[COND:%.*]] = select i1 [[CMP]], i32 [[ADD]], i32 -1
1600 ; CHECK-NEXT:    ret i32 [[COND]]
1602   %cmp = icmp ule i32 %x, -12
1603   %add = add i32 %x, 9
1604   %cond = select i1 %cmp, i32 %add, i32 -1
1605   ret i32 %cond
1608 ; Negative test:
1610 define i32 @uadd_sat_flipped_wrong_bounds7(i32 %x) {
1611 ; CHECK-LABEL: @uadd_sat_flipped_wrong_bounds7(
1612 ; CHECK-NEXT:    [[CMP:%.*]] = icmp ult i32 [[X:%.*]], -11
1613 ; CHECK-NEXT:    [[ADD:%.*]] = add i32 [[X]], 9
1614 ; CHECK-NEXT:    [[COND:%.*]] = select i1 [[CMP]], i32 [[ADD]], i32 -1
1615 ; CHECK-NEXT:    ret i32 [[COND]]
1617   %cmp = icmp ule i32 %x, -12
1618   %add = add i32 %x, 9
1619   %cond = select i1 %cmp, i32 %add, i32 -1
1620   ret i32 %cond
1623 ; Negative test:
1625 define i32 @uadd_sat_flipped_wrong_bounds8(i32 %x) {
1626 ; CHECK-LABEL: @uadd_sat_flipped_wrong_bounds8(
1627 ; CHECK-NEXT:    [[CMP:%.*]] = icmp ult i32 [[X:%.*]], -12
1628 ; CHECK-NEXT:    [[ADD:%.*]] = add i32 [[X]], 9
1629 ; CHECK-NEXT:    [[COND:%.*]] = select i1 [[CMP]], i32 [[ADD]], i32 -1
1630 ; CHECK-NEXT:    ret i32 [[COND]]
1632   %cmp = icmp ult i32 %x, -12
1633   %add = add i32 %x, 9
1634   %cond = select i1 %cmp, i32 %add, i32 -1
1635   ret i32 %cond
1638 define i32 @uadd_sat_nonstrict(i32 %x, i32 %y) {
1639 ; CHECK-LABEL: @uadd_sat_nonstrict(
1640 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X:%.*]], i32 [[Y:%.*]])
1641 ; CHECK-NEXT:    ret i32 [[R]]
1643   %notx = xor i32 %x, -1
1644   %a = add i32 %y, %x
1645   %c = icmp ule i32 %notx, %y
1646   %r = select i1 %c, i32 -1, i32 %a
1647   ret i32 %r
1650 define i32 @uadd_sat_commute_add(i32 %xp, i32 %y) {
1651 ; CHECK-LABEL: @uadd_sat_commute_add(
1652 ; CHECK-NEXT:    [[X:%.*]] = urem i32 42, [[XP:%.*]]
1653 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X]], i32 [[Y:%.*]])
1654 ; CHECK-NEXT:    ret i32 [[R]]
1656   %x = urem i32 42, %xp ; thwart complexity-based-canonicalization
1657   %notx = xor i32 %x, -1
1658   %a = add i32 %x, %y
1659   %c = icmp ult i32 %notx, %y
1660   %r = select i1 %c, i32 -1, i32 %a
1661   ret i32 %r
1664 define i32 @uadd_sat_ugt(i32 %x, i32 %yp) {
1665 ; CHECK-LABEL: @uadd_sat_ugt(
1666 ; CHECK-NEXT:    [[Y:%.*]] = sdiv i32 [[YP:%.*]], 2442
1667 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X:%.*]], i32 [[Y]])
1668 ; CHECK-NEXT:    ret i32 [[R]]
1670   %y = sdiv i32 %yp, 2442 ; thwart complexity-based-canonicalization
1671   %notx = xor i32 %x, -1
1672   %a = add i32 %y, %x
1673   %c = icmp ugt i32 %y, %notx
1674   %r = select i1 %c, i32 -1, i32 %a
1675   ret i32 %r
1677 define i32 @uadd_sat_uge(i32 %x, i32 %yp) {
1678 ; CHECK-LABEL: @uadd_sat_uge(
1679 ; CHECK-NEXT:    [[Y:%.*]] = sdiv i32 [[YP:%.*]], 2442
1680 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X:%.*]], i32 [[Y]])
1681 ; CHECK-NEXT:    ret i32 [[R]]
1683   %y = sdiv i32 %yp, 2442 ; thwart complexity-based-canonicalization
1684   %notx = xor i32 %x, -1
1685   %a = add i32 %y, %x
1686   %c = icmp uge i32 %y, %notx
1687   %r = select i1 %c, i32 -1, i32 %a
1688   ret i32 %r
1691 define <2 x i32> @uadd_sat_ugt_commute_add(<2 x i32> %xp, <2 x i32> %yp) {
1692 ; CHECK-LABEL: @uadd_sat_ugt_commute_add(
1693 ; CHECK-NEXT:    [[Y:%.*]] = sdiv <2 x i32> [[YP:%.*]], <i32 2442, i32 4242>
1694 ; CHECK-NEXT:    [[X:%.*]] = srem <2 x i32> <i32 42, i32 43>, [[XP:%.*]]
1695 ; CHECK-NEXT:    [[R:%.*]] = call <2 x i32> @llvm.uadd.sat.v2i32(<2 x i32> [[X]], <2 x i32> [[Y]])
1696 ; CHECK-NEXT:    ret <2 x i32> [[R]]
1698   %y = sdiv <2 x i32> %yp, <i32 2442, i32 4242> ; thwart complexity-based-canonicalization
1699   %x = srem <2 x i32> <i32 42, i32 43>, %xp     ; thwart complexity-based-canonicalization
1700   %notx = xor <2 x i32> %x, <i32 -1, i32 -1>
1701   %a = add <2 x i32> %x, %y
1702   %c = icmp ugt <2 x i32> %y, %notx
1703   %r = select <2 x i1> %c, <2 x i32> <i32 -1, i32 -1>, <2 x i32> %a
1704   ret <2 x i32> %r
1707 define i32 @uadd_sat_commute_select(i32 %x, i32 %yp) {
1708 ; CHECK-LABEL: @uadd_sat_commute_select(
1709 ; CHECK-NEXT:    [[Y:%.*]] = sdiv i32 [[YP:%.*]], 2442
1710 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X:%.*]], i32 [[Y]])
1711 ; CHECK-NEXT:    ret i32 [[R]]
1713   %y = sdiv i32 %yp, 2442 ; thwart complexity-based-canonicalization
1714   %notx = xor i32 %x, -1
1715   %a = add i32 %y, %x
1716   %c = icmp ult i32 %y, %notx
1717   %r = select i1 %c, i32 %a, i32 -1
1718   ret i32 %r
1721 define i32 @uadd_sat_commute_select_nonstrict(i32 %x, i32 %yp) {
1722 ; CHECK-LABEL: @uadd_sat_commute_select_nonstrict(
1723 ; CHECK-NEXT:    [[Y:%.*]] = sdiv i32 [[YP:%.*]], 2442
1724 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X:%.*]], i32 [[Y]])
1725 ; CHECK-NEXT:    ret i32 [[R]]
1727   %y = sdiv i32 %yp, 2442 ; thwart complexity-based-canonicalization
1728   %notx = xor i32 %x, -1
1729   %a = add i32 %y, %x
1730   %c = icmp ule i32 %y, %notx
1731   %r = select i1 %c, i32 %a, i32 -1
1732   ret i32 %r
1735 define i32 @uadd_sat_commute_select_commute_add(i32 %xp, i32 %yp) {
1736 ; CHECK-LABEL: @uadd_sat_commute_select_commute_add(
1737 ; CHECK-NEXT:    [[X:%.*]] = urem i32 42, [[XP:%.*]]
1738 ; CHECK-NEXT:    [[Y:%.*]] = sdiv i32 [[YP:%.*]], 2442
1739 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X]], i32 [[Y]])
1740 ; CHECK-NEXT:    ret i32 [[R]]
1742   %x = urem i32 42, %xp ; thwart complexity-based-canonicalization
1743   %y = sdiv i32 %yp, 2442 ; thwart complexity-based-canonicalization
1744   %notx = xor i32 %x, -1
1745   %a = add i32 %x, %y
1746   %c = icmp ult i32 %y, %notx
1747   %r = select i1 %c, i32 %a, i32 -1
1748   ret i32 %r
1751 define <2 x i32> @uadd_sat_commute_select_ugt(<2 x i32> %x, <2 x i32> %y) {
1752 ; CHECK-LABEL: @uadd_sat_commute_select_ugt(
1753 ; CHECK-NEXT:    [[R:%.*]] = call <2 x i32> @llvm.uadd.sat.v2i32(<2 x i32> [[X:%.*]], <2 x i32> [[Y:%.*]])
1754 ; CHECK-NEXT:    ret <2 x i32> [[R]]
1756   %notx = xor <2 x i32> %x, <i32 -1, i32 -1>
1757   %a = add <2 x i32> %y, %x
1758   %c = icmp ugt <2 x i32> %notx, %y
1759   %r = select <2 x i1> %c, <2 x i32> %a, <2 x i32> <i32 -1, i32 -1>
1760   ret <2 x i32> %r
1763 define i32 @uadd_sat_commute_select_ugt_commute_add(i32 %xp, i32 %y) {
1764 ; CHECK-LABEL: @uadd_sat_commute_select_ugt_commute_add(
1765 ; CHECK-NEXT:    [[X:%.*]] = srem i32 42, [[XP:%.*]]
1766 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X]], i32 [[Y:%.*]])
1767 ; CHECK-NEXT:    ret i32 [[R]]
1769   %x = srem i32 42, %xp   ; thwart complexity-based-canonicalization
1770   %notx = xor i32 %x, -1
1771   %a = add i32 %x, %y
1772   %c = icmp ugt i32 %notx, %y
1773   %r = select i1 %c, i32 %a, i32 -1
1774   ret i32 %r
1777 ; Negative test - make sure we have a -1 in the select.
1779 define i32 @not_uadd_sat(i32 %x, i32 %y) {
1780 ; CHECK-LABEL: @not_uadd_sat(
1781 ; CHECK-NEXT:    [[A:%.*]] = add i32 [[X:%.*]], -2
1782 ; CHECK-NEXT:    [[C:%.*]] = icmp ugt i32 [[X]], 1
1783 ; CHECK-NEXT:    [[R:%.*]] = select i1 [[C]], i32 [[A]], i32 [[Y:%.*]]
1784 ; CHECK-NEXT:    ret i32 [[R]]
1786   %a = add i32 %x, -2
1787   %c = icmp ugt i32 %x, 1
1788   %r = select i1 %c, i32 %a, i32 %y
1789   ret i32 %r
1792 ; Negative test - make sure the predicate is 'ult'.
1794 define i32 @not_uadd_sat2(i32 %x, i32 %y) {
1795 ; CHECK-LABEL: @not_uadd_sat2(
1796 ; CHECK-NEXT:    [[A:%.*]] = add i32 [[X:%.*]], -2
1797 ; CHECK-NEXT:    [[C:%.*]] = icmp ugt i32 [[X]], 1
1798 ; CHECK-NEXT:    [[R:%.*]] = select i1 [[C]], i32 [[A]], i32 -1
1799 ; CHECK-NEXT:    ret i32 [[R]]
1801   %a = add i32 %x, -2
1802   %c = icmp ugt i32 %x, 1
1803   %r = select i1 %c, i32 %a, i32 -1
1804   ret i32 %r
1807 ; The add may include a 'not' op rather than the cmp.
1809 define i32 @uadd_sat_not(i32 %x, i32 %y) {
1810 ; CHECK-LABEL: @uadd_sat_not(
1811 ; CHECK-NEXT:    [[NOTX:%.*]] = xor i32 [[X:%.*]], -1
1812 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[Y:%.*]], i32 [[NOTX]])
1813 ; CHECK-NEXT:    ret i32 [[R]]
1815   %notx = xor i32 %x, -1
1816   %a = add i32 %notx, %y
1817   %c = icmp ult i32 %x, %y
1818   %r = select i1 %c, i32 -1, i32 %a
1819   ret i32 %r
1822 define i32 @uadd_sat_not_nonstrict(i32 %x, i32 %y) {
1823 ; CHECK-LABEL: @uadd_sat_not_nonstrict(
1824 ; CHECK-NEXT:    [[NOTX:%.*]] = xor i32 [[X:%.*]], -1
1825 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[Y:%.*]], i32 [[NOTX]])
1826 ; CHECK-NEXT:    ret i32 [[R]]
1828   %notx = xor i32 %x, -1
1829   %a = add i32 %notx, %y
1830   %c = icmp ule i32 %x, %y
1831   %r = select i1 %c, i32 -1, i32 %a
1832   ret i32 %r
1835 define i32 @uadd_sat_not_commute_add(i32 %xp, i32 %yp) {
1836 ; CHECK-LABEL: @uadd_sat_not_commute_add(
1837 ; CHECK-NEXT:    [[X:%.*]] = srem i32 42, [[XP:%.*]]
1838 ; CHECK-NEXT:    [[Y:%.*]] = urem i32 42, [[YP:%.*]]
1839 ; CHECK-NEXT:    [[NOTX:%.*]] = xor i32 [[X]], -1
1840 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[Y]], i32 [[NOTX]])
1841 ; CHECK-NEXT:    ret i32 [[R]]
1843   %x = srem i32 42, %xp ; thwart complexity-based-canonicalization
1844   %y = urem i32 42, %yp ; thwart complexity-based-canonicalization
1845   %notx = xor i32 %x, -1
1846   %a = add i32 %y, %notx
1847   %c = icmp ult i32 %x, %y
1848   %r = select i1 %c, i32 -1, i32 %a
1849   ret i32 %r
1852 define i32 @uadd_sat_not_ugt(i32 %x, i32 %y) {
1853 ; CHECK-LABEL: @uadd_sat_not_ugt(
1854 ; CHECK-NEXT:    [[NOTX:%.*]] = xor i32 [[X:%.*]], -1
1855 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[Y:%.*]], i32 [[NOTX]])
1856 ; CHECK-NEXT:    ret i32 [[R]]
1858   %notx = xor i32 %x, -1
1859   %a = add i32 %notx, %y
1860   %c = icmp ugt i32 %y, %x
1861   %r = select i1 %c, i32 -1, i32 %a
1862   ret i32 %r
1865 define i32 @uadd_sat_not_uge(i32 %x, i32 %y) {
1866 ; CHECK-LABEL: @uadd_sat_not_uge(
1867 ; CHECK-NEXT:    [[NOTX:%.*]] = xor i32 [[X:%.*]], -1
1868 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[Y:%.*]], i32 [[NOTX]])
1869 ; CHECK-NEXT:    ret i32 [[R]]
1871   %notx = xor i32 %x, -1
1872   %a = add i32 %notx, %y
1873   %c = icmp uge i32 %y, %x
1874   %r = select i1 %c, i32 -1, i32 %a
1875   ret i32 %r
1878 define <2 x i32> @uadd_sat_not_ugt_commute_add(<2 x i32> %x, <2 x i32> %yp) {
1879 ; CHECK-LABEL: @uadd_sat_not_ugt_commute_add(
1880 ; CHECK-NEXT:    [[Y:%.*]] = sdiv <2 x i32> [[YP:%.*]], <i32 2442, i32 4242>
1881 ; CHECK-NEXT:    [[NOTX:%.*]] = xor <2 x i32> [[X:%.*]], splat (i32 -1)
1882 ; CHECK-NEXT:    [[R:%.*]] = call <2 x i32> @llvm.uadd.sat.v2i32(<2 x i32> [[Y]], <2 x i32> [[NOTX]])
1883 ; CHECK-NEXT:    ret <2 x i32> [[R]]
1885   %y = sdiv <2 x i32> %yp, <i32 2442, i32 4242> ; thwart complexity-based-canonicalization
1886   %notx = xor <2 x i32> %x, <i32 -1, i32 -1>
1887   %a = add <2 x i32> %y, %notx
1888   %c = icmp ugt <2 x i32> %y, %x
1889   %r = select <2 x i1> %c, <2 x i32> <i32 -1, i32 -1>, <2 x i32> %a
1890   ret <2 x i32> %r
1893 define <2 x i32> @uadd_sat_not_ugt_commute_add_partial_poison(<2 x i32> %x, <2 x i32> %yp) {
1894 ; CHECK-LABEL: @uadd_sat_not_ugt_commute_add_partial_poison(
1895 ; CHECK-NEXT:    [[NOTX:%.*]] = xor <2 x i32> [[X:%.*]], <i32 -1, i32 poison>
1896 ; CHECK-NEXT:    [[A:%.*]] = add nuw <2 x i32> [[YP:%.*]], [[NOTX]]
1897 ; CHECK-NEXT:    [[C:%.*]] = icmp ugt <2 x i32> [[YP]], [[X]]
1898 ; CHECK-NEXT:    [[R:%.*]] = select <2 x i1> [[C]], <2 x i32> splat (i32 -1), <2 x i32> [[A]]
1899 ; CHECK-NEXT:    ret <2 x i32> [[R]]
1901   %notx = xor <2 x i32> %x, <i32 -1, i32 poison>
1902   %a = add nuw <2 x i32> %yp, %notx
1903   %c = icmp ugt <2 x i32> %yp, %x
1904   %r = select <2 x i1> %c, <2 x i32> <i32 -1, i32 -1>, <2 x i32> %a
1905   ret <2 x i32> %r
1908 define i32 @uadd_sat_not_commute_select(i32 %x, i32 %y) {
1909 ; CHECK-LABEL: @uadd_sat_not_commute_select(
1910 ; CHECK-NEXT:    [[NOTX:%.*]] = xor i32 [[X:%.*]], -1
1911 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[Y:%.*]], i32 [[NOTX]])
1912 ; CHECK-NEXT:    ret i32 [[R]]
1914   %notx = xor i32 %x, -1
1915   %a = add i32 %notx, %y
1916   %c = icmp ult i32 %y, %x
1917   %r = select i1 %c, i32 %a, i32 -1
1918   ret i32 %r
1921 define i32 @uadd_sat_not_commute_select_nonstrict(i32 %x, i32 %y) {
1922 ; CHECK-LABEL: @uadd_sat_not_commute_select_nonstrict(
1923 ; CHECK-NEXT:    [[NOTX:%.*]] = xor i32 [[X:%.*]], -1
1924 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[Y:%.*]], i32 [[NOTX]])
1925 ; CHECK-NEXT:    ret i32 [[R]]
1927   %notx = xor i32 %x, -1
1928   %a = add i32 %notx, %y
1929   %c = icmp ule i32 %y, %x
1930   %r = select i1 %c, i32 %a, i32 -1
1931   ret i32 %r
1934 define i32 @uadd_sat_not_commute_select_commute_add(i32 %x, i32 %yp) {
1935 ; CHECK-LABEL: @uadd_sat_not_commute_select_commute_add(
1936 ; CHECK-NEXT:    [[Y:%.*]] = sdiv i32 42, [[YP:%.*]]
1937 ; CHECK-NEXT:    [[NOTX:%.*]] = xor i32 [[X:%.*]], -1
1938 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[Y]], i32 [[NOTX]])
1939 ; CHECK-NEXT:    ret i32 [[R]]
1941   %y = sdiv i32 42, %yp ; thwart complexity-based-canonicalization
1942   %notx = xor i32 %x, -1
1943   %a = add i32 %y, %notx
1944   %c = icmp ult i32 %y, %x
1945   %r = select i1 %c, i32 %a, i32 -1
1946   ret i32 %r
1949 define <2 x i32> @uadd_sat_not_commute_select_ugt(<2 x i32> %xp, <2 x i32> %yp) {
1950 ; CHECK-LABEL: @uadd_sat_not_commute_select_ugt(
1951 ; CHECK-NEXT:    [[X:%.*]] = urem <2 x i32> <i32 42, i32 -42>, [[XP:%.*]]
1952 ; CHECK-NEXT:    [[Y:%.*]] = srem <2 x i32> <i32 12, i32 412>, [[YP:%.*]]
1953 ; CHECK-NEXT:    [[NOTX:%.*]] = xor <2 x i32> [[X]], splat (i32 -1)
1954 ; CHECK-NEXT:    [[R:%.*]] = call <2 x i32> @llvm.uadd.sat.v2i32(<2 x i32> [[Y]], <2 x i32> [[NOTX]])
1955 ; CHECK-NEXT:    ret <2 x i32> [[R]]
1957   %x = urem <2 x i32> <i32 42, i32 -42>, %xp ; thwart complexity-based-canonicalization
1958   %y = srem <2 x i32> <i32 12, i32 412>, %yp ; thwart complexity-based-canonicalization
1959   %notx = xor <2 x i32> %x, <i32 -1, i32 -1>
1960   %a = add <2 x i32> %y, %notx
1961   %c = icmp ugt <2 x i32> %x, %y
1962   %r = select <2 x i1> %c, <2 x i32> %a, <2 x i32> <i32 -1, i32 -1>
1963   ret <2 x i32> %r
1966 define i32 @uadd_sat_not_commute_select_ugt_commute_add(i32 %x, i32 %y) {
1967 ; CHECK-LABEL: @uadd_sat_not_commute_select_ugt_commute_add(
1968 ; CHECK-NEXT:    [[NOTX:%.*]] = xor i32 [[X:%.*]], -1
1969 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[Y:%.*]], i32 [[NOTX]])
1970 ; CHECK-NEXT:    ret i32 [[R]]
1972   %notx = xor i32 %x, -1
1973   %a = add i32 %notx, %y
1974   %c = icmp ugt i32 %x, %y
1975   %r = select i1 %c, i32 %a, i32 -1
1976   ret i32 %r
1979 define i32 @uadd_sat_not_commute_select_uge_commute_add(i32 %x, i32 %y) {
1980 ; CHECK-LABEL: @uadd_sat_not_commute_select_uge_commute_add(
1981 ; CHECK-NEXT:    [[NOTX:%.*]] = xor i32 [[X:%.*]], -1
1982 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[Y:%.*]], i32 [[NOTX]])
1983 ; CHECK-NEXT:    ret i32 [[R]]
1985   %notx = xor i32 %x, -1
1986   %a = add i32 %notx, %y
1987   %c = icmp uge i32 %x, %y
1988   %r = select i1 %c, i32 %a, i32 -1
1989   ret i32 %r
1992 define i32 @uadd_sat_constant(i32 %x) {
1993 ; CHECK-LABEL: @uadd_sat_constant(
1994 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X:%.*]], i32 42)
1995 ; CHECK-NEXT:    ret i32 [[R]]
1997   %a = add i32 %x, 42
1998   %c = icmp ugt i32 %x, -43
1999   %r = select i1 %c, i32 -1, i32 %a
2000   ret i32 %r
2003 define i32 @uadd_sat_constant_commute(i32 %x) {
2004 ; CHECK-LABEL: @uadd_sat_constant_commute(
2005 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X:%.*]], i32 42)
2006 ; CHECK-NEXT:    ret i32 [[R]]
2008   %a = add i32 %x, 42
2009   %c = icmp ult i32 %x, -43
2010   %r = select i1 %c, i32 %a, i32 -1
2011   ret i32 %r
2014 define i32 @uadd_sat_canon(i32 %x, i32 %y) {
2015 ; CHECK-LABEL: @uadd_sat_canon(
2016 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X:%.*]], i32 [[Y:%.*]])
2017 ; CHECK-NEXT:    ret i32 [[R]]
2019   %a = add i32 %x, %y
2020   %c = icmp ult i32 %a, %x
2021   %r = select i1 %c, i32 -1, i32 %a
2022   ret i32 %r
2025 define i32 @uadd_sat_canon_y(i32 %x, i32 %y) {
2026 ; CHECK-LABEL: @uadd_sat_canon_y(
2027 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[Y:%.*]], i32 [[X:%.*]])
2028 ; CHECK-NEXT:    ret i32 [[R]]
2030   %a = add i32 %x, %y
2031   %c = icmp ult i32 %a, %y
2032   %r = select i1 %c, i32 -1, i32 %a
2033   ret i32 %r
2036 define i32 @uadd_sat_canon_nuw(i32 %x, i32 %y) {
2037 ; CHECK-LABEL: @uadd_sat_canon_nuw(
2038 ; CHECK-NEXT:    [[A:%.*]] = add nuw i32 [[X:%.*]], [[Y:%.*]]
2039 ; CHECK-NEXT:    ret i32 [[A]]
2041   %a = add nuw i32 %x, %y
2042   %c = icmp ult i32 %a, %x
2043   %r = select i1 %c, i32 -1, i32 %a
2044   ret i32 %r
2047 define i32 @uadd_sat_canon_y_nuw(i32 %x, i32 %y) {
2048 ; CHECK-LABEL: @uadd_sat_canon_y_nuw(
2049 ; CHECK-NEXT:    [[A:%.*]] = add nuw i32 [[X:%.*]], [[Y:%.*]]
2050 ; CHECK-NEXT:    ret i32 [[A]]
2052   %a = add nuw i32 %x, %y
2053   %c = icmp ult i32 %a, %y
2054   %r = select i1 %c, i32 -1, i32 %a
2055   ret i32 %r
2058 define <4 x i32> @uadd_sat_constant_vec(<4 x i32> %x) {
2059 ; CHECK-LABEL: @uadd_sat_constant_vec(
2060 ; CHECK-NEXT:    [[R:%.*]] = call <4 x i32> @llvm.uadd.sat.v4i32(<4 x i32> [[X:%.*]], <4 x i32> splat (i32 42))
2061 ; CHECK-NEXT:    ret <4 x i32> [[R]]
2063   %a = add <4 x i32> %x, <i32 42, i32 42, i32 42, i32 42>
2064   %c = icmp ugt <4 x i32> %x, <i32 -43, i32 -43, i32 -43, i32 -43>
2065   %r = select <4 x i1> %c, <4 x i32> <i32 -1, i32 -1, i32 -1, i32 -1>, <4 x i32> %a
2066   ret <4 x i32> %r
2069 define <4 x i32> @uadd_sat_constant_vec_commute(<4 x i32> %x) {
2070 ; CHECK-LABEL: @uadd_sat_constant_vec_commute(
2071 ; CHECK-NEXT:    [[R:%.*]] = call <4 x i32> @llvm.uadd.sat.v4i32(<4 x i32> [[X:%.*]], <4 x i32> splat (i32 42))
2072 ; CHECK-NEXT:    ret <4 x i32> [[R]]
2074   %a = add <4 x i32> %x, <i32 42, i32 42, i32 42, i32 42>
2075   %c = icmp ult <4 x i32> %x, <i32 -43, i32 -43, i32 -43, i32 -43>
2076   %r = select <4 x i1> %c, <4 x i32> %a, <4 x i32> <i32 -1, i32 -1, i32 -1, i32 -1>
2077   ret <4 x i32> %r
2080 define <4 x i32> @uadd_sat_constant_vec_commute_undefs(<4 x i32> %x) {
2081 ; CHECK-LABEL: @uadd_sat_constant_vec_commute_undefs(
2082 ; CHECK-NEXT:    [[R:%.*]] = call <4 x i32> @llvm.uadd.sat.v4i32(<4 x i32> [[X:%.*]], <4 x i32> splat (i32 42))
2083 ; CHECK-NEXT:    ret <4 x i32> [[R]]
2085   %a = add <4 x i32> %x, <i32 42, i32 42, i32 42, i32 poison>
2086   %c = icmp ult <4 x i32> %x, <i32 -43, i32 -43, i32 poison, i32 -43>
2087   %r = select <4 x i1> %c, <4 x i32> %a, <4 x i32> <i32 -1, i32 poison, i32 -1, i32 -1>
2088   ret <4 x i32> %r
2091 declare i32 @get_i32()
2092 declare <2 x i8> @get_v2i8()
2094 define i32 @unsigned_sat_variable_using_min_add(i32 %x) {
2095 ; CHECK-LABEL: @unsigned_sat_variable_using_min_add(
2096 ; CHECK-NEXT:    [[Y:%.*]] = call i32 @get_i32()
2097 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X:%.*]], i32 [[Y]])
2098 ; CHECK-NEXT:    ret i32 [[R]]
2100   %y = call i32 @get_i32() ; thwart complexity-based canonicalization
2101   %noty = xor i32 %y, -1
2102   %c = icmp ult i32 %x, %noty
2103   %s = select i1 %c, i32 %x, i32 %noty
2104   %r = add i32 %s, %y
2105   ret i32 %r
2108 define i32 @unsigned_sat_variable_using_min_commute_add(i32 %x) {
2109 ; CHECK-LABEL: @unsigned_sat_variable_using_min_commute_add(
2110 ; CHECK-NEXT:    [[Y:%.*]] = call i32 @get_i32()
2111 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X:%.*]], i32 [[Y]])
2112 ; CHECK-NEXT:    ret i32 [[R]]
2114   %y = call i32 @get_i32() ; thwart complexity-based canonicalization
2115   %noty = xor i32 %y, -1
2116   %c = icmp ult i32 %x, %noty
2117   %s = select i1 %c, i32 %x, i32 %noty
2118   %r = add i32 %y, %s
2119   ret i32 %r
2122 define <2 x i8> @unsigned_sat_variable_using_min_commute_select(<2 x i8> %x) {
2123 ; CHECK-LABEL: @unsigned_sat_variable_using_min_commute_select(
2124 ; CHECK-NEXT:    [[Y:%.*]] = call <2 x i8> @get_v2i8()
2125 ; CHECK-NEXT:    [[R:%.*]] = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> [[X:%.*]], <2 x i8> [[Y]])
2126 ; CHECK-NEXT:    ret <2 x i8> [[R]]
2128   %y = call <2 x i8> @get_v2i8() ; thwart complexity-based canonicalization
2129   %noty = xor <2 x i8> %y, <i8 -1, i8 -1>
2130   %c = icmp ult <2 x i8> %noty, %x
2131   %s = select <2 x i1> %c, <2 x i8> %noty, <2 x i8> %x
2132   %r = add <2 x i8> %s, %y
2133   ret <2 x i8> %r
2136 define <2 x i8> @unsigned_sat_variable_using_min_commute_add_select(<2 x i8> %x) {
2137 ; CHECK-LABEL: @unsigned_sat_variable_using_min_commute_add_select(
2138 ; CHECK-NEXT:    [[Y:%.*]] = call <2 x i8> @get_v2i8()
2139 ; CHECK-NEXT:    [[R:%.*]] = call <2 x i8> @llvm.uadd.sat.v2i8(<2 x i8> [[X:%.*]], <2 x i8> [[Y]])
2140 ; CHECK-NEXT:    ret <2 x i8> [[R]]
2142   %y = call <2 x i8> @get_v2i8() ; thwart complexity-based canonicalization
2143   %noty = xor <2 x i8> %y, <i8 -1, i8 -1>
2144   %c = icmp ult <2 x i8> %noty, %x
2145   %s = select <2 x i1> %c, <2 x i8> %noty, <2 x i8> %x
2146   %r = add <2 x i8> %y, %s
2147   ret <2 x i8> %r
2150 ; Negative test
2152 define i32 @unsigned_sat_variable_using_wrong_min(i32 %x) {
2153 ; CHECK-LABEL: @unsigned_sat_variable_using_wrong_min(
2154 ; CHECK-NEXT:    [[Y:%.*]] = call i32 @get_i32()
2155 ; CHECK-NEXT:    [[NOTY:%.*]] = xor i32 [[Y]], -1
2156 ; CHECK-NEXT:    [[S:%.*]] = call i32 @llvm.smin.i32(i32 [[X:%.*]], i32 [[NOTY]])
2157 ; CHECK-NEXT:    [[R:%.*]] = add i32 [[Y]], [[S]]
2158 ; CHECK-NEXT:    ret i32 [[R]]
2160   %y = call i32 @get_i32() ; thwart complexity-based canonicalization
2161   %noty = xor i32 %y, -1
2162   %c = icmp slt i32 %x, %noty
2163   %s = select i1 %c, i32 %x, i32 %noty
2164   %r = add i32 %y, %s
2165   ret i32 %r
2168 ; Negative test
2170 define i32 @unsigned_sat_variable_using_wrong_value(i32 %x, i32 %z) {
2171 ; CHECK-LABEL: @unsigned_sat_variable_using_wrong_value(
2172 ; CHECK-NEXT:    [[Y:%.*]] = call i32 @get_i32()
2173 ; CHECK-NEXT:    [[NOTY:%.*]] = xor i32 [[Y]], -1
2174 ; CHECK-NEXT:    [[S:%.*]] = call i32 @llvm.umin.i32(i32 [[X:%.*]], i32 [[NOTY]])
2175 ; CHECK-NEXT:    [[R:%.*]] = add i32 [[Z:%.*]], [[S]]
2176 ; CHECK-NEXT:    ret i32 [[R]]
2178   %y = call i32 @get_i32() ; thwart complexity-based canonicalization
2179   %noty = xor i32 %y, -1
2180   %c = icmp ult i32 %x, %noty
2181   %s = select i1 %c, i32 %x, i32 %noty
2182   %r = add i32 %z, %s
2183   ret i32 %r
2186 ; If we have a constant operand, there's no commutativity variation.
2188 define i32 @unsigned_sat_constant_using_min(i32 %x) {
2189 ; CHECK-LABEL: @unsigned_sat_constant_using_min(
2190 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[X:%.*]], i32 -43)
2191 ; CHECK-NEXT:    ret i32 [[R]]
2193   %c = icmp ult i32 %x, 42
2194   %s = select i1 %c, i32 %x, i32 42
2195   %r = add i32 %s, -43
2196   ret i32 %r
2199 define <2 x i32> @unsigned_sat_constant_using_min_splat(<2 x i32> %x) {
2200 ; CHECK-LABEL: @unsigned_sat_constant_using_min_splat(
2201 ; CHECK-NEXT:    [[R:%.*]] = call <2 x i32> @llvm.uadd.sat.v2i32(<2 x i32> [[X:%.*]], <2 x i32> splat (i32 -15))
2202 ; CHECK-NEXT:    ret <2 x i32> [[R]]
2204   %c = icmp ult <2 x i32> %x, <i32 14, i32 14>
2205   %s = select <2 x i1> %c, <2 x i32> %x, <2 x i32> <i32 14, i32 14>
2206   %r = add <2 x i32> %s, <i32 -15, i32 -15>
2207   ret <2 x i32> %r
2210 ; Negative test
2212 define i32 @unsigned_sat_constant_using_min_wrong_constant(i32 %x) {
2213 ; CHECK-LABEL: @unsigned_sat_constant_using_min_wrong_constant(
2214 ; CHECK-NEXT:    [[S:%.*]] = call i32 @llvm.umin.i32(i32 [[X:%.*]], i32 42)
2215 ; CHECK-NEXT:    [[R:%.*]] = add nsw i32 [[S]], -42
2216 ; CHECK-NEXT:    ret i32 [[R]]
2218   %c = icmp ult i32 %x, 42
2219   %s = select i1 %c, i32 %x, i32 42
2220   %r = add i32 %s, -42
2221   ret i32 %r
2224 define i32 @uadd_sat_via_add(i32 %x, i32 %y) {
2225 ; CHECK-LABEL: @uadd_sat_via_add(
2226 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[Y:%.*]], i32 [[X:%.*]])
2227 ; CHECK-NEXT:    ret i32 [[R]]
2229   %a = add i32 %x, %y
2230   %c = icmp ult i32 %a, %y
2231   %r = select i1 %c, i32 -1, i32 %a
2232   ret i32 %r
2235 define i32 @uadd_sat_via_add_nonstrict(i32 %x, i32 %y) {
2236 ; CHECK-LABEL: @uadd_sat_via_add_nonstrict(
2237 ; CHECK-NEXT:    [[A:%.*]] = add i32 [[X:%.*]], [[Y:%.*]]
2238 ; CHECK-NEXT:    [[C_NOT:%.*]] = icmp ugt i32 [[A]], [[Y]]
2239 ; CHECK-NEXT:    [[R:%.*]] = select i1 [[C_NOT]], i32 [[A]], i32 -1
2240 ; CHECK-NEXT:    ret i32 [[R]]
2242   %a = add i32 %x, %y
2243   %c = icmp ule i32 %a, %y
2244   %r = select i1 %c, i32 -1, i32 %a
2245   ret i32 %r
2248 define i32 @uadd_sat_via_add_swapped_select(i32 %x, i32 %y) {
2249 ; CHECK-LABEL: @uadd_sat_via_add_swapped_select(
2250 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[Y:%.*]], i32 [[X:%.*]])
2251 ; CHECK-NEXT:    ret i32 [[R]]
2253   %a = add i32 %x, %y
2254   %c = icmp uge i32 %a, %y
2255   %r = select i1 %c, i32 %a, i32 -1
2256   ret i32 %r
2259 define i32 @uadd_sat_via_add_swapped_select_strict(i32 %x, i32 %y) {
2260 ; CHECK-LABEL: @uadd_sat_via_add_swapped_select_strict(
2261 ; CHECK-NEXT:    [[A:%.*]] = add i32 [[X:%.*]], [[Y:%.*]]
2262 ; CHECK-NEXT:    [[C:%.*]] = icmp ugt i32 [[A]], [[Y]]
2263 ; CHECK-NEXT:    [[R:%.*]] = select i1 [[C]], i32 [[A]], i32 -1
2264 ; CHECK-NEXT:    ret i32 [[R]]
2266   %a = add i32 %x, %y
2267   %c = icmp ugt i32 %a, %y
2268   %r = select i1 %c, i32 %a, i32 -1
2269   ret i32 %r
2272 define i32 @uadd_sat_via_add_swapped_cmp(i32 %x, i32 %y) {
2273 ; CHECK-LABEL: @uadd_sat_via_add_swapped_cmp(
2274 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[Y:%.*]], i32 [[X:%.*]])
2275 ; CHECK-NEXT:    ret i32 [[R]]
2277   %a = add i32 %x, %y
2278   %c = icmp ugt i32 %y, %a
2279   %r = select i1 %c, i32 -1, i32 %a
2280   ret i32 %r
2283 define i32 @uadd_sat_via_add_swapped_cmp_nonstrict(i32 %x, i32 %y) {
2284 ; CHECK-LABEL: @uadd_sat_via_add_swapped_cmp_nonstrict(
2285 ; CHECK-NEXT:    [[A:%.*]] = add i32 [[X:%.*]], [[Y:%.*]]
2286 ; CHECK-NEXT:    [[C_NOT:%.*]] = icmp ult i32 [[Y]], [[A]]
2287 ; CHECK-NEXT:    [[R:%.*]] = select i1 [[C_NOT]], i32 [[A]], i32 -1
2288 ; CHECK-NEXT:    ret i32 [[R]]
2290   %a = add i32 %x, %y
2291   %c = icmp uge i32 %y, %a
2292   %r = select i1 %c, i32 -1, i32 %a
2293   ret i32 %r
2296 define i32 @uadd_sat_via_add_swapped_cmp_nonstric(i32 %x, i32 %y) {
2297 ; CHECK-LABEL: @uadd_sat_via_add_swapped_cmp_nonstric(
2298 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.uadd.sat.i32(i32 [[Y:%.*]], i32 [[X:%.*]])
2299 ; CHECK-NEXT:    ret i32 [[R]]
2301   %a = add i32 %x, %y
2302   %c = icmp ule i32 %y, %a
2303   %r = select i1 %c, i32 %a, i32 -1
2304   ret i32 %r
2307 define i32 @uadd_sat_via_add_swapped_cmp_select_nonstrict(i32 %x, i32 %y) {
2308 ; CHECK-LABEL: @uadd_sat_via_add_swapped_cmp_select_nonstrict(
2309 ; CHECK-NEXT:    [[A:%.*]] = add i32 [[X:%.*]], [[Y:%.*]]
2310 ; CHECK-NEXT:    [[C:%.*]] = icmp ult i32 [[Y]], [[A]]
2311 ; CHECK-NEXT:    [[R:%.*]] = select i1 [[C]], i32 [[A]], i32 -1
2312 ; CHECK-NEXT:    ret i32 [[R]]
2314   %a = add i32 %x, %y
2315   %c = icmp ult i32 %y, %a
2316   %r = select i1 %c, i32 %a, i32 -1
2317   ret i32 %r