[ORC] Add std::tuple support to SimplePackedSerialization.
[llvm-project.git] / llvm / test / Transforms / InstSimplify / rem.ll
blobc42d6d855d44d2f0628f212dd61dc4d01146c1b2
1 ; NOTE: Assertions have been autogenerated by utils/update_test_checks.py
2 ; RUN: opt < %s -instsimplify -S | FileCheck %s
4 define i32 @zero_dividend(i32 %A) {
5 ; CHECK-LABEL: @zero_dividend(
6 ; CHECK-NEXT:    ret i32 0
8   %B = urem i32 0, %A
9   ret i32 %B
12 define <2 x i32> @zero_dividend_vector(<2 x i32> %A) {
13 ; CHECK-LABEL: @zero_dividend_vector(
14 ; CHECK-NEXT:    ret <2 x i32> zeroinitializer
16   %B = srem <2 x i32> zeroinitializer, %A
17   ret <2 x i32> %B
20 define <2 x i32> @zero_dividend_vector_undef_elt(<2 x i32> %A) {
21 ; CHECK-LABEL: @zero_dividend_vector_undef_elt(
22 ; CHECK-NEXT:    ret <2 x i32> zeroinitializer
24   %B = urem <2 x i32> <i32 undef, i32 0>, %A
25   ret <2 x i32> %B
28 ; Division-by-zero is poison. UB in any vector lane means the whole op is poison.
30 define <2 x i8> @srem_zero_elt_vec_constfold(<2 x i8> %x) {
31 ; CHECK-LABEL: @srem_zero_elt_vec_constfold(
32 ; CHECK-NEXT:    ret <2 x i8> poison
34   %rem = srem <2 x i8> <i8 1, i8 2>, <i8 0, i8 -42>
35   ret <2 x i8> %rem
38 define <2 x i8> @urem_zero_elt_vec_constfold(<2 x i8> %x) {
39 ; CHECK-LABEL: @urem_zero_elt_vec_constfold(
40 ; CHECK-NEXT:    ret <2 x i8> poison
42   %rem = urem <2 x i8> <i8 1, i8 2>, <i8 42, i8 0>
43   ret <2 x i8> %rem
46 define <2 x i8> @srem_zero_elt_vec(<2 x i8> %x) {
47 ; CHECK-LABEL: @srem_zero_elt_vec(
48 ; CHECK-NEXT:    ret <2 x i8> poison
50   %rem = srem <2 x i8> %x, <i8 -42, i8 0>
51   ret <2 x i8> %rem
54 define <2 x i8> @urem_zero_elt_vec(<2 x i8> %x) {
55 ; CHECK-LABEL: @urem_zero_elt_vec(
56 ; CHECK-NEXT:    ret <2 x i8> poison
58   %rem = urem <2 x i8> %x, <i8 0, i8 42>
59   ret <2 x i8> %rem
62 define <2 x i8> @srem_undef_elt_vec(<2 x i8> %x) {
63 ; CHECK-LABEL: @srem_undef_elt_vec(
64 ; CHECK-NEXT:    ret <2 x i8> poison
66   %rem = srem <2 x i8> %x, <i8 -42, i8 undef>
67   ret <2 x i8> %rem
70 define <2 x i8> @urem_undef_elt_vec(<2 x i8> %x) {
71 ; CHECK-LABEL: @urem_undef_elt_vec(
72 ; CHECK-NEXT:    ret <2 x i8> poison
74   %rem = urem <2 x i8> %x, <i8 undef, i8 42>
75   ret <2 x i8> %rem
78 ; Division-by-zero is undef. UB in any vector lane means the whole op is undef.
79 ; Thus, we can simplify this: if any element of 'y' is 0, we can do anything.
80 ; Therefore, assume that all elements of 'y' must be 1.
82 define <2 x i1> @srem_bool_vec(<2 x i1> %x, <2 x i1> %y) {
83 ; CHECK-LABEL: @srem_bool_vec(
84 ; CHECK-NEXT:    ret <2 x i1> zeroinitializer
86   %rem = srem <2 x i1> %x, %y
87   ret <2 x i1> %rem
90 define <2 x i1> @urem_bool_vec(<2 x i1> %x, <2 x i1> %y) {
91 ; CHECK-LABEL: @urem_bool_vec(
92 ; CHECK-NEXT:    ret <2 x i1> zeroinitializer
94   %rem = urem <2 x i1> %x, %y
95   ret <2 x i1> %rem
98 define <2 x i32> @zext_bool_urem_divisor_vec(<2 x i1> %x, <2 x i32> %y) {
99 ; CHECK-LABEL: @zext_bool_urem_divisor_vec(
100 ; CHECK-NEXT:    ret <2 x i32> zeroinitializer
102   %ext = zext <2 x i1> %x to <2 x i32>
103   %r = urem <2 x i32> %y, %ext
104   ret <2 x i32> %r
107 define i32 @zext_bool_srem_divisor(i1 %x, i32 %y) {
108 ; CHECK-LABEL: @zext_bool_srem_divisor(
109 ; CHECK-NEXT:    ret i32 0
111   %ext = zext i1 %x to i32
112   %r = srem i32 %y, %ext
113   ret i32 %r
116 define i32 @select1(i32 %x, i1 %b) {
117 ; CHECK-LABEL: @select1(
118 ; CHECK-NEXT:    ret i32 0
120   %rhs = select i1 %b, i32 %x, i32 1
121   %rem = srem i32 %x, %rhs
122   ret i32 %rem
125 define i32 @select2(i32 %x, i1 %b) {
126 ; CHECK-LABEL: @select2(
127 ; CHECK-NEXT:    ret i32 0
129   %rhs = select i1 %b, i32 %x, i32 1
130   %rem = urem i32 %x, %rhs
131   ret i32 %rem
134 define i32 @rem1(i32 %x, i32 %n) {
135 ; CHECK-LABEL: @rem1(
136 ; CHECK-NEXT:    [[MOD:%.*]] = srem i32 [[X:%.*]], [[N:%.*]]
137 ; CHECK-NEXT:    ret i32 [[MOD]]
139   %mod = srem i32 %x, %n
140   %mod1 = srem i32 %mod, %n
141   ret i32 %mod1
144 define i32 @rem2(i32 %x, i32 %n) {
145 ; CHECK-LABEL: @rem2(
146 ; CHECK-NEXT:    [[MOD:%.*]] = urem i32 [[X:%.*]], [[N:%.*]]
147 ; CHECK-NEXT:    ret i32 [[MOD]]
149   %mod = urem i32 %x, %n
150   %mod1 = urem i32 %mod, %n
151   ret i32 %mod1
154 define i32 @rem3(i32 %x, i32 %n) {
155 ; CHECK-LABEL: @rem3(
156 ; CHECK-NEXT:    [[MOD:%.*]] = srem i32 [[X:%.*]], [[N:%.*]]
157 ; CHECK-NEXT:    [[MOD1:%.*]] = urem i32 [[MOD]], [[N]]
158 ; CHECK-NEXT:    ret i32 [[MOD1]]
160   %mod = srem i32 %x, %n
161   %mod1 = urem i32 %mod, %n
162   ret i32 %mod1
165 define i32 @urem_dividend_known_smaller_than_constant_divisor(i32 %x) {
166 ; CHECK-LABEL: @urem_dividend_known_smaller_than_constant_divisor(
167 ; CHECK-NEXT:    [[AND:%.*]] = and i32 [[X:%.*]], 250
168 ; CHECK-NEXT:    ret i32 [[AND]]
170   %and = and i32 %x, 250
171   %r = urem i32 %and, 251
172   ret i32 %r
175 define i32 @not_urem_dividend_known_smaller_than_constant_divisor(i32 %x) {
176 ; CHECK-LABEL: @not_urem_dividend_known_smaller_than_constant_divisor(
177 ; CHECK-NEXT:    [[AND:%.*]] = and i32 [[X:%.*]], 251
178 ; CHECK-NEXT:    [[R:%.*]] = urem i32 [[AND]], 251
179 ; CHECK-NEXT:    ret i32 [[R]]
181   %and = and i32 %x, 251
182   %r = urem i32 %and, 251
183   ret i32 %r
186 define i32 @urem_constant_dividend_known_smaller_than_divisor(i32 %x) {
187 ; CHECK-LABEL: @urem_constant_dividend_known_smaller_than_divisor(
188 ; CHECK-NEXT:    ret i32 250
190   %or = or i32 %x, 251
191   %r = urem i32 250, %or
192   ret i32 %r
195 define i32 @not_urem_constant_dividend_known_smaller_than_divisor(i32 %x) {
196 ; CHECK-LABEL: @not_urem_constant_dividend_known_smaller_than_divisor(
197 ; CHECK-NEXT:    [[OR:%.*]] = or i32 [[X:%.*]], 251
198 ; CHECK-NEXT:    [[R:%.*]] = urem i32 251, [[OR]]
199 ; CHECK-NEXT:    ret i32 [[R]]
201   %or = or i32 %x, 251
202   %r = urem i32 251, %or
203   ret i32 %r
206 ; This would require computing known bits on both x and y. Is it worth doing?
208 define i32 @urem_dividend_known_smaller_than_divisor(i32 %x, i32 %y) {
209 ; CHECK-LABEL: @urem_dividend_known_smaller_than_divisor(
210 ; CHECK-NEXT:    [[AND:%.*]] = and i32 [[X:%.*]], 250
211 ; CHECK-NEXT:    [[OR:%.*]] = or i32 [[Y:%.*]], 251
212 ; CHECK-NEXT:    [[R:%.*]] = urem i32 [[AND]], [[OR]]
213 ; CHECK-NEXT:    ret i32 [[R]]
215   %and = and i32 %x, 250
216   %or = or i32 %y, 251
217   %r = urem i32 %and, %or
218   ret i32 %r
221 define i32 @not_urem_dividend_known_smaller_than_divisor(i32 %x, i32 %y) {
222 ; CHECK-LABEL: @not_urem_dividend_known_smaller_than_divisor(
223 ; CHECK-NEXT:    [[AND:%.*]] = and i32 [[X:%.*]], 251
224 ; CHECK-NEXT:    [[OR:%.*]] = or i32 [[Y:%.*]], 251
225 ; CHECK-NEXT:    [[R:%.*]] = urem i32 [[AND]], [[OR]]
226 ; CHECK-NEXT:    ret i32 [[R]]
228   %and = and i32 %x, 251
229   %or = or i32 %y, 251
230   %r = urem i32 %and, %or
231   ret i32 %r
234 declare i32 @external()
236 define i32 @rem4() {
237 ; CHECK-LABEL: @rem4(
238 ; CHECK-NEXT:    [[CALL:%.*]] = call i32 @external(), !range [[RNG0:![0-9]+]]
239 ; CHECK-NEXT:    ret i32 [[CALL]]
241   %call = call i32 @external(), !range !0
242   %urem = urem i32 %call, 3
243   ret i32 %urem
246 !0 = !{i32 0, i32 3}
248 define i32 @rem5(i32 %x, i32 %y) {
249 ; CHECK-LABEL: @rem5(
250 ; CHECK-NEXT:    ret i32 0
252   %shl = shl nsw i32 %x, %y
253   %mod = srem i32 %shl, %x
254   ret i32 %mod
257 define <2 x i32> @rem6(<2 x i32> %x, <2 x i32> %y) {
258 ; CHECK-LABEL: @rem6(
259 ; CHECK-NEXT:    ret <2 x i32> zeroinitializer
261   %shl = shl nsw <2 x i32> %x, %y
262   %mod = srem <2 x i32> %shl, %x
263   ret <2 x i32> %mod
266 ; make sure the previous fold doesn't take place for wrapped shifts
268 define i32 @rem7(i32 %x, i32 %y) {
269 ; CHECK-LABEL: @rem7(
270 ; CHECK-NEXT:    [[SHL:%.*]] = shl i32 [[X:%.*]], [[Y:%.*]]
271 ; CHECK-NEXT:    [[MOD:%.*]] = srem i32 [[SHL]], [[X]]
272 ; CHECK-NEXT:    ret i32 [[MOD]]
274   %shl = shl i32 %x, %y
275   %mod = srem i32 %shl, %x
276   ret i32 %mod
279 define i32 @rem8(i32 %x, i32 %y) {
280 ; CHECK-LABEL: @rem8(
281 ; CHECK-NEXT:    ret i32 0
283   %shl = shl nuw i32 %x, %y
284   %mod = urem i32 %shl, %x
285   ret i32 %mod
288 define <2 x i32> @rem9(<2 x i32> %x, <2 x i32> %y) {
289 ; CHECK-LABEL: @rem9(
290 ; CHECK-NEXT:    ret <2 x i32> zeroinitializer
292   %shl = shl nuw <2 x i32> %x, %y
293   %mod = urem <2 x i32> %shl, %x
294   ret <2 x i32> %mod
297 ; make sure the previous fold doesn't take place for wrapped shifts
299 define i32 @rem10(i32 %x, i32 %y) {
300 ; CHECK-LABEL: @rem10(
301 ; CHECK-NEXT:    [[SHL:%.*]] = shl i32 [[X:%.*]], [[Y:%.*]]
302 ; CHECK-NEXT:    [[MOD:%.*]] = urem i32 [[SHL]], [[X]]
303 ; CHECK-NEXT:    ret i32 [[MOD]]
305   %shl = shl i32 %x, %y
306   %mod = urem i32 %shl, %x
307   ret i32 %mod
310 define i32 @srem_with_sext_bool_divisor(i1 %x, i32 %y) {
311 ; CHECK-LABEL: @srem_with_sext_bool_divisor(
312 ; CHECK-NEXT:    ret i32 0
314   %s = sext i1 %x to i32
315   %r = srem i32 %y, %s
316   ret i32 %r
319 define <2 x i32> @srem_with_sext_bool_divisor_vec(<2 x i1> %x, <2 x i32> %y) {
320 ; CHECK-LABEL: @srem_with_sext_bool_divisor_vec(
321 ; CHECK-NEXT:    ret <2 x i32> zeroinitializer
323   %s = sext <2 x i1> %x to <2 x i32>
324   %r = srem <2 x i32> %y, %s
325   ret <2 x i32> %r
328 define i8 @srem_minusone_divisor() {
329 ; CHECK-LABEL: @srem_minusone_divisor(
330 ; CHECK-NEXT:    ret i8 poison
332   %v = srem i8 -128, -1
333   ret i8 %v
336 define i32 @srem_of_mul_nsw(i32 %x, i32 %y) {
337 ; CHECK-LABEL: @srem_of_mul_nsw(
338 ; CHECK-NEXT:    ret i32 0
340   %mul = mul nsw i32 %x, %y
341   %mod = srem i32 %mul, %y
342   ret i32 %mod
345 ; Verify that the optimization kicks in for:
346 ;   - Y * X % Y as well as X * Y % Y
347 ;   - vector types
348 define <2 x i32> @srem_of_mul_nsw_vec_commuted(<2 x i32> %x, <2 x i32> %y) {
349 ; CHECK-LABEL: @srem_of_mul_nsw_vec_commuted(
350 ; CHECK-NEXT:    ret <2 x i32> zeroinitializer
352   %mul = mul nsw <2 x i32> %y, %x
353   %mod = srem <2 x i32> %mul, %y
354   ret <2 x i32> %mod
357 define i32 @srem_of_mul_nuw(i32 %x, i32 %y) {
358 ; CHECK-LABEL: @srem_of_mul_nuw(
359 ; CHECK-NEXT:    [[MUL:%.*]] = mul nuw i32 [[X:%.*]], [[Y:%.*]]
360 ; CHECK-NEXT:    [[MOD:%.*]] = srem i32 [[MUL]], [[Y]]
361 ; CHECK-NEXT:    ret i32 [[MOD]]
363   %mul = mul nuw i32 %x, %y
364   %mod = srem i32 %mul, %y
365   ret i32 %mod
368 define i32 @srem_of_mul(i32 %x, i32 %y) {
369 ; CHECK-LABEL: @srem_of_mul(
370 ; CHECK-NEXT:    [[MUL:%.*]] = mul i32 [[X:%.*]], [[Y:%.*]]
371 ; CHECK-NEXT:    [[MOD:%.*]] = srem i32 [[MUL]], [[Y]]
372 ; CHECK-NEXT:    ret i32 [[MOD]]
374   %mul = mul i32 %x, %y
375   %mod = srem i32 %mul, %y
376   ret i32 %mod
379 define i32 @urem_of_mul_nsw(i32 %x, i32 %y) {
380 ; CHECK-LABEL: @urem_of_mul_nsw(
381 ; CHECK-NEXT:    [[MUL:%.*]] = mul nsw i32 [[X:%.*]], [[Y:%.*]]
382 ; CHECK-NEXT:    [[MOD:%.*]] = urem i32 [[MUL]], [[Y]]
383 ; CHECK-NEXT:    ret i32 [[MOD]]
385   %mul = mul nsw i32 %x, %y
386   %mod = urem i32 %mul, %y
387   ret i32 %mod
390 define i32 @urem_of_mul_nuw(i32 %x, i32 %y) {
391 ; CHECK-LABEL: @urem_of_mul_nuw(
392 ; CHECK-NEXT:    ret i32 0
394   %mul = mul nuw i32 %x, %y
395   %mod = urem i32 %mul, %y
396   ret i32 %mod
399 define <2 x i32> @srem_of_mul_nuw_vec_commuted(<2 x i32> %x, <2 x i32> %y) {
400 ; CHECK-LABEL: @srem_of_mul_nuw_vec_commuted(
401 ; CHECK-NEXT:    ret <2 x i32> zeroinitializer
403   %mul = mul nuw <2 x i32> %y, %x
404   %mod = urem <2 x i32> %mul, %y
405   ret <2 x i32> %mod
408 define i32 @urem_of_mul(i32 %x, i32 %y) {
409 ; CHECK-LABEL: @urem_of_mul(
410 ; CHECK-NEXT:    [[MUL:%.*]] = mul i32 [[X:%.*]], [[Y:%.*]]
411 ; CHECK-NEXT:    [[MOD:%.*]] = urem i32 [[MUL]], [[Y]]
412 ; CHECK-NEXT:    ret i32 [[MOD]]
414   %mul = mul i32 %x, %y
415   %mod = urem i32 %mul, %y
416   ret i32 %mod
419 define i4 @srem_mul_sdiv(i4 %x, i4 %y) {
420 ; CHECK-LABEL: @srem_mul_sdiv(
421 ; CHECK-NEXT:    ret i4 0
423   %d = sdiv i4 %x, %y
424   %mul = mul i4 %d, %y
425   %mod = srem i4 %mul, %y
426   ret i4 %mod
429 define i8 @srem_mul_udiv(i8 %x, i8 %y) {
430 ; CHECK-LABEL: @srem_mul_udiv(
431 ; CHECK-NEXT:    [[D:%.*]] = udiv i8 [[X:%.*]], [[Y:%.*]]
432 ; CHECK-NEXT:    [[MUL:%.*]] = mul i8 [[D]], [[Y]]
433 ; CHECK-NEXT:    [[MOD:%.*]] = srem i8 [[MUL]], [[Y]]
434 ; CHECK-NEXT:    ret i8 [[MOD]]
436   %d = udiv i8 %x, %y
437   %mul = mul i8 %d, %y
438   %mod = srem i8 %mul, %y
439   ret i8 %mod
442 define <3 x i7> @urem_mul_udiv_vec_commuted(<3 x i7> %x, <3 x i7> %y) {
443 ; CHECK-LABEL: @urem_mul_udiv_vec_commuted(
444 ; CHECK-NEXT:    ret <3 x i7> zeroinitializer
446   %d = udiv <3 x i7> %x, %y
447   %mul = mul <3 x i7> %y, %d
448   %mod = urem <3 x i7> %mul, %y
449   ret <3 x i7> %mod
452 define i8 @urem_mul_sdiv(i8 %x, i8 %y) {
453 ; CHECK-LABEL: @urem_mul_sdiv(
454 ; CHECK-NEXT:    [[D:%.*]] = sdiv i8 [[X:%.*]], [[Y:%.*]]
455 ; CHECK-NEXT:    [[MUL:%.*]] = mul i8 [[Y]], [[D]]
456 ; CHECK-NEXT:    [[MOD:%.*]] = urem i8 [[MUL]], [[Y]]
457 ; CHECK-NEXT:    ret i8 [[MOD]]
459   %d = sdiv i8 %x, %y
460   %mul = mul i8 %y, %d
461   %mod = urem i8 %mul, %y
462   ret i8 %mod