[ARM] Better OR's for MVE compares
[llvm-core.git] / test / Transforms / InstSimplify / div-by-0-guard-before-umul_ov.ll
blob63cf1015ffac87d38d080b5ce9abecbc963929c8
1 ; NOTE: Assertions have been autogenerated by utils/update_test_checks.py
2 ; RUN: opt %s -instsimplify -S | FileCheck %s
4 declare { i4, i1 } @llvm.umul.with.overflow.i4(i4, i4) #1
6 define i1 @t0_umul(i4 %size, i4 %nmemb) {
7 ; CHECK-LABEL: @t0_umul(
8 ; CHECK-NEXT:    [[CMP:%.*]] = icmp ne i4 [[SIZE:%.*]], 0
9 ; CHECK-NEXT:    [[UMUL:%.*]] = tail call { i4, i1 } @llvm.umul.with.overflow.i4(i4 [[SIZE]], i4 [[NMEMB:%.*]])
10 ; CHECK-NEXT:    [[UMUL_OV:%.*]] = extractvalue { i4, i1 } [[UMUL]], 1
11 ; CHECK-NEXT:    [[AND:%.*]] = and i1 [[UMUL_OV]], [[CMP]]
12 ; CHECK-NEXT:    ret i1 [[AND]]
14   %cmp = icmp ne i4 %size, 0
15   %umul = tail call { i4, i1 } @llvm.umul.with.overflow.i4(i4 %size, i4 %nmemb)
16   %umul.ov = extractvalue { i4, i1 } %umul, 1
17   %and = and i1 %umul.ov, %cmp
18   ret i1 %and
21 define i1 @t1_commutative(i4 %size, i4 %nmemb) {
22 ; CHECK-LABEL: @t1_commutative(
23 ; CHECK-NEXT:    [[CMP:%.*]] = icmp ne i4 [[SIZE:%.*]], 0
24 ; CHECK-NEXT:    [[UMUL:%.*]] = tail call { i4, i1 } @llvm.umul.with.overflow.i4(i4 [[SIZE]], i4 [[NMEMB:%.*]])
25 ; CHECK-NEXT:    [[UMUL_OV:%.*]] = extractvalue { i4, i1 } [[UMUL]], 1
26 ; CHECK-NEXT:    [[AND:%.*]] = and i1 [[CMP]], [[UMUL_OV]]
27 ; CHECK-NEXT:    ret i1 [[AND]]
29   %cmp = icmp ne i4 %size, 0
30   %umul = tail call { i4, i1 } @llvm.umul.with.overflow.i4(i4 %size, i4 %nmemb)
31   %umul.ov = extractvalue { i4, i1 } %umul, 1
32   %and = and i1 %cmp, %umul.ov ; swapped
33   ret i1 %and
36 define i1 @n2_wrong_size(i4 %size0, i4 %size1, i4 %nmemb) {
37 ; CHECK-LABEL: @n2_wrong_size(
38 ; CHECK-NEXT:    [[CMP:%.*]] = icmp ne i4 [[SIZE1:%.*]], 0
39 ; CHECK-NEXT:    [[UMUL:%.*]] = tail call { i4, i1 } @llvm.umul.with.overflow.i4(i4 [[SIZE0:%.*]], i4 [[NMEMB:%.*]])
40 ; CHECK-NEXT:    [[UMUL_OV:%.*]] = extractvalue { i4, i1 } [[UMUL]], 1
41 ; CHECK-NEXT:    [[AND:%.*]] = and i1 [[UMUL_OV]], [[CMP]]
42 ; CHECK-NEXT:    ret i1 [[AND]]
44   %cmp = icmp ne i4 %size1, 0 ; not %size0
45   %umul = tail call { i4, i1 } @llvm.umul.with.overflow.i4(i4 %size0, i4 %nmemb)
46   %umul.ov = extractvalue { i4, i1 } %umul, 1
47   %and = and i1 %umul.ov, %cmp
48   ret i1 %and
51 define i1 @n3_wrong_pred(i4 %size, i4 %nmemb) {
52 ; CHECK-LABEL: @n3_wrong_pred(
53 ; CHECK-NEXT:    [[CMP:%.*]] = icmp eq i4 [[SIZE:%.*]], 0
54 ; CHECK-NEXT:    [[UMUL:%.*]] = tail call { i4, i1 } @llvm.umul.with.overflow.i4(i4 [[SIZE]], i4 [[NMEMB:%.*]])
55 ; CHECK-NEXT:    [[UMUL_OV:%.*]] = extractvalue { i4, i1 } [[UMUL]], 1
56 ; CHECK-NEXT:    [[AND:%.*]] = and i1 [[UMUL_OV]], [[CMP]]
57 ; CHECK-NEXT:    ret i1 [[AND]]
59   %cmp = icmp eq i4 %size, 0 ; not 'ne'
60   %umul = tail call { i4, i1 } @llvm.umul.with.overflow.i4(i4 %size, i4 %nmemb)
61   %umul.ov = extractvalue { i4, i1 } %umul, 1
62   %and = and i1 %umul.ov, %cmp
63   ret i1 %and
66 define i1 @n4_not_and(i4 %size, i4 %nmemb) {
67 ; CHECK-LABEL: @n4_not_and(
68 ; CHECK-NEXT:    [[CMP:%.*]] = icmp ne i4 [[SIZE:%.*]], 0
69 ; CHECK-NEXT:    [[UMUL:%.*]] = tail call { i4, i1 } @llvm.umul.with.overflow.i4(i4 [[SIZE]], i4 [[NMEMB:%.*]])
70 ; CHECK-NEXT:    [[UMUL_OV:%.*]] = extractvalue { i4, i1 } [[UMUL]], 1
71 ; CHECK-NEXT:    [[AND:%.*]] = or i1 [[UMUL_OV]], [[CMP]]
72 ; CHECK-NEXT:    ret i1 [[AND]]
74   %cmp = icmp ne i4 %size, 0
75   %umul = tail call { i4, i1 } @llvm.umul.with.overflow.i4(i4 %size, i4 %nmemb)
76   %umul.ov = extractvalue { i4, i1 } %umul, 1
77   %and = or i1 %umul.ov, %cmp ; not 'and'
78   ret i1 %and
81 define i1 @n5_not_zero(i4 %size, i4 %nmemb) {
82 ; CHECK-LABEL: @n5_not_zero(
83 ; CHECK-NEXT:    [[CMP:%.*]] = icmp ne i4 [[SIZE:%.*]], 1
84 ; CHECK-NEXT:    [[UMUL:%.*]] = tail call { i4, i1 } @llvm.umul.with.overflow.i4(i4 [[SIZE]], i4 [[NMEMB:%.*]])
85 ; CHECK-NEXT:    [[UMUL_OV:%.*]] = extractvalue { i4, i1 } [[UMUL]], 1
86 ; CHECK-NEXT:    [[AND:%.*]] = and i1 [[UMUL_OV]], [[CMP]]
87 ; CHECK-NEXT:    ret i1 [[AND]]
89   %cmp = icmp ne i4 %size, 1 ; should be '0'
90   %umul = tail call { i4, i1 } @llvm.umul.with.overflow.i4(i4 %size, i4 %nmemb)
91   %umul.ov = extractvalue { i4, i1 } %umul, 1
92   %and = and i1 %umul.ov, %cmp
93   ret i1 %and