Revert "[InstCombine] Support gep nuw in icmp folds" (#118698)
[llvm-project.git] / llvm / test / Transforms / InstCombine / reduction-and-sext-zext-i1.ll
blob4af9177bbfaaaae21de9b6952fe36a5a1fc69004
1 ; NOTE: Assertions have been autogenerated by utils/update_test_checks.py
2 ; RUN: opt < %s -passes=instcombine -S | FileCheck %s
4 target datalayout = "e-m:e-i64:64-f80:128-n8:16:32:64-S128"
6 define i1 @reduce_and_self(<8 x i1> %x) {
7 ; CHECK-LABEL: @reduce_and_self(
8 ; CHECK-NEXT:    [[TMP1:%.*]] = bitcast <8 x i1> [[X:%.*]] to i8
9 ; CHECK-NEXT:    [[RES:%.*]] = icmp eq i8 [[TMP1]], -1
10 ; CHECK-NEXT:    ret i1 [[RES]]
12   %res = call i1 @llvm.vector.reduce.and.v8i32(<8 x i1> %x)
13   ret i1 %res
16 define i32 @reduce_and_sext(<4 x i1> %x) {
17 ; CHECK-LABEL: @reduce_and_sext(
18 ; CHECK-NEXT:    [[TMP1:%.*]] = bitcast <4 x i1> [[X:%.*]] to i4
19 ; CHECK-NEXT:    [[TMP2:%.*]] = icmp eq i4 [[TMP1]], -1
20 ; CHECK-NEXT:    [[RES:%.*]] = sext i1 [[TMP2]] to i32
21 ; CHECK-NEXT:    ret i32 [[RES]]
23   %sext = sext <4 x i1> %x to <4 x i32>
24   %res = call i32 @llvm.vector.reduce.and.v4i32(<4 x i32> %sext)
25   ret i32 %res
28 define i64 @reduce_and_zext(<8 x i1> %x) {
29 ; CHECK-LABEL: @reduce_and_zext(
30 ; CHECK-NEXT:    [[TMP1:%.*]] = bitcast <8 x i1> [[X:%.*]] to i8
31 ; CHECK-NEXT:    [[TMP2:%.*]] = icmp eq i8 [[TMP1]], -1
32 ; CHECK-NEXT:    [[RES:%.*]] = zext i1 [[TMP2]] to i64
33 ; CHECK-NEXT:    ret i64 [[RES]]
35   %zext = zext <8 x i1> %x to <8 x i64>
36   %res = call i64 @llvm.vector.reduce.and.v8i64(<8 x i64> %zext)
37   ret i64 %res
40 define i16 @reduce_and_sext_same(<16 x i1> %x) {
41 ; CHECK-LABEL: @reduce_and_sext_same(
42 ; CHECK-NEXT:    [[TMP1:%.*]] = bitcast <16 x i1> [[X:%.*]] to i16
43 ; CHECK-NEXT:    [[TMP2:%.*]] = icmp eq i16 [[TMP1]], -1
44 ; CHECK-NEXT:    [[RES:%.*]] = sext i1 [[TMP2]] to i16
45 ; CHECK-NEXT:    ret i16 [[RES]]
47   %sext = sext <16 x i1> %x to <16 x i16>
48   %res = call i16 @llvm.vector.reduce.and.v16i16(<16 x i16> %sext)
49   ret i16 %res
52 define i8 @reduce_and_zext_long(<128 x i1> %x) {
53 ; CHECK-LABEL: @reduce_and_zext_long(
54 ; CHECK-NEXT:    [[TMP1:%.*]] = bitcast <128 x i1> [[X:%.*]] to i128
55 ; CHECK-NEXT:    [[TMP2:%.*]] = icmp eq i128 [[TMP1]], -1
56 ; CHECK-NEXT:    [[RES:%.*]] = sext i1 [[TMP2]] to i8
57 ; CHECK-NEXT:    ret i8 [[RES]]
59   %sext = sext <128 x i1> %x to <128 x i8>
60   %res = call i8 @llvm.vector.reduce.and.v128i8(<128 x i8> %sext)
61   ret i8 %res
64 @glob = external global i8, align 1
65 define i8 @reduce_and_zext_long_external_use(<128 x i1> %x) {
66 ; CHECK-LABEL: @reduce_and_zext_long_external_use(
67 ; CHECK-NEXT:    [[TMP1:%.*]] = bitcast <128 x i1> [[X:%.*]] to i128
68 ; CHECK-NEXT:    [[TMP2:%.*]] = icmp eq i128 [[TMP1]], -1
69 ; CHECK-NEXT:    [[RES:%.*]] = sext i1 [[TMP2]] to i8
70 ; CHECK-NEXT:    [[TMP3:%.*]] = extractelement <128 x i1> [[X]], i64 0
71 ; CHECK-NEXT:    [[EXT:%.*]] = sext i1 [[TMP3]] to i8
72 ; CHECK-NEXT:    store i8 [[EXT]], ptr @glob, align 1
73 ; CHECK-NEXT:    ret i8 [[RES]]
75   %sext = sext <128 x i1> %x to <128 x i8>
76   %res = call i8 @llvm.vector.reduce.and.v128i8(<128 x i8> %sext)
77   %ext = extractelement <128 x i8> %sext, i32 0
78   store i8 %ext, ptr @glob, align 1
79   ret i8 %res
82 @glob1 = external global i64, align 8
83 define i64 @reduce_and_zext_external_use(<8 x i1> %x) {
84 ; CHECK-LABEL: @reduce_and_zext_external_use(
85 ; CHECK-NEXT:    [[TMP1:%.*]] = bitcast <8 x i1> [[X:%.*]] to i8
86 ; CHECK-NEXT:    [[TMP2:%.*]] = icmp eq i8 [[TMP1]], -1
87 ; CHECK-NEXT:    [[RES:%.*]] = zext i1 [[TMP2]] to i64
88 ; CHECK-NEXT:    [[TMP3:%.*]] = extractelement <8 x i1> [[X]], i64 0
89 ; CHECK-NEXT:    [[EXT:%.*]] = zext i1 [[TMP3]] to i64
90 ; CHECK-NEXT:    store i64 [[EXT]], ptr @glob1, align 8
91 ; CHECK-NEXT:    ret i64 [[RES]]
93   %zext = zext <8 x i1> %x to <8 x i64>
94   %res = call i64 @llvm.vector.reduce.and.v8i64(<8 x i64> %zext)
95   %ext = extractelement <8 x i64> %zext, i32 0
96   store i64 %ext, ptr @glob1, align 8
97   ret i64 %res
100 define i1 @reduce_and_pointer_cast(ptr %arg, ptr %arg1) {
101 ; CHECK-LABEL: @reduce_and_pointer_cast(
102 ; CHECK-NEXT:  bb:
103 ; CHECK-NEXT:    [[LHS1:%.*]] = load i64, ptr [[ARG1:%.*]], align 8
104 ; CHECK-NEXT:    [[RHS2:%.*]] = load i64, ptr [[ARG:%.*]], align 8
105 ; CHECK-NEXT:    [[ALL_EQ:%.*]] = icmp eq i64 [[LHS1]], [[RHS2]]
106 ; CHECK-NEXT:    ret i1 [[ALL_EQ]]
109   %lhs = load <8 x i8>, ptr %arg1
110   %rhs = load <8 x i8>, ptr %arg
111   %cmp = icmp eq <8 x i8> %lhs, %rhs
112   %all_eq = call i1 @llvm.vector.reduce.and.v8i32(<8 x i1> %cmp)
113   ret i1 %all_eq
116 define i1 @reduce_and_pointer_cast_wide(ptr %arg, ptr %arg1) {
117 ; CHECK-LABEL: @reduce_and_pointer_cast_wide(
118 ; CHECK-NEXT:  bb:
119 ; CHECK-NEXT:    [[LHS:%.*]] = load <8 x i16>, ptr [[ARG1:%.*]], align 16
120 ; CHECK-NEXT:    [[RHS:%.*]] = load <8 x i16>, ptr [[ARG:%.*]], align 16
121 ; CHECK-NEXT:    [[CMP:%.*]] = icmp ne <8 x i16> [[LHS]], [[RHS]]
122 ; CHECK-NEXT:    [[TMP0:%.*]] = bitcast <8 x i1> [[CMP]] to i8
123 ; CHECK-NEXT:    [[ALL_EQ:%.*]] = icmp eq i8 [[TMP0]], 0
124 ; CHECK-NEXT:    ret i1 [[ALL_EQ]]
127   %lhs = load <8 x i16>, ptr %arg1
128   %rhs = load <8 x i16>, ptr %arg
129   %cmp = icmp eq <8 x i16> %lhs, %rhs
130   %all_eq = call i1 @llvm.vector.reduce.and.v8i32(<8 x i1> %cmp)
131   ret i1 %all_eq
134 define i1 @reduce_and_pointer_cast_ne(ptr %arg, ptr %arg1) {
135 ; CHECK-LABEL: @reduce_and_pointer_cast_ne(
136 ; CHECK-NEXT:  bb:
137 ; CHECK-NEXT:    [[LHS1:%.*]] = load i64, ptr [[ARG1:%.*]], align 8
138 ; CHECK-NEXT:    [[RHS2:%.*]] = load i64, ptr [[ARG:%.*]], align 8
139 ; CHECK-NEXT:    [[ALL_EQ:%.*]] = icmp ne i64 [[LHS1]], [[RHS2]]
140 ; CHECK-NEXT:    ret i1 [[ALL_EQ]]
143   %lhs = load <8 x i8>, ptr %arg1
144   %rhs = load <8 x i8>, ptr %arg
145   %cmp = icmp eq <8 x i8> %lhs, %rhs
146   %all_eq = call i1 @llvm.vector.reduce.and.v8i32(<8 x i1> %cmp)
147   %any_ne = xor i1 %all_eq, 1
148   ret i1 %any_ne
151 define i1 @reduce_and_pointer_cast_ne_wide(ptr %arg, ptr %arg1) {
152 ; CHECK-LABEL: @reduce_and_pointer_cast_ne_wide(
153 ; CHECK-NEXT:  bb:
154 ; CHECK-NEXT:    [[LHS:%.*]] = load <8 x i16>, ptr [[ARG1:%.*]], align 16
155 ; CHECK-NEXT:    [[RHS:%.*]] = load <8 x i16>, ptr [[ARG:%.*]], align 16
156 ; CHECK-NEXT:    [[CMP:%.*]] = icmp ne <8 x i16> [[LHS]], [[RHS]]
157 ; CHECK-NEXT:    [[TMP0:%.*]] = bitcast <8 x i1> [[CMP]] to i8
158 ; CHECK-NEXT:    [[ALL_EQ:%.*]] = icmp ne i8 [[TMP0]], 0
159 ; CHECK-NEXT:    ret i1 [[ALL_EQ]]
162   %lhs = load <8 x i16>, ptr %arg1
163   %rhs = load <8 x i16>, ptr %arg
164   %cmp = icmp eq <8 x i16> %lhs, %rhs
165   %all_eq = call i1 @llvm.vector.reduce.and.v8i32(<8 x i1> %cmp)
166   %any_ne = xor i1 %all_eq, 1
167   ret i1 %any_ne
170 declare i1 @llvm.vector.reduce.and.v8i32(<8 x i1> %a)
171 declare i32 @llvm.vector.reduce.and.v4i32(<4 x i32> %a)
172 declare i64 @llvm.vector.reduce.and.v8i64(<8 x i64> %a)
173 declare i16 @llvm.vector.reduce.and.v16i16(<16 x i16> %a)
174 declare i8 @llvm.vector.reduce.and.v128i8(<128 x i8> %a)