Revert "[InstCombine] Support gep nuw in icmp folds" (#118698)
[llvm-project.git] / llvm / test / Transforms / SLPVectorizer / AArch64 / mismatched-intrinsics.ll
blobac28660a3de9a13bfe2b0761dd45f112fc3410ed
1 ; NOTE: Assertions have been autogenerated by utils/update_test_checks.py
2 ; RUN: opt -S -passes=slp-vectorizer %s | FileCheck %s
3 target datalayout = "e-m:o-i64:64-i128:128-n32:64-S128"
4 target triple = "arm64-apple-ios5.0.0"
6 define i64 @mismatched_intrinsics(<4 x i32> %in1, <2 x i32> %in2) nounwind {
7 ; CHECK-LABEL: @mismatched_intrinsics(
8 ; CHECK-NEXT:    [[VADDLVQ_S32_I:%.*]] = tail call i64 @llvm.arm64.neon.saddlv.i64.v4i32(<4 x i32> [[IN1:%.*]])
9 ; CHECK-NEXT:    [[VADDLV_S32_I:%.*]] = tail call i64 @llvm.arm64.neon.saddlv.i64.v2i32(<2 x i32> [[IN2:%.*]])
10 ; CHECK-NEXT:    [[TST:%.*]] = icmp sgt i64 [[VADDLVQ_S32_I]], [[VADDLV_S32_I]]
11 ; CHECK-NEXT:    [[EQUAL:%.*]] = sext i1 [[TST]] to i64
12 ; CHECK-NEXT:    ret i64 [[EQUAL]]
15   %vaddlvq_s32.i = tail call i64 @llvm.arm64.neon.saddlv.i64.v4i32(<4 x i32> %in1) #2
16   %vaddlv_s32.i = tail call i64 @llvm.arm64.neon.saddlv.i64.v2i32(<2 x i32> %in2) #2
17   %tst = icmp sgt i64 %vaddlvq_s32.i, %vaddlv_s32.i
18   %equal = sext i1 %tst to i64
19   ret i64 %equal
22 declare i64 @llvm.arm64.neon.saddlv.i64.v4i32(<4 x i32> %in1)
23 declare i64 @llvm.arm64.neon.saddlv.i64.v2i32(<2 x i32> %in1)