Bump version to 19.1.0-rc3
[llvm-project.git] / llvm / test / Transforms / SLPVectorizer / X86 / external-user-instruction-minbitwidth.ll
blob84f7e219f50666d539f5fd74f74a0e406a1e3b91
1 ; NOTE: Assertions have been autogenerated by utils/update_test_checks.py UTC_ARGS: --version 4
2 ; RUN: opt -S --passes=slp-vectorizer -mtriple=x86_64-unknown-linux-gnu < %s | FileCheck %s
4 @e = global i8 0
5 @c = global i16 0
6 @d = global i32 0
8 define i8 @test() {
9 ; CHECK-LABEL: define i8 @test() {
10 ; CHECK-NEXT:  entry:
11 ; CHECK-NEXT:    [[TMP0:%.*]] = load i8, ptr @e, align 1
12 ; CHECK-NEXT:    [[CONV:%.*]] = sext i8 [[TMP0]] to i32
13 ; CHECK-NEXT:    [[TMP1:%.*]] = load i16, ptr @c, align 2
14 ; CHECK-NEXT:    [[CONV1:%.*]] = zext i16 [[TMP1]] to i32
15 ; CHECK-NEXT:    [[TMP2:%.*]] = insertelement <8 x i32> poison, i32 [[CONV]], i32 0
16 ; CHECK-NEXT:    [[TMP3:%.*]] = shufflevector <8 x i32> [[TMP2]], <8 x i32> poison, <8 x i32> zeroinitializer
17 ; CHECK-NEXT:    [[TMP4:%.*]] = or <8 x i32> [[TMP3]], <i32 1, i32 1, i32 1, i32 1, i32 1, i32 1, i32 1, i32 32769>
18 ; CHECK-NEXT:    [[TMP6:%.*]] = insertelement <8 x i32> poison, i32 [[CONV1]], i32 0
19 ; CHECK-NEXT:    [[TMP7:%.*]] = shufflevector <8 x i32> [[TMP6]], <8 x i32> poison, <8 x i32> zeroinitializer
20 ; CHECK-NEXT:    [[TMP8:%.*]] = add nsw <8 x i32> [[TMP4]], [[TMP7]]
21 ; CHECK-NEXT:    [[TMP11:%.*]] = call i32 @llvm.vector.reduce.or.v8i32(<8 x i32> [[TMP8]])
22 ; CHECK-NEXT:    [[CONV4_30:%.*]] = trunc i32 [[TMP11]] to i8
23 ; CHECK-NEXT:    [[TMP13:%.*]] = extractelement <8 x i32> [[TMP4]], i32 7
24 ; CHECK-NEXT:    [[XOR_31:%.*]] = and i32 [[TMP13]], -2
25 ; CHECK-NEXT:    store i32 [[XOR_31]], ptr @d, align 4
26 ; CHECK-NEXT:    ret i8 [[CONV4_30]]
28 entry:
29   %0 = load i8, ptr @e, align 1
30   %conv = sext i8 %0 to i32
31   %1 = load i16, ptr @c, align 2
32   %conv1 = zext i16 %1 to i32
33   %or.16 = or i32 %conv, 1
34   %add.16 = add nsw i32 %or.16, %conv1
35   %or.18 = or i32 %conv, 1
36   %add.18 = add nsw i32 %or.18, %conv1
37   %conv4.181 = or i32 %add.16, %add.18
38   %or.20 = or i32 %conv, 1
39   %add.20 = add nsw i32 %or.20, %conv1
40   %conv4.202 = or i32 %conv4.181, %add.20
41   %or.22 = or i32 %conv, 1
42   %add.22 = add nsw i32 %or.22, %conv1
43   %conv4.223 = or i32 %conv4.202, %add.22
44   %or.24 = or i32 %conv, 1
45   %add.24 = add nsw i32 %or.24, %conv1
46   %conv4.244 = or i32 %conv4.223, %add.24
47   %or.26 = or i32 %conv, 1
48   %add.26 = add nsw i32 %or.26, %conv1
49   %conv4.265 = or i32 %conv4.244, %add.26
50   %or.28 = or i32 %conv, 1
51   %add.28 = add nsw i32 %or.28, %conv1
52   %conv4.286 = or i32 %conv4.265, %add.28
53   %or.30 = or i32 %conv, 32769
54   %add.30 = add nsw i32 %or.30, %conv1
55   %conv4.307 = or i32 %conv4.286, %add.30
56   %conv4.30 = trunc i32 %conv4.307 to i8
57   %xor.31 = and i32 %or.30, -2
58   store i32 %xor.31, ptr @d, align 4
59   ret i8 %conv4.30