Revert "[VectorCombine] Combine scalar fneg with insert/extract to vector fneg when...
[llvm-project.git] / llvm / test / Transforms / SLPVectorizer / reduced-gathered-vectorized.ll
blob02ec2b18365018f3fdab41aa48a77719222247eb
1 ; NOTE: Assertions have been autogenerated by utils/update_test_checks.py
2 ; RUN: %if x86-registered-target %{ opt -passes=slp-vectorizer -S -mtriple=x86_64-unknown-linux-gnu < %s | FileCheck %s %}
3 ; RUN: %if aarch64-registered-target %{ opt -passes=slp-vectorizer -S -mtriple=aarch64-unknown-linux-gnu < %s | FileCheck %s %}
5 define i16 @test() {
6 ; CHECK-LABEL: @test(
7 ; CHECK-NEXT:  entry:
8 ; CHECK-NEXT:    [[A:%.*]] = getelementptr [1000 x i64], ptr null, i64 0, i64 5
9 ; CHECK-NEXT:    [[A1:%.*]] = getelementptr [1000 x i64], ptr null, i64 0, i64 6
10 ; CHECK-NEXT:    br label [[WHILE:%.*]]
11 ; CHECK:       while:
12 ; CHECK-NEXT:    [[PH:%.*]] = phi i64 [ 0, [[ENTRY:%.*]] ], [ [[OP_RDX26:%.*]], [[WHILE]] ]
13 ; CHECK-NEXT:    [[TMP0:%.*]] = load i64, ptr null, align 8
14 ; CHECK-NEXT:    [[TMP1:%.*]] = load i64, ptr [[A1]], align 16
15 ; CHECK-NEXT:    [[TMP2:%.*]] = load i64, ptr null, align 8
16 ; CHECK-NEXT:    [[TMP3:%.*]] = load <4 x i64>, ptr [[A]], align 8
17 ; CHECK-NEXT:    [[TMP4:%.*]] = shufflevector <4 x i64> [[TMP3]], <4 x i64> zeroinitializer, <4 x i32> <i32 0, i32 1, i32 4, i32 4>
18 ; CHECK-NEXT:    [[TMP5:%.*]] = call i64 @llvm.vector.reduce.xor.v4i64(<4 x i64> [[TMP4]])
19 ; CHECK-NEXT:    [[OP_RDX:%.*]] = xor i64 0, [[TMP2]]
20 ; CHECK-NEXT:    [[OP_RDX24:%.*]] = xor i64 [[TMP0]], [[TMP1]]
21 ; CHECK-NEXT:    [[OP_RDX25:%.*]] = xor i64 [[OP_RDX]], [[OP_RDX24]]
22 ; CHECK-NEXT:    [[OP_RDX26]] = xor i64 [[OP_RDX25]], [[TMP5]]
23 ; CHECK-NEXT:    br label [[WHILE]]
25 entry:
26   %a = getelementptr [1000 x i64], ptr null, i64 0, i64 5
27   %a1 = getelementptr [1000 x i64], ptr null, i64 0, i64 6
28   %a2 = getelementptr [1000 x i64], ptr null, i64 0, i64 7
29   %a3 = getelementptr [1000 x i64], ptr null, i64 0, i64 8
30   br label %while
32 while:
33   %ph = phi i64 [ 0, %entry ], [ %xor, %while ]
34   %0 = load i64, ptr null, align 8
35   %1 = load i64, ptr %a1, align 16
36   %2 = load i64, ptr %a2, align 8
37   %3 = load i64, ptr %a3, align 16
38   %4 = load i64, ptr null, align 8
39   %5 = load i64, ptr %a, align 8
40   %6 = load i64, ptr %a1, align 16
41   %7 = load i64, ptr %a2, align 8
42   %8 = load i64, ptr %a3, align 16
43   %9 = xor i64 %0, %1
44   %10 = xor i64 %9, %2
45   %11 = xor i64 %10, %3
46   %12 = xor i64 %11, %4
47   %13 = xor i64 %12, %0
48   %14 = xor i64 %13, %1
49   %15 = xor i64 %14, %2
50   %16 = xor i64 %15, %3
51   %17 = xor i64 %16, %4
52   %18 = xor i64 %17, %0
53   %19 = xor i64 %18, %1
54   %20 = xor i64 %19, %2
55   %21 = xor i64 %20, %3
56   %22 = xor i64 %21, %4
57   %23 = xor i64 %22, %5
58   %24 = xor i64 %23, %6
59   %25 = xor i64 %24, %2
60   %26 = xor i64 %25, %3
61   %27 = xor i64 %26, %4
62   %28 = xor i64 %27, %5
63   %29 = xor i64 %28, %6
64   %30 = xor i64 %29, %7
65   %31 = xor i64 %30, %8
66   %32 = xor i64 %31, %4
67   %33 = xor i64 %32, %5
68   %34 = xor i64 %33, %6
69   %35 = xor i64 %34, %7
70   %xor = xor i64 %35, %8
71   br label %while