1 ; NOTE: Assertions have been autogenerated by utils/update_test_checks.py UTC_ARGS: --version 2
2 ; RUN: opt -mtriple=x86_64-unknown-linux-gnu -passes=slp-vectorizer -S < %s | FileCheck %s
5 ; CHECK-LABEL: define void @test() {
7 ; CHECK-NEXT: [[IDX2:%.*]] = getelementptr [1000 x i64], ptr null, i64 0, i64 7
8 ; CHECK-NEXT: [[TMP0:%.*]] = load <8 x i64>, ptr [[IDX2]], align 8
9 ; CHECK-NEXT: [[TMP1:%.*]] = load <8 x i64>, ptr [[IDX2]], align 8
10 ; CHECK-NEXT: [[TMP2:%.*]] = extractelement <8 x i64> [[TMP1]], i32 7
11 ; CHECK-NEXT: [[TMP3:%.*]] = load i64, ptr null, align 8
12 ; CHECK-NEXT: [[TMP4:%.*]] = shufflevector <8 x i64> [[TMP1]], <8 x i64> poison, <8 x i32> <i32 poison, i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6>
13 ; CHECK-NEXT: [[TMP5:%.*]] = insertelement <8 x i64> [[TMP4]], i64 [[TMP3]], i32 0
14 ; CHECK-NEXT: br label [[LOOP:%.*]]
16 ; CHECK-NEXT: [[PHI1:%.*]] = phi i64 [ 0, [[ENTRY:%.*]] ], [ [[OP_RDX25:%.*]], [[LOOP]] ]
17 ; CHECK-NEXT: [[TMP6:%.*]] = phi <8 x i64> [ [[TMP0]], [[ENTRY]] ], [ [[TMP1]], [[LOOP]] ]
18 ; CHECK-NEXT: [[TMP7:%.*]] = mul <8 x i64> [[TMP6]], <i64 4, i64 4, i64 4, i64 4, i64 4, i64 4, i64 4, i64 4>
19 ; CHECK-NEXT: [[TMP8:%.*]] = add <8 x i64> [[TMP1]], [[TMP5]]
20 ; CHECK-NEXT: [[TMP9:%.*]] = call i64 @llvm.vector.reduce.add.v8i64(<8 x i64> [[TMP7]])
21 ; CHECK-NEXT: [[TMP10:%.*]] = call i64 @llvm.vector.reduce.add.v8i64(<8 x i64> [[TMP8]])
22 ; CHECK-NEXT: [[OP_RDX24:%.*]] = add i64 [[TMP9]], [[TMP10]]
23 ; CHECK-NEXT: [[OP_RDX25]] = add i64 [[OP_RDX24]], [[TMP2]]
24 ; CHECK-NEXT: br label [[LOOP]]
27 %idx1 = getelementptr [1000 x i64], ptr null, i64 0, i64 9
28 %idx2 = getelementptr [1000 x i64], ptr null, i64 0, i64 7
29 %ld1 = load i64, ptr %idx2, align 8
30 %idx3 = getelementptr [1000 x i64], ptr null, i64 0, i64 8
31 %ld2 = load i64, ptr %idx3, align 16
32 %ld3 = load i64, ptr %idx1, align 8
33 %idx4 = getelementptr [1000 x i64], ptr null, i64 0, i64 10
34 %ld4 = load i64, ptr %idx4, align 16
35 %idx5 = getelementptr [1000 x i64], ptr null, i64 0, i64 11
36 %ld5 = load i64, ptr %idx5, align 8
37 %idx6 = getelementptr [1000 x i64], ptr null, i64 0, i64 12
38 %ld6 = load i64, ptr %idx6, align 16
39 %idx7 = getelementptr [1000 x i64], ptr null, i64 0, i64 13
40 %ld7 = load i64, ptr %idx7, align 8
41 %idx8 = getelementptr [1000 x i64], ptr null, i64 0, i64 14
42 %ld8 = load i64, ptr %idx8, align 16
43 %0 = load i64, ptr %idx2, align 8
44 %1 = load i64, ptr %idx3, align 16
45 %2 = load i64, ptr %idx1, align 8
46 %3 = load i64, ptr %idx4, align 16
47 %4 = load i64, ptr %idx5, align 8
48 %5 = load i64, ptr %idx6, align 16
49 %6 = load i64, ptr %idx7, align 8
50 %7 = load i64, ptr %idx8, align 16
51 %8 = load i64, ptr null, align 8
54 loop: ; preds = %loop, %entry
55 %9 = phi i64 [ %ld8, %entry ], [ %7, %loop ]
56 %10 = phi i64 [ %ld7, %entry ], [ %6, %loop ]
57 %11 = phi i64 [ %ld6, %entry ], [ %5, %loop ]
58 %12 = phi i64 [ %ld5, %entry ], [ %4, %loop ]
59 %13 = phi i64 [ %ld4, %entry ], [ %3, %loop ]
60 %14 = phi i64 [ %ld3, %entry ], [ %2, %loop ]
61 %15 = phi i64 [ %ld2, %entry ], [ %1, %loop ]
62 %16 = phi i64 [ %ld1, %entry ], [ %0, %loop ]
63 %phi1 = phi i64 [ 0, %entry ], [ %64, %loop ]
64 %17 = add i64 %16, %15
65 %18 = add i64 %17, %14
66 %19 = add i64 %18, %13
67 %20 = add i64 %19, %12
68 %21 = add i64 %20, %11
69 %22 = add i64 %21, %10
71 %24 = add i64 %23, %16
72 %25 = add i64 %24, %15
73 %26 = add i64 %25, %14
74 %27 = add i64 %26, %13
75 %28 = add i64 %27, %12
76 %29 = add i64 %28, %11
77 %30 = add i64 %29, %10
79 %32 = add i64 %31, %16
80 %33 = add i64 %32, %15
81 %34 = add i64 %33, %14
82 %35 = add i64 %34, %13
83 %36 = add i64 %35, %12
84 %37 = add i64 %36, %11
85 %38 = add i64 %37, %10
87 %40 = add i64 %39, %16
88 %41 = add i64 %40, %15
89 %42 = add i64 %41, %14
90 %43 = add i64 %42, %13
91 %44 = add i64 %43, %12
92 %45 = add i64 %44, %11
93 %46 = add i64 %45, %10
100 %53 = add i64 %52, %5
101 %54 = add i64 %53, %6
102 %55 = add i64 %54, %7
103 %56 = add i64 %55, %8
104 %57 = add i64 %56, %0
105 %58 = add i64 %57, %1
106 %59 = add i64 %58, %2
107 %60 = add i64 %59, %3
108 %61 = add i64 %60, %4
109 %62 = add i64 %61, %5
110 %63 = add i64 %62, %6
111 %64 = add i64 %63, %7