Revert r354244 "[DAGCombiner] Eliminate dead stores to stack."
[llvm-complete.git] / test / Transforms / SLPVectorizer / X86 / remark_horcost.ll
blob27997f6af3d73b988c32b2d2df8a1add92fcb546
1 ; NOTE: Assertions have been autogenerated by utils/update_test_checks.py
2 ; RUN: opt -S -mtriple=x86_64-pc-linux-gnu -mcpu=generic -slp-vectorizer -pass-remarks-output=%t < %s | FileCheck %s
3 ; RUN: FileCheck --input-file=%t --check-prefix=YAML %s
5 define i32 @foo(i32* %diff) #0 {
6 ; CHECK-LABEL: @foo(
7 ; CHECK-NEXT:  entry:
8 ; CHECK-NEXT:    [[M2:%.*]] = alloca [8 x [8 x i32]], align 16
9 ; CHECK-NEXT:    [[TMP0:%.*]] = bitcast [8 x [8 x i32]]* [[M2]] to i8*
10 ; CHECK-NEXT:    br label [[FOR_BODY:%.*]]
11 ; CHECK:       for.body:
12 ; CHECK-NEXT:    [[INDVARS_IV:%.*]] = phi i64 [ 0, [[ENTRY:%.*]] ], [ [[INDVARS_IV_NEXT:%.*]], [[FOR_BODY]] ]
13 ; CHECK-NEXT:    [[A_088:%.*]] = phi i32 [ 0, [[ENTRY]] ], [ [[OP_EXTRA:%.*]], [[FOR_BODY]] ]
14 ; CHECK-NEXT:    [[TMP1:%.*]] = shl i64 [[INDVARS_IV]], 3
15 ; CHECK-NEXT:    [[ARRAYIDX:%.*]] = getelementptr inbounds i32, i32* [[DIFF:%.*]], i64 [[TMP1]]
16 ; CHECK-NEXT:    [[TMP2:%.*]] = or i64 [[TMP1]], 4
17 ; CHECK-NEXT:    [[ARRAYIDX2:%.*]] = getelementptr inbounds i32, i32* [[DIFF]], i64 [[TMP2]]
18 ; CHECK-NEXT:    [[ARRAYIDX6:%.*]] = getelementptr inbounds [8 x [8 x i32]], [8 x [8 x i32]]* [[M2]], i64 0, i64 [[INDVARS_IV]], i64 0
19 ; CHECK-NEXT:    [[TMP3:%.*]] = or i64 [[TMP1]], 1
20 ; CHECK-NEXT:    [[ARRAYIDX13:%.*]] = getelementptr inbounds i32, i32* [[DIFF]], i64 [[TMP3]]
21 ; CHECK-NEXT:    [[TMP4:%.*]] = or i64 [[TMP1]], 5
22 ; CHECK-NEXT:    [[ARRAYIDX16:%.*]] = getelementptr inbounds i32, i32* [[DIFF]], i64 [[TMP4]]
23 ; CHECK-NEXT:    [[TMP5:%.*]] = or i64 [[TMP1]], 2
24 ; CHECK-NEXT:    [[ARRAYIDX27:%.*]] = getelementptr inbounds i32, i32* [[DIFF]], i64 [[TMP5]]
25 ; CHECK-NEXT:    [[TMP6:%.*]] = or i64 [[TMP1]], 6
26 ; CHECK-NEXT:    [[ARRAYIDX30:%.*]] = getelementptr inbounds i32, i32* [[DIFF]], i64 [[TMP6]]
27 ; CHECK-NEXT:    [[TMP7:%.*]] = or i64 [[TMP1]], 3
28 ; CHECK-NEXT:    [[ARRAYIDX41:%.*]] = getelementptr inbounds i32, i32* [[DIFF]], i64 [[TMP7]]
29 ; CHECK-NEXT:    [[TMP8:%.*]] = bitcast i32* [[ARRAYIDX]] to <4 x i32>*
30 ; CHECK-NEXT:    [[TMP9:%.*]] = load <4 x i32>, <4 x i32>* [[TMP8]], align 4
31 ; CHECK-NEXT:    [[TMP10:%.*]] = or i64 [[TMP1]], 7
32 ; CHECK-NEXT:    [[ARRAYIDX44:%.*]] = getelementptr inbounds i32, i32* [[DIFF]], i64 [[TMP10]]
33 ; CHECK-NEXT:    [[TMP11:%.*]] = bitcast i32* [[ARRAYIDX2]] to <4 x i32>*
34 ; CHECK-NEXT:    [[TMP12:%.*]] = load <4 x i32>, <4 x i32>* [[TMP11]], align 4
35 ; CHECK-NEXT:    [[TMP13:%.*]] = add nsw <4 x i32> [[TMP12]], [[TMP9]]
36 ; CHECK-NEXT:    [[ADD10:%.*]] = add nsw i32 undef, [[A_088]]
37 ; CHECK-NEXT:    [[ARRAYIDX20:%.*]] = getelementptr inbounds [8 x [8 x i32]], [8 x [8 x i32]]* [[M2]], i64 0, i64 [[INDVARS_IV]], i64 1
38 ; CHECK-NEXT:    [[ADD24:%.*]] = add nsw i32 [[ADD10]], undef
39 ; CHECK-NEXT:    [[ARRAYIDX34:%.*]] = getelementptr inbounds [8 x [8 x i32]], [8 x [8 x i32]]* [[M2]], i64 0, i64 [[INDVARS_IV]], i64 2
40 ; CHECK-NEXT:    [[ADD38:%.*]] = add nsw i32 [[ADD24]], undef
41 ; CHECK-NEXT:    [[ARRAYIDX48:%.*]] = getelementptr inbounds [8 x [8 x i32]], [8 x [8 x i32]]* [[M2]], i64 0, i64 [[INDVARS_IV]], i64 3
42 ; CHECK-NEXT:    [[TMP14:%.*]] = bitcast i32* [[ARRAYIDX6]] to <4 x i32>*
43 ; CHECK-NEXT:    store <4 x i32> [[TMP13]], <4 x i32>* [[TMP14]], align 16
44 ; CHECK-NEXT:    [[RDX_SHUF:%.*]] = shufflevector <4 x i32> [[TMP13]], <4 x i32> undef, <4 x i32> <i32 2, i32 3, i32 undef, i32 undef>
45 ; CHECK-NEXT:    [[BIN_RDX:%.*]] = add nsw <4 x i32> [[TMP13]], [[RDX_SHUF]]
46 ; CHECK-NEXT:    [[RDX_SHUF1:%.*]] = shufflevector <4 x i32> [[BIN_RDX]], <4 x i32> undef, <4 x i32> <i32 1, i32 undef, i32 undef, i32 undef>
47 ; CHECK-NEXT:    [[BIN_RDX2:%.*]] = add nsw <4 x i32> [[BIN_RDX]], [[RDX_SHUF1]]
48 ; CHECK-NEXT:    [[TMP15:%.*]] = extractelement <4 x i32> [[BIN_RDX2]], i32 0
49 ; CHECK-NEXT:    [[OP_EXTRA]] = add nsw i32 [[TMP15]], [[A_088]]
50 ; CHECK-NEXT:    [[ADD52:%.*]] = add nsw i32 [[ADD38]], undef
51 ; CHECK-NEXT:    [[INDVARS_IV_NEXT]] = add nuw nsw i64 [[INDVARS_IV]], 1
52 ; CHECK-NEXT:    [[EXITCOND:%.*]] = icmp eq i64 [[INDVARS_IV_NEXT]], 8
53 ; CHECK-NEXT:    br i1 [[EXITCOND]], label [[FOR_END:%.*]], label [[FOR_BODY]]
54 ; CHECK:       for.end:
55 ; CHECK-NEXT:    ret i32 [[OP_EXTRA]]
57 entry:
58   %m2 = alloca [8 x [8 x i32]], align 16
59   %0 = bitcast [8 x [8 x i32]]* %m2 to i8*
60   br label %for.body
62 for.body:                                         ; preds = %for.body, %entry
63   %indvars.iv = phi i64 [ 0, %entry ], [ %indvars.iv.next, %for.body ]
64   %a.088 = phi i32 [ 0, %entry ], [ %add52, %for.body ]
65   %1 = shl i64 %indvars.iv, 3
66   %arrayidx = getelementptr inbounds i32, i32* %diff, i64 %1
67   %2 = load i32, i32* %arrayidx, align 4
68   %3 = or i64 %1, 4
69   %arrayidx2 = getelementptr inbounds i32, i32* %diff, i64 %3
70   %4 = load i32, i32* %arrayidx2, align 4
71   %add3 = add nsw i32 %4, %2
72   %arrayidx6 = getelementptr inbounds [8 x [8 x i32]], [8 x [8 x i32]]* %m2, i64 0, i64 %indvars.iv, i64 0
73   store i32 %add3, i32* %arrayidx6, align 16
75   %add10 = add nsw i32 %add3, %a.088
76   %5 = or i64 %1, 1
77   %arrayidx13 = getelementptr inbounds i32, i32* %diff, i64 %5
78   %6 = load i32, i32* %arrayidx13, align 4
79   %7 = or i64 %1, 5
80   %arrayidx16 = getelementptr inbounds i32, i32* %diff, i64 %7
81   %8 = load i32, i32* %arrayidx16, align 4
82   %add17 = add nsw i32 %8, %6
83   %arrayidx20 = getelementptr inbounds [8 x [8 x i32]], [8 x [8 x i32]]* %m2, i64 0, i64 %indvars.iv, i64 1
84   store i32 %add17, i32* %arrayidx20, align 4
86   %add24 = add nsw i32 %add10, %add17
87   %9 = or i64 %1, 2
88   %arrayidx27 = getelementptr inbounds i32, i32* %diff, i64 %9
89   %10 = load i32, i32* %arrayidx27, align 4
90   %11 = or i64 %1, 6
91   %arrayidx30 = getelementptr inbounds i32, i32* %diff, i64 %11
92   %12 = load i32, i32* %arrayidx30, align 4
93   %add31 = add nsw i32 %12, %10
94   %arrayidx34 = getelementptr inbounds [8 x [8 x i32]], [8 x [8 x i32]]* %m2, i64 0, i64 %indvars.iv, i64 2
95   store i32 %add31, i32* %arrayidx34, align 8
97   %add38 = add nsw i32 %add24, %add31
98   %13 = or i64 %1, 3
99   %arrayidx41 = getelementptr inbounds i32, i32* %diff, i64 %13
100   %14 = load i32, i32* %arrayidx41, align 4
101   %15 = or i64 %1, 7
102   %arrayidx44 = getelementptr inbounds i32, i32* %diff, i64 %15
103   %16 = load i32, i32* %arrayidx44, align 4
105   %add45 = add nsw i32 %16, %14
106   %arrayidx48 = getelementptr inbounds [8 x [8 x i32]], [8 x [8 x i32]]* %m2, i64 0, i64 %indvars.iv, i64 3
107   store i32 %add45, i32* %arrayidx48, align 4
109   %add52 = add nsw i32 %add38, %add45
111   ; YAML:      --- !Passed
112   ; YAML-NEXT: Pass:            slp-vectorizer
113   ; YAML-NEXT: Name:            StoresVectorized
114   ; YAML-NEXT: Function:        foo
115   ; YAML-NEXT: Args:
116   ; YAML-NEXT:   - String:          'Stores SLP vectorized with cost '
117   ; YAML-NEXT:   - Cost:            '-8'
118   ; YAML-NEXT:   - String:          ' and with tree size '
119   ; YAML-NEXT:   - TreeSize:        '4'
121   ; YAML:      --- !Passed
122   ; YAML-NEXT: Pass:            slp-vectorizer
123   ; YAML-NEXT: Name:            VectorizedHorizontalReduction
124   ; YAML-NEXT: Function:        foo
125   ; YAML-NEXT: Args:
126   ; YAML-NEXT:   - String:          'Vectorized horizontal reduction with cost '
127   ; YAML-NEXT:   - Cost:            '-2'
128   ; YAML-NEXT:   - String:          ' and with tree size '
129   ; YAML-NEXT:   - TreeSize:        '1'
131   %indvars.iv.next = add nuw nsw i64 %indvars.iv, 1
132   %exitcond = icmp eq i64 %indvars.iv.next, 8
133   br i1 %exitcond, label %for.end, label %for.body
135 for.end:                                          ; preds = %for.body
136   ret i32 %add52