Revert r362472 as it is breaking PPC build bots
[llvm-core.git] / test / Transforms / SLPVectorizer / X86 / broadcast.ll
blob79525cff5a3ca8cd1b04f5992bc13f1a79dd32d6
1 ; NOTE: Assertions have been autogenerated by utils/update_test_checks.py
2 ; RUN: opt -slp-vectorizer -S -mtriple=x86_64-unknown-linux -mcpu=corei7-avx -slp-threshold=-999 < %s | FileCheck %s
5 ; S[0] = %v1 + %v2
6 ; S[1] = %v2 + %v1
7 ; S[2] = %v2 + %v1
8 ; S[3] = %v1 + %v2
10 ; TODO: We should broadcast %v1 and %v2
12 define void @bcast_vals(i64 *%A, i64 *%B, i64 *%S) {
13 ; CHECK-LABEL: @bcast_vals(
14 ; CHECK-NEXT:  entry:
15 ; CHECK-NEXT:    [[A0:%.*]] = load i64, i64* [[A:%.*]], align 8
16 ; CHECK-NEXT:    [[B0:%.*]] = load i64, i64* [[B:%.*]], align 8
17 ; CHECK-NEXT:    [[TMP0:%.*]] = insertelement <2 x i64> undef, i64 [[A0]], i32 0
18 ; CHECK-NEXT:    [[TMP1:%.*]] = insertelement <2 x i64> [[TMP0]], i64 [[B0]], i32 1
19 ; CHECK-NEXT:    [[TMP2:%.*]] = sub <2 x i64> [[TMP1]], <i64 1, i64 1>
20 ; CHECK-NEXT:    [[SHUFFLE:%.*]] = shufflevector <2 x i64> [[TMP2]], <2 x i64> undef, <4 x i32> <i32 0, i32 1, i32 1, i32 0>
21 ; CHECK-NEXT:    [[TMP3:%.*]] = extractelement <4 x i64> [[SHUFFLE]], i32 1
22 ; CHECK-NEXT:    [[TMP4:%.*]] = insertelement <2 x i64> undef, i64 [[TMP3]], i32 0
23 ; CHECK-NEXT:    [[TMP5:%.*]] = extractelement <4 x i64> [[SHUFFLE]], i32 0
24 ; CHECK-NEXT:    [[TMP6:%.*]] = insertelement <2 x i64> [[TMP4]], i64 [[TMP5]], i32 1
25 ; CHECK-NEXT:    [[SHUFFLE1:%.*]] = shufflevector <2 x i64> [[TMP6]], <2 x i64> undef, <4 x i32> <i32 0, i32 1, i32 1, i32 0>
26 ; CHECK-NEXT:    [[TMP7:%.*]] = add <4 x i64> [[SHUFFLE]], [[SHUFFLE1]]
27 ; CHECK-NEXT:    [[IDXS0:%.*]] = getelementptr inbounds i64, i64* [[S:%.*]], i64 0
28 ; CHECK-NEXT:    [[IDXS1:%.*]] = getelementptr inbounds i64, i64* [[S]], i64 1
29 ; CHECK-NEXT:    [[IDXS2:%.*]] = getelementptr inbounds i64, i64* [[S]], i64 2
30 ; CHECK-NEXT:    [[IDXS3:%.*]] = getelementptr inbounds i64, i64* [[S]], i64 3
31 ; CHECK-NEXT:    [[TMP8:%.*]] = bitcast i64* [[IDXS0]] to <4 x i64>*
32 ; CHECK-NEXT:    store <4 x i64> [[TMP7]], <4 x i64>* [[TMP8]], align 8
33 ; CHECK-NEXT:    ret void
35 entry:
36   %A0 = load i64, i64 *%A, align 8
37   %B0 = load i64, i64 *%B, align 8
39   %v1 = sub i64 %A0, 1
40   %v2 = sub i64 %B0, 1
42   %Add0 = add i64 %v1, %v2
43   %Add1 = add i64 %v2, %v1
44   %Add2 = add i64 %v2, %v1
45   %Add3 = add i64 %v1, %v2
47   %idxS0 = getelementptr inbounds i64, i64* %S, i64 0
48   %idxS1 = getelementptr inbounds i64, i64* %S, i64 1
49   %idxS2 = getelementptr inbounds i64, i64* %S, i64 2
50   %idxS3 = getelementptr inbounds i64, i64* %S, i64 3
52   store i64 %Add0, i64 *%idxS0, align 8
53   store i64 %Add1, i64 *%idxS1, align 8
54   store i64 %Add2, i64 *%idxS2, align 8
55   store i64 %Add3, i64 *%idxS3, align 8
56   ret void
59 ; S[0] = %v1 + %v2
60 ; S[1] = %v3 + %v1
61 ; S[2] = %v5 + %v1
62 ; S[3] = %v1 + %v4
64 ; TODO: We should broadcast %v1.
66 define void @bcast_vals2(i16 *%A, i16 *%B, i16 *%C, i16 *%D, i16 *%E, i32 *%S) {
67 ; CHECK-LABEL: @bcast_vals2(
68 ; CHECK-NEXT:  entry:
69 ; CHECK-NEXT:    [[A0:%.*]] = load i16, i16* [[A:%.*]], align 8
70 ; CHECK-NEXT:    [[B0:%.*]] = load i16, i16* [[B:%.*]], align 8
71 ; CHECK-NEXT:    [[C0:%.*]] = load i16, i16* [[C:%.*]], align 8
72 ; CHECK-NEXT:    [[D0:%.*]] = load i16, i16* [[D:%.*]], align 8
73 ; CHECK-NEXT:    [[E0:%.*]] = load i16, i16* [[E:%.*]], align 8
74 ; CHECK-NEXT:    [[V1:%.*]] = sext i16 [[A0]] to i32
75 ; CHECK-NEXT:    [[V2:%.*]] = sext i16 [[B0]] to i32
76 ; CHECK-NEXT:    [[V3:%.*]] = sext i16 [[C0]] to i32
77 ; CHECK-NEXT:    [[V4:%.*]] = sext i16 [[D0]] to i32
78 ; CHECK-NEXT:    [[V5:%.*]] = sext i16 [[E0]] to i32
79 ; CHECK-NEXT:    [[TMP0:%.*]] = insertelement <4 x i32> undef, i32 [[V1]], i32 0
80 ; CHECK-NEXT:    [[TMP1:%.*]] = insertelement <4 x i32> [[TMP0]], i32 [[V3]], i32 1
81 ; CHECK-NEXT:    [[TMP2:%.*]] = insertelement <4 x i32> [[TMP1]], i32 [[V5]], i32 2
82 ; CHECK-NEXT:    [[TMP3:%.*]] = insertelement <4 x i32> [[TMP2]], i32 [[V1]], i32 3
83 ; CHECK-NEXT:    [[TMP4:%.*]] = insertelement <4 x i32> undef, i32 [[V2]], i32 0
84 ; CHECK-NEXT:    [[TMP5:%.*]] = insertelement <4 x i32> [[TMP4]], i32 [[V1]], i32 1
85 ; CHECK-NEXT:    [[TMP6:%.*]] = insertelement <4 x i32> [[TMP5]], i32 [[V1]], i32 2
86 ; CHECK-NEXT:    [[TMP7:%.*]] = insertelement <4 x i32> [[TMP6]], i32 [[V4]], i32 3
87 ; CHECK-NEXT:    [[TMP8:%.*]] = add <4 x i32> [[TMP3]], [[TMP7]]
88 ; CHECK-NEXT:    [[IDXS0:%.*]] = getelementptr inbounds i32, i32* [[S:%.*]], i64 0
89 ; CHECK-NEXT:    [[IDXS1:%.*]] = getelementptr inbounds i32, i32* [[S]], i64 1
90 ; CHECK-NEXT:    [[IDXS2:%.*]] = getelementptr inbounds i32, i32* [[S]], i64 2
91 ; CHECK-NEXT:    [[IDXS3:%.*]] = getelementptr inbounds i32, i32* [[S]], i64 3
92 ; CHECK-NEXT:    [[TMP9:%.*]] = bitcast i32* [[IDXS0]] to <4 x i32>*
93 ; CHECK-NEXT:    store <4 x i32> [[TMP8]], <4 x i32>* [[TMP9]], align 8
94 ; CHECK-NEXT:    ret void
96 entry:
97   %A0 = load i16, i16 *%A, align 8
98   %B0 = load i16, i16 *%B, align 8
99   %C0 = load i16, i16 *%C, align 8
100   %D0 = load i16, i16 *%D, align 8
101   %E0 = load i16, i16 *%E, align 8
103   %v1 = sext i16 %A0 to i32
104   %v2 = sext i16 %B0 to i32
105   %v3 = sext i16 %C0 to i32
106   %v4 = sext i16 %D0 to i32
107   %v5 = sext i16 %E0 to i32
109   %Add0 = add i32 %v1, %v2
110   %Add1 = add i32 %v3, %v1
111   %Add2 = add i32 %v5, %v1
112   %Add3 = add i32 %v1, %v4
114   %idxS0 = getelementptr inbounds i32, i32* %S, i64 0
115   %idxS1 = getelementptr inbounds i32, i32* %S, i64 1
116   %idxS2 = getelementptr inbounds i32, i32* %S, i64 2
117   %idxS3 = getelementptr inbounds i32, i32* %S, i64 3
119   store i32 %Add0, i32 *%idxS0, align 8
120   store i32 %Add1, i32 *%idxS1, align 8
121   store i32 %Add2, i32 *%idxS2, align 8
122   store i32 %Add3, i32 *%idxS3, align 8
123   ret void