[ARM] Adjust how NEON shifts are lowered
[llvm-core.git] / test / Transforms / SLPVectorizer / X86 / barriercall.ll
blob2ea29ed95c77fba30629d86e07b6f9a25aff0222
1 ; NOTE: Assertions have been autogenerated by utils/update_test_checks.py
2 ; RUN: opt < %s -basicaa -slp-vectorizer -dce -S -mtriple=x86_64-apple-macosx10.8.0 -mcpu=corei7-avx | FileCheck %s
4 target datalayout = "e-p:64:64:64-i1:8:8-i8:8:8-i16:16:16-i32:32:32-i64:64:64-f32:32:32-f64:64:64-v64:64:64-v128:128:128-a0:0:64-s0:64:64-f80:128:128-n8:16:32:64-S128"
5 target triple = "x86_64-apple-macosx10.8.0"
7 define i32 @foo(i32* nocapture %A, i32 %n) {
8 ; CHECK-LABEL: @foo(
9 ; CHECK-NEXT:  entry:
10 ; CHECK-NEXT:    [[CALL:%.*]] = tail call i32 (...) @bar()
11 ; CHECK-NEXT:    [[TMP0:%.*]] = insertelement <4 x i32> undef, i32 [[N:%.*]], i32 0
12 ; CHECK-NEXT:    [[TMP1:%.*]] = insertelement <4 x i32> [[TMP0]], i32 [[N]], i32 1
13 ; CHECK-NEXT:    [[TMP2:%.*]] = insertelement <4 x i32> [[TMP1]], i32 [[N]], i32 2
14 ; CHECK-NEXT:    [[TMP3:%.*]] = insertelement <4 x i32> [[TMP2]], i32 [[N]], i32 3
15 ; CHECK-NEXT:    [[TMP4:%.*]] = mul nsw <4 x i32> [[TMP3]], <i32 5, i32 9, i32 3, i32 10>
16 ; CHECK-NEXT:    [[TMP5:%.*]] = shl <4 x i32> [[TMP3]], <i32 5, i32 9, i32 3, i32 10>
17 ; CHECK-NEXT:    [[TMP6:%.*]] = shufflevector <4 x i32> [[TMP4]], <4 x i32> [[TMP5]], <4 x i32> <i32 0, i32 1, i32 6, i32 3>
18 ; CHECK-NEXT:    [[TMP7:%.*]] = add nsw <4 x i32> [[TMP6]], <i32 9, i32 9, i32 9, i32 9>
19 ; CHECK-NEXT:    [[TMP8:%.*]] = bitcast i32* [[A:%.*]] to <4 x i32>*
20 ; CHECK-NEXT:    store <4 x i32> [[TMP7]], <4 x i32>* [[TMP8]], align 4
21 ; CHECK-NEXT:    ret i32 undef
23 entry:
24   %call = tail call i32 (...) @bar() #2
25   %mul = mul nsw i32 %n, 5
26   %add = add nsw i32 %mul, 9
27   store i32 %add, i32* %A, align 4
28   %mul1 = mul nsw i32 %n, 9
29   %add2 = add nsw i32 %mul1, 9
30   %arrayidx3 = getelementptr inbounds i32, i32* %A, i64 1
31   store i32 %add2, i32* %arrayidx3, align 4
32   %mul4 = shl i32 %n, 3
33   %add5 = add nsw i32 %mul4, 9
34   %arrayidx6 = getelementptr inbounds i32, i32* %A, i64 2
35   store i32 %add5, i32* %arrayidx6, align 4
36   %mul7 = mul nsw i32 %n, 10
37   %add8 = add nsw i32 %mul7, 9
38   %arrayidx9 = getelementptr inbounds i32, i32* %A, i64 3
39   store i32 %add8, i32* %arrayidx9, align 4
40   ret i32 undef
43   ; We can still vectorize the stores below.
45 declare i32 @bar(...)