[ARM] Adjust how NEON shifts are lowered
[llvm-core.git] / test / Transforms / SLPVectorizer / X86 / pr19657.ll
blob2bde319c175c6dad46f7369baa9e3afbe6e60a9f
1 ; NOTE: Assertions have been autogenerated by utils/update_test_checks.py
2 ; RUN: opt < %s -basicaa -slp-vectorizer -S -mcpu=corei7-avx | FileCheck %s
3 ; RUN: opt < %s -basicaa -slp-vectorizer -slp-max-reg-size=128 -S -mcpu=corei7-avx | FileCheck %s --check-prefix=V128
5 target datalayout = "e-m:e-i64:64-f80:128-n8:16:32:64-S128"
6 target triple = "x86_64-unknown-linux-gnu"
8 define void @foo(double* %x) {
9 ; CHECK-LABEL: @foo(
10 ; CHECK-NEXT:    [[TMP1:%.*]] = getelementptr inbounds double, double* [[X:%.*]], i64 1
11 ; CHECK-NEXT:    [[TMP2:%.*]] = getelementptr inbounds double, double* [[X]], i64 2
12 ; CHECK-NEXT:    [[TMP3:%.*]] = getelementptr inbounds double, double* [[X]], i64 3
13 ; CHECK-NEXT:    [[TMP4:%.*]] = bitcast double* [[X]] to <4 x double>*
14 ; CHECK-NEXT:    [[TMP5:%.*]] = load <4 x double>, <4 x double>* [[TMP4]], align 8
15 ; CHECK-NEXT:    [[TMP6:%.*]] = fadd <4 x double> [[TMP5]], [[TMP5]]
16 ; CHECK-NEXT:    [[TMP7:%.*]] = fadd <4 x double> [[TMP6]], [[TMP5]]
17 ; CHECK-NEXT:    [[TMP8:%.*]] = bitcast double* [[X]] to <4 x double>*
18 ; CHECK-NEXT:    store <4 x double> [[TMP7]], <4 x double>* [[TMP8]], align 8
19 ; CHECK-NEXT:    ret void
21 ; V128-LABEL: @foo(
22 ; V128-NEXT:    [[TMP1:%.*]] = getelementptr inbounds double, double* [[X:%.*]], i64 1
23 ; V128-NEXT:    [[TMP2:%.*]] = bitcast double* [[X]] to <2 x double>*
24 ; V128-NEXT:    [[TMP3:%.*]] = load <2 x double>, <2 x double>* [[TMP2]], align 8
25 ; V128-NEXT:    [[TMP4:%.*]] = fadd <2 x double> [[TMP3]], [[TMP3]]
26 ; V128-NEXT:    [[TMP5:%.*]] = fadd <2 x double> [[TMP4]], [[TMP3]]
27 ; V128-NEXT:    [[TMP6:%.*]] = bitcast double* [[X]] to <2 x double>*
28 ; V128-NEXT:    store <2 x double> [[TMP5]], <2 x double>* [[TMP6]], align 8
29 ; V128-NEXT:    [[TMP7:%.*]] = getelementptr inbounds double, double* [[X]], i64 2
30 ; V128-NEXT:    [[TMP8:%.*]] = getelementptr inbounds double, double* [[X]], i64 3
31 ; V128-NEXT:    [[TMP9:%.*]] = bitcast double* [[TMP7]] to <2 x double>*
32 ; V128-NEXT:    [[TMP10:%.*]] = load <2 x double>, <2 x double>* [[TMP9]], align 8
33 ; V128-NEXT:    [[TMP11:%.*]] = fadd <2 x double> [[TMP10]], [[TMP10]]
34 ; V128-NEXT:    [[TMP12:%.*]] = fadd <2 x double> [[TMP11]], [[TMP10]]
35 ; V128-NEXT:    [[TMP13:%.*]] = bitcast double* [[TMP7]] to <2 x double>*
36 ; V128-NEXT:    store <2 x double> [[TMP12]], <2 x double>* [[TMP13]], align 8
37 ; V128-NEXT:    ret void
39   %1 = load double, double* %x, align 8
40   %2 = fadd double %1, %1
41   %3 = fadd double %2, %1
42   store double %3, double* %x, align 8
43   %4 = getelementptr inbounds double, double* %x, i64 1
44   %5 = load double, double* %4, align 8
45   %6 = fadd double %5, %5
46   %7 = fadd double %6, %5
47   store double %7, double* %4, align 8
48   %8 = getelementptr inbounds double, double* %x, i64 2
49   %9 = load double, double* %8, align 8
50   %10 = fadd double %9, %9
51   %11 = fadd double %10, %9
52   store double %11, double* %8, align 8
53   %12 = getelementptr inbounds double, double* %x, i64 3
54   %13 = load double, double* %12, align 8
55   %14 = fadd double %13, %13
56   %15 = fadd double %14, %13
57   store double %15, double* %12, align 8
58   ret void