[ORC] Add std::tuple support to SimplePackedSerialization.
[llvm-project.git] / llvm / test / Transforms / SLPVectorizer / X86 / pr19657.ll
blob30e6c03f68a4958f3106c55848ef465df2bf15d4
1 ; NOTE: Assertions have been autogenerated by utils/update_test_checks.py
2 ; RUN: opt < %s -basic-aa -slp-vectorizer -S -mcpu=corei7-avx | FileCheck %s --check-prefixes=ANY,AVX
3 ; RUN: opt < %s -basic-aa -slp-vectorizer -slp-max-reg-size=128 -S -mcpu=corei7-avx | FileCheck %s --check-prefixes=ANY,MAX128
5 target datalayout = "e-m:e-i64:64-f80:128-n8:16:32:64-S128"
6 target triple = "x86_64-unknown-linux-gnu"
8 define void @store_chains(double* %x) {
9 ; AVX-LABEL: @store_chains(
10 ; AVX-NEXT:    [[TMP1:%.*]] = getelementptr inbounds double, double* [[X:%.*]], i64 1
11 ; AVX-NEXT:    [[TMP2:%.*]] = getelementptr inbounds double, double* [[X]], i64 2
12 ; AVX-NEXT:    [[TMP3:%.*]] = getelementptr inbounds double, double* [[X]], i64 3
13 ; AVX-NEXT:    [[TMP4:%.*]] = bitcast double* [[X]] to <4 x double>*
14 ; AVX-NEXT:    [[TMP5:%.*]] = load <4 x double>, <4 x double>* [[TMP4]], align 8
15 ; AVX-NEXT:    [[TMP6:%.*]] = fadd <4 x double> [[TMP5]], [[TMP5]]
16 ; AVX-NEXT:    [[TMP7:%.*]] = fadd <4 x double> [[TMP6]], [[TMP5]]
17 ; AVX-NEXT:    [[TMP8:%.*]] = bitcast double* [[X]] to <4 x double>*
18 ; AVX-NEXT:    store <4 x double> [[TMP7]], <4 x double>* [[TMP8]], align 8
19 ; AVX-NEXT:    ret void
21 ; MAX128-LABEL: @store_chains(
22 ; MAX128-NEXT:    [[TMP1:%.*]] = getelementptr inbounds double, double* [[X:%.*]], i64 1
23 ; MAX128-NEXT:    [[TMP2:%.*]] = bitcast double* [[X]] to <2 x double>*
24 ; MAX128-NEXT:    [[TMP3:%.*]] = load <2 x double>, <2 x double>* [[TMP2]], align 8
25 ; MAX128-NEXT:    [[TMP4:%.*]] = fadd <2 x double> [[TMP3]], [[TMP3]]
26 ; MAX128-NEXT:    [[TMP5:%.*]] = fadd <2 x double> [[TMP4]], [[TMP3]]
27 ; MAX128-NEXT:    [[TMP6:%.*]] = bitcast double* [[X]] to <2 x double>*
28 ; MAX128-NEXT:    store <2 x double> [[TMP5]], <2 x double>* [[TMP6]], align 8
29 ; MAX128-NEXT:    [[TMP7:%.*]] = getelementptr inbounds double, double* [[X]], i64 2
30 ; MAX128-NEXT:    [[TMP8:%.*]] = getelementptr inbounds double, double* [[X]], i64 3
31 ; MAX128-NEXT:    [[TMP9:%.*]] = bitcast double* [[TMP7]] to <2 x double>*
32 ; MAX128-NEXT:    [[TMP10:%.*]] = load <2 x double>, <2 x double>* [[TMP9]], align 8
33 ; MAX128-NEXT:    [[TMP11:%.*]] = fadd <2 x double> [[TMP10]], [[TMP10]]
34 ; MAX128-NEXT:    [[TMP12:%.*]] = fadd <2 x double> [[TMP11]], [[TMP10]]
35 ; MAX128-NEXT:    [[TMP13:%.*]] = bitcast double* [[TMP7]] to <2 x double>*
36 ; MAX128-NEXT:    store <2 x double> [[TMP12]], <2 x double>* [[TMP13]], align 8
37 ; MAX128-NEXT:    ret void
39   %1 = load double, double* %x, align 8
40   %2 = fadd double %1, %1
41   %3 = fadd double %2, %1
42   store double %3, double* %x, align 8
43   %4 = getelementptr inbounds double, double* %x, i64 1
44   %5 = load double, double* %4, align 8
45   %6 = fadd double %5, %5
46   %7 = fadd double %6, %5
47   store double %7, double* %4, align 8
48   %8 = getelementptr inbounds double, double* %x, i64 2
49   %9 = load double, double* %8, align 8
50   %10 = fadd double %9, %9
51   %11 = fadd double %10, %9
52   store double %11, double* %8, align 8
53   %12 = getelementptr inbounds double, double* %x, i64 3
54   %13 = load double, double* %12, align 8
55   %14 = fadd double %13, %13
56   %15 = fadd double %14, %13
57   store double %15, double* %12, align 8
58   ret void
61 define void @store_chains_prefer_width_attr(double* %x) #0 {
62 ; ANY-LABEL: @store_chains_prefer_width_attr(
63 ; ANY-NEXT:    [[TMP1:%.*]] = getelementptr inbounds double, double* [[X:%.*]], i64 1
64 ; ANY-NEXT:    [[TMP2:%.*]] = bitcast double* [[X]] to <2 x double>*
65 ; ANY-NEXT:    [[TMP3:%.*]] = load <2 x double>, <2 x double>* [[TMP2]], align 8
66 ; ANY-NEXT:    [[TMP4:%.*]] = fadd <2 x double> [[TMP3]], [[TMP3]]
67 ; ANY-NEXT:    [[TMP5:%.*]] = fadd <2 x double> [[TMP4]], [[TMP3]]
68 ; ANY-NEXT:    [[TMP6:%.*]] = bitcast double* [[X]] to <2 x double>*
69 ; ANY-NEXT:    store <2 x double> [[TMP5]], <2 x double>* [[TMP6]], align 8
70 ; ANY-NEXT:    [[TMP7:%.*]] = getelementptr inbounds double, double* [[X]], i64 2
71 ; ANY-NEXT:    [[TMP8:%.*]] = getelementptr inbounds double, double* [[X]], i64 3
72 ; ANY-NEXT:    [[TMP9:%.*]] = bitcast double* [[TMP7]] to <2 x double>*
73 ; ANY-NEXT:    [[TMP10:%.*]] = load <2 x double>, <2 x double>* [[TMP9]], align 8
74 ; ANY-NEXT:    [[TMP11:%.*]] = fadd <2 x double> [[TMP10]], [[TMP10]]
75 ; ANY-NEXT:    [[TMP12:%.*]] = fadd <2 x double> [[TMP11]], [[TMP10]]
76 ; ANY-NEXT:    [[TMP13:%.*]] = bitcast double* [[TMP7]] to <2 x double>*
77 ; ANY-NEXT:    store <2 x double> [[TMP12]], <2 x double>* [[TMP13]], align 8
78 ; ANY-NEXT:    ret void
80   %1 = load double, double* %x, align 8
81   %2 = fadd double %1, %1
82   %3 = fadd double %2, %1
83   store double %3, double* %x, align 8
84   %4 = getelementptr inbounds double, double* %x, i64 1
85   %5 = load double, double* %4, align 8
86   %6 = fadd double %5, %5
87   %7 = fadd double %6, %5
88   store double %7, double* %4, align 8
89   %8 = getelementptr inbounds double, double* %x, i64 2
90   %9 = load double, double* %8, align 8
91   %10 = fadd double %9, %9
92   %11 = fadd double %10, %9
93   store double %11, double* %8, align 8
94   %12 = getelementptr inbounds double, double* %x, i64 3
95   %13 = load double, double* %12, align 8
96   %14 = fadd double %13, %13
97   %15 = fadd double %14, %13
98   store double %15, double* %12, align 8
99   ret void
102 attributes #0 = { "prefer-vector-width"="128" }