[ARM] Adjust how NEON shifts are lowered
[llvm-core.git] / test / Transforms / SLPVectorizer / ARM / memory.ll
blob70e87033207a4e8ccca53e3746de29411ddcc449
1 ; NOTE: Assertions have been autogenerated by utils/update_test_checks.py
2 ; RUN: opt < %s -basicaa -slp-vectorizer -S -mtriple=thumbv7-apple-ios3.0.0 -mcpu=swift | FileCheck %s
4 target datalayout = "e-p:32:32:32-i1:8:32-i8:8:32-i16:16:32-i32:32:32-i64:32:64-f32:32:32-f64:32:64-v64:32:64-v128:32:128-a0:0:32-n32-S32"
6 ; On swift unaligned <2 x double> stores need 4uops and it is there for cheaper
7 ; to do this scalar.
9 define void @expensive_double_store(double* noalias %dst, double* noalias %src, i64 %count) {
10 ; CHECK-LABEL: @expensive_double_store(
11 ; CHECK-NEXT:  entry:
12 ; CHECK-NEXT:    [[TMP0:%.*]] = load double, double* [[SRC:%.*]], align 8
13 ; CHECK-NEXT:    store double [[TMP0]], double* [[DST:%.*]], align 8
14 ; CHECK-NEXT:    [[ARRAYIDX2:%.*]] = getelementptr inbounds double, double* [[SRC]], i64 1
15 ; CHECK-NEXT:    [[TMP1:%.*]] = load double, double* [[ARRAYIDX2]], align 8
16 ; CHECK-NEXT:    [[ARRAYIDX3:%.*]] = getelementptr inbounds double, double* [[DST]], i64 1
17 ; CHECK-NEXT:    store double [[TMP1]], double* [[ARRAYIDX3]], align 8
18 ; CHECK-NEXT:    ret void
20 entry:
21   %0 = load double, double* %src, align 8
22   store double %0, double* %dst, align 8
23   %arrayidx2 = getelementptr inbounds double, double* %src, i64 1
24   %1 = load double, double* %arrayidx2, align 8
25   %arrayidx3 = getelementptr inbounds double, double* %dst, i64 1
26   store double %1, double* %arrayidx3, align 8
27   ret void