[InstCombine] Signed saturation patterns
[llvm-core.git] / test / Transforms / SLPVectorizer / X86 / cmp_sel.ll
blob331c8e0646639162df86d60f4fefd8d3ac4ffeed
1 ; NOTE: Assertions have been autogenerated by utils/update_test_checks.py
2 ; RUN: opt < %s -basicaa -slp-vectorizer -dce -S -mtriple=x86_64-apple-macosx10.8.0 -mcpu=corei7-avx | FileCheck %s
4 ; int foo(double * restrict A, double * restrict B, double G) {
5 ;   A[0] = (B[10] ? G : 1);
6 ;   A[1] = (B[11] ? G : 1);
7 ; }
9 define i32 @foo(double* noalias nocapture %A, double* noalias nocapture %B, double %G) {
10 ; CHECK-LABEL: @foo(
11 ; CHECK-NEXT:  entry:
12 ; CHECK-NEXT:    [[ARRAYIDX:%.*]] = getelementptr inbounds double, double* [[B:%.*]], i64 10
13 ; CHECK-NEXT:    [[TMP0:%.*]] = bitcast double* [[ARRAYIDX]] to <2 x double>*
14 ; CHECK-NEXT:    [[TMP1:%.*]] = load <2 x double>, <2 x double>* [[TMP0]], align 8
15 ; CHECK-NEXT:    [[TMP2:%.*]] = fcmp une <2 x double> [[TMP1]], zeroinitializer
16 ; CHECK-NEXT:    [[TMP3:%.*]] = insertelement <2 x double> undef, double [[G:%.*]], i32 0
17 ; CHECK-NEXT:    [[TMP4:%.*]] = insertelement <2 x double> [[TMP3]], double [[G]], i32 1
18 ; CHECK-NEXT:    [[TMP5:%.*]] = select <2 x i1> [[TMP2]], <2 x double> [[TMP4]], <2 x double> <double 1.000000e+00, double 1.000000e+00>
19 ; CHECK-NEXT:    [[TMP6:%.*]] = bitcast double* [[A:%.*]] to <2 x double>*
20 ; CHECK-NEXT:    store <2 x double> [[TMP5]], <2 x double>* [[TMP6]], align 8
21 ; CHECK-NEXT:    ret i32 undef
23 entry:
24   %arrayidx = getelementptr inbounds double, double* %B, i64 10
25   %0 = load double, double* %arrayidx, align 8
26   %tobool = fcmp une double %0, 0.000000e+00
27   %cond = select i1 %tobool, double %G, double 1.000000e+00
28   store double %cond, double* %A, align 8
29   %arrayidx2 = getelementptr inbounds double, double* %B, i64 11
30   %1 = load double, double* %arrayidx2, align 8
31   %tobool3 = fcmp une double %1, 0.000000e+00
32   %cond7 = select i1 %tobool3, double %G, double 1.000000e+00
33   %arrayidx8 = getelementptr inbounds double, double* %A, i64 1
34   store double %cond7, double* %arrayidx8, align 8
35   ret i32 undef