[InstCombine] Signed saturation patterns
[llvm-complete.git] / test / CodeGen / X86 / fastisel-gep-promote-before-add.ll
blob1f67299a8045d49cea2d2f4ec432941d7177bd73
1 ; fastisel should not fold add with non-pointer bitwidth
2 ; sext(a) + sext(b) != sext(a + b)
3 ; RUN: llc -mtriple=x86_64-apple-darwin %s -O0 -o - | FileCheck %s
5 define zeroext i8 @gep_promotion(i8* %ptr) nounwind uwtable ssp {
6 entry:
7   %ptr.addr = alloca i8*, align 8
8   %add = add i8 64, 64 ; 0x40 + 0x40
9   %0 = load i8*, i8** %ptr.addr, align 8
11   ; CHECK-LABEL: _gep_promotion:
12   ; CHECK: movzbl ({{.*}})
13   %arrayidx = getelementptr inbounds i8, i8* %0, i8 %add
15   %1 = load i8, i8* %arrayidx, align 1
16   ret i8 %1
19 define zeroext i8 @gep_promotion_nonconst(i8 %i, i8* %ptr) nounwind uwtable ssp {
20 entry:
21   %i.addr = alloca i8, align 4
22   %ptr.addr = alloca i8*, align 8
23   store i8 %i, i8* %i.addr, align 4
24   store i8* %ptr, i8** %ptr.addr, align 8
25   %0 = load i8, i8* %i.addr, align 4
26   ; CHECK-LABEL: _gep_promotion_nonconst:
27   ; CHECK: movzbl ({{.*}})
28   %xor = xor i8 %0, -128   ; %0   ^ 0x80
29   %add = add i8 %xor, -127 ; %xor + 0x81
30   %1 = load i8*, i8** %ptr.addr, align 8
32   %arrayidx = getelementptr inbounds i8, i8* %1, i8 %add
34   %2 = load i8, i8* %arrayidx, align 1
35   ret i8 %2