revert a hunk of r82018 that wasn't supposed to go in yet.
[llvm/avr.git] / test / CodeGen / X86 / widen_cast-4.ll
blob614eeedbe79d3b1f44ca4e5308b4739b7741a21e
1 ; RUN: llc < %s -march=x86 -mattr=+sse42 -disable-mmx -o %t
2 ; RUN: grep sarb  %t | count 8
4 ; v8i8 that is widen to v16i8 then split
5 ; FIXME: This is widen to v16i8 and split to 16 and we then rebuild the vector.
6 ; Unfortunately, we don't split the store so we don't get the code we want.
8 define void @update(i64* %dst_i, i64* %src_i, i32 %n) nounwind {
9 entry:
10         %dst_i.addr = alloca i64*               ; <i64**> [#uses=2]
11         %src_i.addr = alloca i64*               ; <i64**> [#uses=2]
12         %n.addr = alloca i32            ; <i32*> [#uses=2]
13         %i = alloca i32, align 4                ; <i32*> [#uses=8]
14         %dst = alloca <8 x i8>*, align 4                ; <<8 x i8>**> [#uses=2]
15         %src = alloca <8 x i8>*, align 4                ; <<8 x i8>**> [#uses=2]
16         store i64* %dst_i, i64** %dst_i.addr
17         store i64* %src_i, i64** %src_i.addr
18         store i32 %n, i32* %n.addr
19         store i32 0, i32* %i
20         br label %forcond
22 forcond:                ; preds = %forinc, %entry
23         %tmp = load i32* %i             ; <i32> [#uses=1]
24         %tmp1 = load i32* %n.addr               ; <i32> [#uses=1]
25         %cmp = icmp slt i32 %tmp, %tmp1         ; <i1> [#uses=1]
26         br i1 %cmp, label %forbody, label %afterfor
28 forbody:                ; preds = %forcond
29         %tmp2 = load i32* %i            ; <i32> [#uses=1]
30         %tmp3 = load i64** %dst_i.addr          ; <i64*> [#uses=1]
31         %arrayidx = getelementptr i64* %tmp3, i32 %tmp2         ; <i64*> [#uses=1]
32         %conv = bitcast i64* %arrayidx to <8 x i8>*             ; <<8 x i8>*> [#uses=1]
33         store <8 x i8>* %conv, <8 x i8>** %dst
34         %tmp4 = load i32* %i            ; <i32> [#uses=1]
35         %tmp5 = load i64** %src_i.addr          ; <i64*> [#uses=1]
36         %arrayidx6 = getelementptr i64* %tmp5, i32 %tmp4                ; <i64*> [#uses=1]
37         %conv7 = bitcast i64* %arrayidx6 to <8 x i8>*           ; <<8 x i8>*> [#uses=1]
38         store <8 x i8>* %conv7, <8 x i8>** %src
39         %tmp8 = load i32* %i            ; <i32> [#uses=1]
40         %tmp9 = load <8 x i8>** %dst            ; <<8 x i8>*> [#uses=1]
41         %arrayidx10 = getelementptr <8 x i8>* %tmp9, i32 %tmp8          ; <<8 x i8>*> [#uses=1]
42         %tmp11 = load i32* %i           ; <i32> [#uses=1]
43         %tmp12 = load <8 x i8>** %src           ; <<8 x i8>*> [#uses=1]
44         %arrayidx13 = getelementptr <8 x i8>* %tmp12, i32 %tmp11                ; <<8 x i8>*> [#uses=1]
45         %tmp14 = load <8 x i8>* %arrayidx13             ; <<8 x i8>> [#uses=1]
46         %add = add <8 x i8> %tmp14, < i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1, i8 1 >          ; <<8 x i8>> [#uses=1]
47         %shr = ashr <8 x i8> %add, < i8 2, i8 2, i8 2, i8 2, i8 2, i8 2, i8 2, i8 2 >           ; <<8 x i8>> [#uses=1]
48         store <8 x i8> %shr, <8 x i8>* %arrayidx10
49         br label %forinc
51 forinc:         ; preds = %forbody
52         %tmp15 = load i32* %i           ; <i32> [#uses=1]
53         %inc = add i32 %tmp15, 1                ; <i32> [#uses=1]
54         store i32 %inc, i32* %i
55         br label %forcond
57 afterfor:               ; preds = %forcond
58         ret void