Fixed some bugs.
[llvm/zpu.git] / test / CodeGen / X86 / memcpy.ll
blob7bc31bec163def423d389f304c5ca0bd7eff1cce
1 ; RUN: llc < %s -march=x86-64 | FileCheck %s
3 declare void @llvm.memcpy.p0i8.p0i8.i64(i8* nocapture, i8* nocapture, i64, i32, i1) nounwind
6 ; Variable memcpy's should lower to calls.
7 define i8* @test1(i8* %a, i8* %b, i64 %n) nounwind {
8 entry:
9         tail call void @llvm.memcpy.p0i8.p0i8.i64( i8* %a, i8* %b, i64 %n, i32 1, i1 0 )
10         ret i8* %a
11         
12 ; CHECK: test1:
13 ; CHECK: memcpy
16 ; Variable memcpy's should lower to calls.
17 define i8* @test2(i64* %a, i64* %b, i64 %n) nounwind {
18 entry:
19         %tmp14 = bitcast i64* %a to i8*
20         %tmp25 = bitcast i64* %b to i8*
21         tail call void @llvm.memcpy.p0i8.p0i8.i64(i8* %tmp14, i8* %tmp25, i64 %n, i32 8, i1 0 )
22         ret i8* %tmp14
23         
24 ; CHECK: test2:
25 ; CHECK: memcpy
28 ; Large constant memcpy's should lower to a call when optimizing for size.
29 ; PR6623
30 define void @test3(i8* nocapture %A, i8* nocapture %B) nounwind optsize noredzone {
31 entry:
32   tail call void @llvm.memcpy.p0i8.p0i8.i64(i8* %A, i8* %B, i64 64, i32 1, i1 false)
33   ret void
34 ; CHECK: test3:
35 ; CHECK: memcpy
38 ; Large constant memcpy's should be inlined when not optimizing for size.
39 define void @test4(i8* nocapture %A, i8* nocapture %B) nounwind noredzone {
40 entry:
41   tail call void @llvm.memcpy.p0i8.p0i8.i64(i8* %A, i8* %B, i64 64, i32 1, i1 false)
42   ret void
43 ; CHECK: test4:
44 ; CHECK: movq
45 ; CHECK: movq
46 ; CHECK: movq
47 ; CHECK: movq
48 ; CHECK: movq
49 ; CHECK: movq
50 ; CHECK: movq
51 ; CHECK: movq
52 ; CHECK: movq
53 ; CHECK: movq
54 ; CHECK: movq
55 ; CHECK: movq