[llvm-objdump] - Remove one overload of reportError. NFCI.
[llvm-complete.git] / test / CodeGen / AArch64 / GlobalISel / inline-memcpy.mir
blob8ac50f7f0e777ff8cf226f58be3c04dcf081d492
1 # NOTE: Assertions have been autogenerated by utils/update_mir_test_checks.py
2 # RUN: llc -march=aarch64 -run-pass=aarch64-prelegalizer-combiner -verify-machineinstrs %s -o - | FileCheck %s
3 --- |
4   target datalayout = "e-m:o-i64:64-i128:128-n32:64-S128"
5   target triple = "arm64-apple-darwin"
7   define void @test_memcpy1(i32* nocapture %dst, i32* nocapture readonly %src, i64 %len) local_unnamed_addr #0 {
8   entry:
9     %0 = bitcast i32* %dst to i8*
10     %1 = bitcast i32* %src to i8*
11     tail call void @llvm.memcpy.p0i8.p0i8.i64(i8* align 4 %0, i8* align 4 %1, i64 %len, i1 false)
12     ret void
13   }
15   declare void @llvm.memcpy.p0i8.p0i8.i64(i8* nocapture writeonly, i8* nocapture readonly, i64, i1 immarg) #1
17   define void @test_memcpy2_const(i32* nocapture %dst, i32* nocapture readonly %src) local_unnamed_addr #0 {
18   entry:
19     %0 = bitcast i32* %dst to i8*
20     %1 = bitcast i32* %src to i8*
21     tail call void @llvm.memcpy.p0i8.p0i8.i64(i8* align 4 %0, i8* align 4 %1, i64 72, i1 false)
22     ret void
23   }
25   define void @test_memcpy3_const_arrays_unaligned(i32* nocapture %dst, i32* nocapture readonly %src) local_unnamed_addr #0 {
26   entry:
27     %0 = bitcast i32* %dst to i8*
28     %1 = bitcast i32* %src to i8*
29     tail call void @llvm.memcpy.p0i8.p0i8.i64(i8* align 4 %0, i8* align 4 %1, i64 143, i1 false)
30     ret void
31   }
33   attributes #0 = { nounwind ssp uwtable "correctly-rounded-divide-sqrt-fp-math"="false" "disable-tail-calls"="false" "less-precise-fpmad"="false" "min-legal-vector-width"="0" "no-frame-pointer-elim"="true" "no-frame-pointer-elim-non-leaf" "no-infs-fp-math"="false" "no-jump-tables"="false" "no-nans-fp-math"="false" "no-signed-zeros-fp-math"="false" "no-trapping-math"="false" "stack-protector-buffer-size"="8" "target-cpu"="cyclone" "target-features"="+aes,+crypto,+fp-armv8,+neon,+sha2,+zcm,+zcz" "unsafe-fp-math"="false" "use-soft-float"="false" }
34   attributes #1 = { argmemonly nounwind }
36 ...
37 ---
38 name:            test_memcpy1
39 alignment:       2
40 tracksRegLiveness: true
41 registers:
42   - { id: 0, class: _ }
43   - { id: 1, class: _ }
44   - { id: 2, class: _ }
45 machineFunctionInfo: {}
46 body:             |
47   bb.1.entry:
48     liveins: $x0, $x1, $x2
50     ; CHECK-LABEL: name: test_memcpy1
51     ; CHECK: liveins: $x0, $x1, $x2
52     ; CHECK: [[COPY:%[0-9]+]]:_(p0) = COPY $x0
53     ; CHECK: [[COPY1:%[0-9]+]]:_(p0) = COPY $x1
54     ; CHECK: [[COPY2:%[0-9]+]]:_(s64) = COPY $x2
55     ; CHECK: G_INTRINSIC_W_SIDE_EFFECTS intrinsic(@llvm.memcpy), [[COPY]](p0), [[COPY1]](p0), [[COPY2]](s64) :: (store 1 into %ir.0, align 4), (load 1 from %ir.1, align 4)
56     ; CHECK: RET_ReallyLR
57     %0:_(p0) = COPY $x0
58     %1:_(p0) = COPY $x1
59     %2:_(s64) = COPY $x2
60     G_INTRINSIC_W_SIDE_EFFECTS intrinsic(@llvm.memcpy), %0(p0), %1(p0), %2(s64) :: (store 1 into %ir.0, align 4), (load 1 from %ir.1, align 4)
61     RET_ReallyLR
63 ...
64 ---
65 name:            test_memcpy2_const
66 alignment:       2
67 tracksRegLiveness: true
68 registers:
69   - { id: 0, class: _ }
70   - { id: 1, class: _ }
71   - { id: 2, class: _ }
72 machineFunctionInfo: {}
73 body:             |
74   bb.1.entry:
75     liveins: $x0, $x1
77     ; CHECK-LABEL: name: test_memcpy2_const
78     ; CHECK: liveins: $x0, $x1
79     ; CHECK: [[COPY:%[0-9]+]]:_(p0) = COPY $x0
80     ; CHECK: [[COPY1:%[0-9]+]]:_(p0) = COPY $x1
81     ; CHECK: [[LOAD:%[0-9]+]]:_(s128) = G_LOAD [[COPY1]](p0) :: (load 16 from %ir.1, align 4)
82     ; CHECK: G_STORE [[LOAD]](s128), [[COPY]](p0) :: (store 16 into %ir.0, align 4)
83     ; CHECK: [[C:%[0-9]+]]:_(s64) = G_CONSTANT i64 16
84     ; CHECK: [[GEP:%[0-9]+]]:_(p0) = G_GEP [[COPY1]], [[C]](s64)
85     ; CHECK: [[LOAD1:%[0-9]+]]:_(s128) = G_LOAD [[GEP]](p0) :: (load 16 from %ir.1 + 16, align 4)
86     ; CHECK: [[GEP1:%[0-9]+]]:_(p0) = G_GEP [[COPY]], [[C]](s64)
87     ; CHECK: G_STORE [[LOAD1]](s128), [[GEP1]](p0) :: (store 16 into %ir.0 + 16, align 4)
88     ; CHECK: [[C1:%[0-9]+]]:_(s64) = G_CONSTANT i64 32
89     ; CHECK: [[GEP2:%[0-9]+]]:_(p0) = G_GEP [[COPY1]], [[C1]](s64)
90     ; CHECK: [[LOAD2:%[0-9]+]]:_(s128) = G_LOAD [[GEP2]](p0) :: (load 16 from %ir.1 + 32, align 4)
91     ; CHECK: [[GEP3:%[0-9]+]]:_(p0) = G_GEP [[COPY]], [[C1]](s64)
92     ; CHECK: G_STORE [[LOAD2]](s128), [[GEP3]](p0) :: (store 16 into %ir.0 + 32, align 4)
93     ; CHECK: [[C2:%[0-9]+]]:_(s64) = G_CONSTANT i64 48
94     ; CHECK: [[GEP4:%[0-9]+]]:_(p0) = G_GEP [[COPY1]], [[C2]](s64)
95     ; CHECK: [[LOAD3:%[0-9]+]]:_(s128) = G_LOAD [[GEP4]](p0) :: (load 16 from %ir.1 + 48, align 4)
96     ; CHECK: [[GEP5:%[0-9]+]]:_(p0) = G_GEP [[COPY]], [[C2]](s64)
97     ; CHECK: G_STORE [[LOAD3]](s128), [[GEP5]](p0) :: (store 16 into %ir.0 + 48, align 4)
98     ; CHECK: [[C3:%[0-9]+]]:_(s64) = G_CONSTANT i64 64
99     ; CHECK: [[GEP6:%[0-9]+]]:_(p0) = G_GEP [[COPY1]], [[C3]](s64)
100     ; CHECK: [[LOAD4:%[0-9]+]]:_(s64) = G_LOAD [[GEP6]](p0) :: (load 8 from %ir.1 + 64, align 4)
101     ; CHECK: [[GEP7:%[0-9]+]]:_(p0) = G_GEP [[COPY]], [[C3]](s64)
102     ; CHECK: G_STORE [[LOAD4]](s64), [[GEP7]](p0) :: (store 8 into %ir.0 + 64, align 4)
103     ; CHECK: RET_ReallyLR
104     %0:_(p0) = COPY $x0
105     %1:_(p0) = COPY $x1
106     %2:_(s64) = G_CONSTANT i64 72
107     G_INTRINSIC_W_SIDE_EFFECTS intrinsic(@llvm.memcpy), %0(p0), %1(p0), %2(s64) :: (store 1 into %ir.0, align 4), (load 1 from %ir.1, align 4)
108     RET_ReallyLR
112 name:            test_memcpy3_const_arrays_unaligned
113 alignment:       2
114 tracksRegLiveness: true
115 registers:
116   - { id: 0, class: _ }
117   - { id: 1, class: _ }
118   - { id: 2, class: _ }
119 machineFunctionInfo: {}
120 body:             |
121   bb.1.entry:
122     liveins: $x0, $x1
124     ; CHECK-LABEL: name: test_memcpy3_const_arrays_unaligned
125     ; CHECK: liveins: $x0, $x1
126     ; CHECK: [[COPY:%[0-9]+]]:_(p0) = COPY $x0
127     ; CHECK: [[COPY1:%[0-9]+]]:_(p0) = COPY $x1
128     ; CHECK: [[LOAD:%[0-9]+]]:_(s128) = G_LOAD [[COPY1]](p0) :: (load 16 from %ir.1, align 4)
129     ; CHECK: G_STORE [[LOAD]](s128), [[COPY]](p0) :: (store 16 into %ir.0, align 4)
130     ; CHECK: [[C:%[0-9]+]]:_(s64) = G_CONSTANT i64 16
131     ; CHECK: [[GEP:%[0-9]+]]:_(p0) = G_GEP [[COPY1]], [[C]](s64)
132     ; CHECK: [[LOAD1:%[0-9]+]]:_(s128) = G_LOAD [[GEP]](p0) :: (load 16 from %ir.1 + 16, align 4)
133     ; CHECK: [[GEP1:%[0-9]+]]:_(p0) = G_GEP [[COPY]], [[C]](s64)
134     ; CHECK: G_STORE [[LOAD1]](s128), [[GEP1]](p0) :: (store 16 into %ir.0 + 16, align 4)
135     ; CHECK: [[C1:%[0-9]+]]:_(s64) = G_CONSTANT i64 32
136     ; CHECK: [[GEP2:%[0-9]+]]:_(p0) = G_GEP [[COPY1]], [[C1]](s64)
137     ; CHECK: [[LOAD2:%[0-9]+]]:_(s128) = G_LOAD [[GEP2]](p0) :: (load 16 from %ir.1 + 32, align 4)
138     ; CHECK: [[GEP3:%[0-9]+]]:_(p0) = G_GEP [[COPY]], [[C1]](s64)
139     ; CHECK: G_STORE [[LOAD2]](s128), [[GEP3]](p0) :: (store 16 into %ir.0 + 32, align 4)
140     ; CHECK: [[C2:%[0-9]+]]:_(s64) = G_CONSTANT i64 48
141     ; CHECK: [[GEP4:%[0-9]+]]:_(p0) = G_GEP [[COPY1]], [[C2]](s64)
142     ; CHECK: [[LOAD3:%[0-9]+]]:_(s128) = G_LOAD [[GEP4]](p0) :: (load 16 from %ir.1 + 48, align 4)
143     ; CHECK: [[GEP5:%[0-9]+]]:_(p0) = G_GEP [[COPY]], [[C2]](s64)
144     ; CHECK: G_STORE [[LOAD3]](s128), [[GEP5]](p0) :: (store 16 into %ir.0 + 48, align 4)
145     ; CHECK: [[C3:%[0-9]+]]:_(s64) = G_CONSTANT i64 64
146     ; CHECK: [[GEP6:%[0-9]+]]:_(p0) = G_GEP [[COPY1]], [[C3]](s64)
147     ; CHECK: [[LOAD4:%[0-9]+]]:_(s128) = G_LOAD [[GEP6]](p0) :: (load 16 from %ir.1 + 64, align 4)
148     ; CHECK: [[GEP7:%[0-9]+]]:_(p0) = G_GEP [[COPY]], [[C3]](s64)
149     ; CHECK: G_STORE [[LOAD4]](s128), [[GEP7]](p0) :: (store 16 into %ir.0 + 64, align 4)
150     ; CHECK: [[C4:%[0-9]+]]:_(s64) = G_CONSTANT i64 80
151     ; CHECK: [[GEP8:%[0-9]+]]:_(p0) = G_GEP [[COPY1]], [[C4]](s64)
152     ; CHECK: [[LOAD5:%[0-9]+]]:_(s128) = G_LOAD [[GEP8]](p0) :: (load 16 from %ir.1 + 80, align 4)
153     ; CHECK: [[GEP9:%[0-9]+]]:_(p0) = G_GEP [[COPY]], [[C4]](s64)
154     ; CHECK: G_STORE [[LOAD5]](s128), [[GEP9]](p0) :: (store 16 into %ir.0 + 80, align 4)
155     ; CHECK: [[C5:%[0-9]+]]:_(s64) = G_CONSTANT i64 96
156     ; CHECK: [[GEP10:%[0-9]+]]:_(p0) = G_GEP [[COPY1]], [[C5]](s64)
157     ; CHECK: [[LOAD6:%[0-9]+]]:_(s128) = G_LOAD [[GEP10]](p0) :: (load 16 from %ir.1 + 96, align 4)
158     ; CHECK: [[GEP11:%[0-9]+]]:_(p0) = G_GEP [[COPY]], [[C5]](s64)
159     ; CHECK: G_STORE [[LOAD6]](s128), [[GEP11]](p0) :: (store 16 into %ir.0 + 96, align 4)
160     ; CHECK: [[C6:%[0-9]+]]:_(s64) = G_CONSTANT i64 112
161     ; CHECK: [[GEP12:%[0-9]+]]:_(p0) = G_GEP [[COPY1]], [[C6]](s64)
162     ; CHECK: [[LOAD7:%[0-9]+]]:_(s128) = G_LOAD [[GEP12]](p0) :: (load 16 from %ir.1 + 112, align 4)
163     ; CHECK: [[GEP13:%[0-9]+]]:_(p0) = G_GEP [[COPY]], [[C6]](s64)
164     ; CHECK: G_STORE [[LOAD7]](s128), [[GEP13]](p0) :: (store 16 into %ir.0 + 112, align 4)
165     ; CHECK: [[C7:%[0-9]+]]:_(s64) = G_CONSTANT i64 127
166     ; CHECK: [[GEP14:%[0-9]+]]:_(p0) = G_GEP [[COPY1]], [[C7]](s64)
167     ; CHECK: [[LOAD8:%[0-9]+]]:_(s128) = G_LOAD [[GEP14]](p0) :: (load 16 from %ir.1 + 127, align 4)
168     ; CHECK: [[GEP15:%[0-9]+]]:_(p0) = G_GEP [[COPY]], [[C7]](s64)
169     ; CHECK: G_STORE [[LOAD8]](s128), [[GEP15]](p0) :: (store 16 into %ir.0 + 127, align 4)
170     ; CHECK: RET_ReallyLR
171     %0:_(p0) = COPY $x0
172     %1:_(p0) = COPY $x1
173     %2:_(s64) = G_CONSTANT i64 143
174     G_INTRINSIC_W_SIDE_EFFECTS intrinsic(@llvm.memcpy), %0(p0), %1(p0), %2(s64) :: (store 1 into %ir.0, align 4), (load 1 from %ir.1, align 4)
175     RET_ReallyLR