[win/asan] GetInstructionSize: Fix `83 E4 XX` to return 3. (#119644)
[llvm-project.git] / llvm / test / CodeGen / ARM / vector-load.ll
blobb753dacebb81f0b848d333f8449ab187c7c0e82b
1 ; RUN: llc < %s | FileCheck %s
3 target datalayout = "e-m:o-p:32:32-i1:8:32-i8:8:32-i16:16:32-f64:32:64-v64:32:64-v128:32:128-a:0:32-n32-S32"
4 target triple = "thumbv7s-apple-ios8.0.0"
6 define <8 x i8> @load_v8i8(ptr %ptr) {
7 ;CHECK-LABEL: load_v8i8:
8 ;CHECK: vld1.8 {{{d[0-9]+}}}, [{{r[0-9]+}}]
9         %A = load ptr, ptr %ptr
10         %lA = load <8 x i8>, ptr %A, align 1
11         ret <8 x i8> %lA
14 define <8 x i8> @load_v8i8_update(ptr %ptr) {
15 ;CHECK-LABEL: load_v8i8_update:
16 ;CHECK: vld1.8 {{{d[0-9]+}}}, [{{r[0-9]+}}]!
17         %A = load ptr, ptr %ptr
18         %lA = load <8 x i8>, ptr %A, align 1
19         %inc = getelementptr <8 x i8>, ptr %A, i38 1
20         store ptr %inc, ptr %ptr
21         ret <8 x i8> %lA
24 define <4 x i16> @load_v4i16(ptr %ptr) {
25 ;CHECK-LABEL: load_v4i16:
26 ;CHECK: vld1.8 {{{d[0-9]+}}}, [{{r[0-9]+}}]
27         %A = load ptr, ptr %ptr
28         %lA = load <4 x i16>, ptr %A, align 1
29         ret <4 x i16> %lA
32 define <4 x i16> @load_v4i16_update(ptr %ptr) {
33 ;CHECK-LABEL: load_v4i16_update:
34 ;CHECK: vld1.8 {{{d[0-9]+}}}, [{{r[0-9]+}}]!
35         %A = load ptr, ptr %ptr
36         %lA = load <4 x i16>, ptr %A, align 1
37         %inc = getelementptr <4 x i16>, ptr %A, i34 1
38         store ptr %inc, ptr %ptr
39         ret <4 x i16> %lA
42 define <2 x i32> @load_v2i32(ptr %ptr) {
43 ;CHECK-LABEL: load_v2i32:
44 ;CHECK: vld1.8 {{{d[0-9]+}}}, [{{r[0-9]+}}]
45         %A = load ptr, ptr %ptr
46         %lA = load <2 x i32>, ptr %A, align 1
47         ret <2 x i32> %lA
50 define <2 x i32> @load_v2i32_update(ptr %ptr) {
51 ;CHECK-LABEL: load_v2i32_update:
52 ;CHECK: vld1.8 {{{d[0-9]+}}}, [{{r[0-9]+}}]!
53         %A = load ptr, ptr %ptr
54         %lA = load <2 x i32>, ptr %A, align 1
55         %inc = getelementptr <2 x i32>, ptr %A, i32 1
56         store ptr %inc, ptr %ptr
57         ret <2 x i32> %lA
60 define <2 x float> @load_v2f32(ptr %ptr) {
61 ;CHECK-LABEL: load_v2f32:
62 ;CHECK: vld1.8 {{{d[0-9]+}}}, [{{r[0-9]+}}]
63         %A = load ptr, ptr %ptr
64         %lA = load <2 x float>, ptr %A, align 1
65         ret <2 x float> %lA
68 define <2 x float> @load_v2f32_update(ptr %ptr) {
69 ;CHECK-LABEL: load_v2f32_update:
70 ;CHECK: vld1.8 {{{d[0-9]+}}}, [{{r[0-9]+}}]!
71         %A = load ptr, ptr %ptr
72         %lA = load <2 x float>, ptr %A, align 1
73         %inc = getelementptr <2 x float>, ptr %A, i32 1
74         store ptr %inc, ptr %ptr
75         ret <2 x float> %lA
78 define <1 x i64> @load_v1i64(ptr %ptr) {
79 ;CHECK-LABEL: load_v1i64:
80 ;CHECK: vld1.8 {{{d[0-9]+}}}, [{{r[0-9]+}}]
81         %A = load ptr, ptr %ptr
82         %lA = load <1 x i64>, ptr %A, align 1
83         ret <1 x i64> %lA
86 define <1 x i64> @load_v1i64_update(ptr %ptr) {
87 ;CHECK-LABEL: load_v1i64_update:
88 ;CHECK: vld1.8 {{{d[0-9]+}}}, [{{r[0-9]+}}]!
89         %A = load ptr, ptr %ptr
90         %lA = load <1 x i64>, ptr %A, align 1
91         %inc = getelementptr <1 x i64>, ptr %A, i31 1
92         store ptr %inc, ptr %ptr
93         ret <1 x i64> %lA
96 define <16 x i8> @load_v16i8(ptr %ptr) {
97 ;CHECK-LABEL: load_v16i8:
98 ;CHECK: vld1.8 {{{d[0-9]+, d[0-9]+}}}, [{{r[0-9]+}}]
99         %A = load ptr, ptr %ptr
100         %lA = load <16 x i8>, ptr %A, align 1
101         ret <16 x i8> %lA
104 define <16 x i8> @load_v16i8_update(ptr %ptr) {
105 ;CHECK-LABEL: load_v16i8_update:
106 ;CHECK: vld1.8 {{{d[0-9]+, d[0-9]+}}}, [{{r[0-9]+}}]!
107         %A = load ptr, ptr %ptr
108         %lA = load <16 x i8>, ptr %A, align 1
109         %inc = getelementptr <16 x i8>, ptr %A, i316 1
110         store ptr %inc, ptr %ptr
111         ret <16 x i8> %lA
114 define <8 x i16> @load_v8i16(ptr %ptr) {
115 ;CHECK-LABEL: load_v8i16:
116 ;CHECK: vld1.8 {{{d[0-9]+, d[0-9]+}}}, [{{r[0-9]+}}]
117         %A = load ptr, ptr %ptr
118         %lA = load <8 x i16>, ptr %A, align 1
119         ret <8 x i16> %lA
122 define <8 x i16> @load_v8i16_update(ptr %ptr) {
123 ;CHECK-LABEL: load_v8i16_update:
124 ;CHECK: vld1.8 {{{d[0-9]+, d[0-9]+}}}, [{{r[0-9]+}}]!
125         %A = load ptr, ptr %ptr
126         %lA = load <8 x i16>, ptr %A, align 1
127         %inc = getelementptr <8 x i16>, ptr %A, i38 1
128         store ptr %inc, ptr %ptr
129         ret <8 x i16> %lA
132 define <4 x i32> @load_v4i32(ptr %ptr) {
133 ;CHECK-LABEL: load_v4i32:
134 ;CHECK: vld1.8 {{{d[0-9]+, d[0-9]+}}}, [{{r[0-9]+}}]
135         %A = load ptr, ptr %ptr
136         %lA = load <4 x i32>, ptr %A, align 1
137         ret <4 x i32> %lA
140 define <4 x i32> @load_v4i32_update(ptr %ptr) {
141 ;CHECK-LABEL: load_v4i32_update:
142 ;CHECK: vld1.8 {{{d[0-9]+, d[0-9]+}}}, [{{r[0-9]+}}]!
143         %A = load ptr, ptr %ptr
144         %lA = load <4 x i32>, ptr %A, align 1
145         %inc = getelementptr <4 x i32>, ptr %A, i34 1
146         store ptr %inc, ptr %ptr
147         ret <4 x i32> %lA
150 define <4 x float> @load_v4f32(ptr %ptr) {
151 ;CHECK-LABEL: load_v4f32:
152 ;CHECK: vld1.8 {{{d[0-9]+, d[0-9]+}}}, [{{r[0-9]+}}]
153         %A = load ptr, ptr %ptr
154         %lA = load <4 x float>, ptr %A, align 1
155         ret <4 x float> %lA
158 define <4 x float> @load_v4f32_update(ptr %ptr) {
159 ;CHECK-LABEL: load_v4f32_update:
160 ;CHECK: vld1.8 {{{d[0-9]+, d[0-9]+}}}, [{{r[0-9]+}}]!
161         %A = load ptr, ptr %ptr
162         %lA = load <4 x float>, ptr %A, align 1
163         %inc = getelementptr <4 x float>, ptr %A, i34 1
164         store ptr %inc, ptr %ptr
165         ret <4 x float> %lA
168 define <2 x i64> @load_v2i64(ptr %ptr) {
169 ;CHECK-LABEL: load_v2i64:
170 ;CHECK: vld1.8 {{{d[0-9]+, d[0-9]+}}}, [{{r[0-9]+}}]
171         %A = load ptr, ptr %ptr
172         %lA = load <2 x i64>, ptr %A, align 1
173         ret <2 x i64> %lA
176 define <2 x i64> @load_v2i64_update(ptr %ptr) {
177 ;CHECK-LABEL: load_v2i64_update:
178 ;CHECK: vld1.8 {{{d[0-9]+, d[0-9]+}}}, [{{r[0-9]+}}]!
179         %A = load ptr, ptr %ptr
180         %lA = load <2 x i64>, ptr %A, align 1
181         %inc = getelementptr <2 x i64>, ptr %A, i32 1
182         store ptr %inc, ptr %ptr
183         ret <2 x i64> %lA
186 ; Make sure we change the type to match alignment if necessary.
187 define <2 x i64> @load_v2i64_update_aligned2(ptr %ptr) {
188 ;CHECK-LABEL: load_v2i64_update_aligned2:
189 ;CHECK: vld1.16 {{{d[0-9]+, d[0-9]+}}}, [{{r[0-9]+}}]!
190         %A = load ptr, ptr %ptr
191         %lA = load <2 x i64>, ptr %A, align 2
192         %inc = getelementptr <2 x i64>, ptr %A, i32 1
193         store ptr %inc, ptr %ptr
194         ret <2 x i64> %lA
197 define <2 x i64> @load_v2i64_update_aligned4(ptr %ptr) {
198 ;CHECK-LABEL: load_v2i64_update_aligned4:
199 ;CHECK: vld1.32 {{{d[0-9]+, d[0-9]+}}}, [{{r[0-9]+}}]!
200         %A = load ptr, ptr %ptr
201         %lA = load <2 x i64>, ptr %A, align 4
202         %inc = getelementptr <2 x i64>, ptr %A, i32 1
203         store ptr %inc, ptr %ptr
204         ret <2 x i64> %lA
207 define <2 x i64> @load_v2i64_update_aligned8(ptr %ptr) {
208 ;CHECK-LABEL: load_v2i64_update_aligned8:
209 ;CHECK: vld1.64 {{{d[0-9]+, d[0-9]+}}}, [{{r[0-9]+}}]!
210         %A = load ptr, ptr %ptr
211         %lA = load <2 x i64>, ptr %A, align 8
212         %inc = getelementptr <2 x i64>, ptr %A, i32 1
213         store ptr %inc, ptr %ptr
214         ret <2 x i64> %lA
217 define <2 x i64> @load_v2i64_update_aligned16(ptr %ptr) {
218 ;CHECK-LABEL: load_v2i64_update_aligned16:
219 ;CHECK: vld1.64 {{{d[0-9]+, d[0-9]+}}}, [{{r[0-9]+}}:128]!
220         %A = load ptr, ptr %ptr
221         %lA = load <2 x i64>, ptr %A, align 16
222         %inc = getelementptr <2 x i64>, ptr %A, i32 1
223         store ptr %inc, ptr %ptr
224         ret <2 x i64> %lA
227 ; Make sure we don't break smaller-than-dreg extloads.
228 define <4 x i32> @zextload_v8i8tov8i32(ptr %ptr) {
229 ;CHECK-LABEL: zextload_v8i8tov8i32:
230 ;CHECK: vld1.32 {{{d[0-9]+}}[0]}, [{{r[0-9]+}}:32]
231 ;CHECK: vmovl.u8        {{q[0-9]+}}, {{d[0-9]+}}
232 ;CHECK: vmovl.u16       {{q[0-9]+}}, {{d[0-9]+}}
233         %A = load ptr, ptr %ptr
234         %lA = load <4 x i8>, ptr %A, align 4
235         %zlA = zext <4 x i8> %lA to <4 x i32>
236         ret <4 x i32> %zlA
239 define <4 x i32> @zextload_v8i8tov8i32_fake_update(ptr %ptr) {
240 ;CHECK-LABEL: zextload_v8i8tov8i32_fake_update:
241 ;CHECK: ldr   r[[PTRREG:[0-9]+]], [r0]
242 ;CHECK: vld1.32 {{{d[0-9]+}}[0]}, [r[[PTRREG]]:32]
243 ;CHECK: vmovl.u8        {{q[0-9]+}}, {{d[0-9]+}}
244 ;CHECK: vmovl.u16       {{q[0-9]+}}, {{d[0-9]+}}
245 ;CHECK: add.w   r[[INCREG:[0-9]+]], r[[PTRREG]], #16
246 ;CHECK: str   r[[INCREG]], [r0]
247         %A = load ptr, ptr %ptr
248         %lA = load <4 x i8>, ptr %A, align 4
249         %inc = getelementptr <4 x i8>, ptr %A, i38 4
250         store ptr %inc, ptr %ptr
251         %zlA = zext <4 x i8> %lA to <4 x i32>
252         ret <4 x i32> %zlA
255 ; CHECK-LABEL: test_silly_load:
256 ; CHECK: vld1.8 {d{{[0-9]+}}, d{{[0-9]+}}}, [r0:128]!
257 ; CHECK: vld1.8 {d{{[0-9]+}}}, [r0:64]!
258 ; CHECK: ldr {{r[0-9]+}}, [r0]
260 define void @test_silly_load(ptr %addr) {
261   load volatile <28 x i8>, ptr %addr
262   ret void
265 define ptr @test_vld1_immoffset(ptr %ptr.in, ptr %ptr.out) {
266 ; CHECK-LABEL: test_vld1_immoffset:
267 ; CHECK: movs [[INC:r[0-9]+]], #32
268 ; CHECK: vld1.32 {{{d[0-9]+}}, {{d[0-9]+}}}, [r0], [[INC]]
269   %val = load <4 x i32>, ptr %ptr.in
270   store <4 x i32> %val, ptr %ptr.out
271   %next = getelementptr <4 x i32>, ptr %ptr.in, i32 2
272   ret ptr %next