[NFC][RemoveDIs] Prefer iterators over inst-pointers in InstCombine
[llvm-project.git] / llvm / test / CodeGen / AArch64 / sme-intrinsics-loads.ll
blobc96aca366ed43f2055ea756e64519db706a429c9
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc -mtriple=aarch64-linux-gnu -mattr=+sme -verify-machineinstrs < %s | FileCheck %s
4 define void @ld1b(<vscale x 16 x i1> %pg, ptr %ptr, i32 %sliceidx) {
5 ; CHECK-LABEL: ld1b:
6 ; CHECK:       // %bb.0:
7 ; CHECK-NEXT:    mov w12, w1
8 ; CHECK-NEXT:    mov w13, wzr
9 ; CHECK-NEXT:    ld1b {za0h.b[w12, 15]}, p0/z, [x0]
10 ; CHECK-NEXT:    ld1b {za0v.b[w13, 0]}, p0/z, [x0]
11 ; CHECK-NEXT:    ret
12   %tileslice = add i32 %sliceidx, 15
13   call void @llvm.aarch64.sme.ld1b.horiz(<vscale x 16 x i1> %pg, ptr %ptr, i32 0, i32 %tileslice)
14   call void @llvm.aarch64.sme.ld1b.vert(<vscale x 16 x i1> %pg, ptr %ptr, i32 0, i32 0)
15   ret void;
18 define void @ld1b_with_addr_offset(<vscale x 16 x i1> %pg, ptr %ptr, i64 %index, i32 %sliceidx) {
19 ; CHECK-LABEL: ld1b_with_addr_offset:
20 ; CHECK:       // %bb.0:
21 ; CHECK-NEXT:    mov w13, wzr
22 ; CHECK-NEXT:    mov w12, w2
23 ; CHECK-NEXT:    ld1b {za0h.b[w13, 0]}, p0/z, [x0, x1]
24 ; CHECK-NEXT:    ld1b {za0v.b[w12, 15]}, p0/z, [x0, x1]
25 ; CHECK-NEXT:    ret
26   %base = getelementptr i8, ptr %ptr, i64 %index
27   %tileslice = add i32 %sliceidx, 15
28   call void @llvm.aarch64.sme.ld1b.horiz(<vscale x 16 x i1> %pg, ptr %base, i32 0, i32 0)
29   call void @llvm.aarch64.sme.ld1b.vert(<vscale x 16 x i1> %pg, ptr %base, i32 0, i32 %tileslice)
30   ret void;
33 define void @ld1h(<vscale x 8 x i1> %pg, ptr %ptr, i32 %sliceidx) {
34 ; CHECK-LABEL: ld1h:
35 ; CHECK:       // %bb.0:
36 ; CHECK-NEXT:    mov w12, w1
37 ; CHECK-NEXT:    mov w13, wzr
38 ; CHECK-NEXT:    ld1h {za0h.h[w12, 7]}, p0/z, [x0]
39 ; CHECK-NEXT:    ld1h {za1h.h[w13, 0]}, p0/z, [x0]
40 ; CHECK-NEXT:    ld1h {za0v.h[w13, 0]}, p0/z, [x0]
41 ; CHECK-NEXT:    ld1h {za1v.h[w12, 7]}, p0/z, [x0]
42 ; CHECK-NEXT:    ret
43   %tileslice = add i32 %sliceidx, 7
44   call void @llvm.aarch64.sme.ld1h.horiz(<vscale x 8 x i1> %pg, ptr %ptr, i32 0, i32 %tileslice)
45   call void @llvm.aarch64.sme.ld1h.horiz(<vscale x 8 x i1> %pg, ptr %ptr, i32 1, i32 0)
46   call void @llvm.aarch64.sme.ld1h.vert(<vscale x 8 x i1> %pg, ptr %ptr, i32 0, i32 0)
47   call void @llvm.aarch64.sme.ld1h.vert(<vscale x 8 x i1> %pg, ptr %ptr, i32 1, i32 %tileslice)
48   ret void;
51 define void @ld1h_with_addr_offset(<vscale x 8 x i1> %pg, ptr %ptr, i64 %index, i32 %sliceidx) {
52 ; CHECK-LABEL: ld1h_with_addr_offset:
53 ; CHECK:       // %bb.0:
54 ; CHECK-NEXT:    mov w12, w2
55 ; CHECK-NEXT:    mov w13, wzr
56 ; CHECK-NEXT:    ld1h {za0h.h[w12, 7]}, p0/z, [x0, x1, lsl #1]
57 ; CHECK-NEXT:    ld1h {za1v.h[w13, 0]}, p0/z, [x0, x1, lsl #1]
58 ; CHECK-NEXT:    ret
59   %base = getelementptr i16, ptr %ptr, i64 %index
60   %tileslice = add i32 %sliceidx, 7
61   call void @llvm.aarch64.sme.ld1h.horiz(<vscale x 8 x i1> %pg, ptr %base, i32 0, i32 %tileslice)
62   call void @llvm.aarch64.sme.ld1h.vert(<vscale x 8 x i1> %pg, ptr %base, i32 1, i32 0)
63   ret void;
66 define void @ld1w(<vscale x 4 x i1> %pg, ptr %ptr, i32 %sliceidx) {
67 ; CHECK-LABEL: ld1w:
68 ; CHECK:       // %bb.0:
69 ; CHECK-NEXT:    mov w12, w1
70 ; CHECK-NEXT:    mov w13, wzr
71 ; CHECK-NEXT:    ld1w {za0h.s[w13, 0]}, p0/z, [x0]
72 ; CHECK-NEXT:    ld1w {za1h.s[w13, 0]}, p0/z, [x0]
73 ; CHECK-NEXT:    ld1w {za2h.s[w13, 0]}, p0/z, [x0]
74 ; CHECK-NEXT:    ld1w {za3h.s[w12, 3]}, p0/z, [x0]
75 ; CHECK-NEXT:    ld1w {za0v.s[w13, 0]}, p0/z, [x0]
76 ; CHECK-NEXT:    ld1w {za1v.s[w13, 0]}, p0/z, [x0]
77 ; CHECK-NEXT:    ld1w {za2v.s[w12, 3]}, p0/z, [x0]
78 ; CHECK-NEXT:    ld1w {za3v.s[w13, 0]}, p0/z, [x0]
79 ; CHECK-NEXT:    ret
80   %tileslice = add i32 %sliceidx, 3
81   call void @llvm.aarch64.sme.ld1w.horiz(<vscale x 4 x i1> %pg, ptr %ptr, i32 0, i32 0)
82   call void @llvm.aarch64.sme.ld1w.horiz(<vscale x 4 x i1> %pg, ptr %ptr, i32 1, i32 0)
83   call void @llvm.aarch64.sme.ld1w.horiz(<vscale x 4 x i1> %pg, ptr %ptr, i32 2, i32 0)
84   call void @llvm.aarch64.sme.ld1w.horiz(<vscale x 4 x i1> %pg, ptr %ptr, i32 3, i32 %tileslice)
85   call void @llvm.aarch64.sme.ld1w.vert(<vscale x 4 x i1> %pg, ptr %ptr, i32 0, i32 0)
86   call void @llvm.aarch64.sme.ld1w.vert(<vscale x 4 x i1> %pg, ptr %ptr, i32 1, i32 0)
87   call void @llvm.aarch64.sme.ld1w.vert(<vscale x 4 x i1> %pg, ptr %ptr, i32 2, i32 %tileslice)
88   call void @llvm.aarch64.sme.ld1w.vert(<vscale x 4 x i1> %pg, ptr %ptr, i32 3, i32 0)
89   ret void;
92 define void @ld1w_with_addr_offset(<vscale x 4 x i1> %pg, ptr %ptr, i64 %index, i32 %sliceidx) {
93 ; CHECK-LABEL: ld1w_with_addr_offset:
94 ; CHECK:       // %bb.0:
95 ; CHECK-NEXT:    mov w12, w2
96 ; CHECK-NEXT:    mov w13, wzr
97 ; CHECK-NEXT:    ld1w {za0h.s[w13, 0]}, p0/z, [x0, x1, lsl #2]
98 ; CHECK-NEXT:    ld1w {za3v.s[w12, 3]}, p0/z, [x0, x1, lsl #2]
99 ; CHECK-NEXT:    ret
100   %base = getelementptr i32, ptr %ptr, i64 %index
101   %tileslice = add i32 %sliceidx, 3
102   call void @llvm.aarch64.sme.ld1w.horiz(<vscale x 4 x i1> %pg, ptr %base, i32 0, i32 0)
103   call void @llvm.aarch64.sme.ld1w.vert(<vscale x 4 x i1> %pg, ptr %base, i32 3, i32 %tileslice)
104   ret void;
107 define void @ld1d(<vscale x 2 x i1> %pg, ptr %ptr, i32 %sliceidx) {
108 ; CHECK-LABEL: ld1d:
109 ; CHECK:       // %bb.0:
110 ; CHECK-NEXT:    mov w12, w1
111 ; CHECK-NEXT:    mov w13, wzr
112 ; CHECK-NEXT:    ld1d {za0h.d[w13, 0]}, p0/z, [x0]
113 ; CHECK-NEXT:    ld1d {za1h.d[w13, 0]}, p0/z, [x0]
114 ; CHECK-NEXT:    ld1d {za2h.d[w13, 0]}, p0/z, [x0]
115 ; CHECK-NEXT:    ld1d {za3h.d[w13, 0]}, p0/z, [x0]
116 ; CHECK-NEXT:    ld1d {za4h.d[w12, 1]}, p0/z, [x0]
117 ; CHECK-NEXT:    ld1d {za5h.d[w13, 0]}, p0/z, [x0]
118 ; CHECK-NEXT:    ld1d {za6h.d[w13, 0]}, p0/z, [x0]
119 ; CHECK-NEXT:    ld1d {za7h.d[w13, 0]}, p0/z, [x0]
120 ; CHECK-NEXT:    ld1d {za0v.d[w13, 0]}, p0/z, [x0]
121 ; CHECK-NEXT:    ld1d {za1v.d[w13, 0]}, p0/z, [x0]
122 ; CHECK-NEXT:    ld1d {za2v.d[w13, 0]}, p0/z, [x0]
123 ; CHECK-NEXT:    ld1d {za3v.d[w13, 0]}, p0/z, [x0]
124 ; CHECK-NEXT:    ld1d {za4v.d[w13, 0]}, p0/z, [x0]
125 ; CHECK-NEXT:    ld1d {za5v.d[w13, 0]}, p0/z, [x0]
126 ; CHECK-NEXT:    ld1d {za6v.d[w13, 0]}, p0/z, [x0]
127 ; CHECK-NEXT:    ld1d {za7v.d[w12, 1]}, p0/z, [x0]
128 ; CHECK-NEXT:    ret
129   %tileslice = add i32 %sliceidx, 1
130   call void @llvm.aarch64.sme.ld1d.horiz(<vscale x 2 x i1> %pg, ptr %ptr, i32 0, i32 0)
131   call void @llvm.aarch64.sme.ld1d.horiz(<vscale x 2 x i1> %pg, ptr %ptr, i32 1, i32 0)
132   call void @llvm.aarch64.sme.ld1d.horiz(<vscale x 2 x i1> %pg, ptr %ptr, i32 2, i32 0)
133   call void @llvm.aarch64.sme.ld1d.horiz(<vscale x 2 x i1> %pg, ptr %ptr, i32 3, i32 0)
134   call void @llvm.aarch64.sme.ld1d.horiz(<vscale x 2 x i1> %pg, ptr %ptr, i32 4, i32 %tileslice)
135   call void @llvm.aarch64.sme.ld1d.horiz(<vscale x 2 x i1> %pg, ptr %ptr, i32 5, i32 0)
136   call void @llvm.aarch64.sme.ld1d.horiz(<vscale x 2 x i1> %pg, ptr %ptr, i32 6, i32 0)
137   call void @llvm.aarch64.sme.ld1d.horiz(<vscale x 2 x i1> %pg, ptr %ptr, i32 7, i32 0)
138   call void @llvm.aarch64.sme.ld1d.vert(<vscale x 2 x i1> %pg, ptr %ptr, i32 0, i32 0)
139   call void @llvm.aarch64.sme.ld1d.vert(<vscale x 2 x i1> %pg, ptr %ptr, i32 1, i32 0)
140   call void @llvm.aarch64.sme.ld1d.vert(<vscale x 2 x i1> %pg, ptr %ptr, i32 2, i32 0)
141   call void @llvm.aarch64.sme.ld1d.vert(<vscale x 2 x i1> %pg, ptr %ptr, i32 3, i32 0)
142   call void @llvm.aarch64.sme.ld1d.vert(<vscale x 2 x i1> %pg, ptr %ptr, i32 4, i32 0)
143   call void @llvm.aarch64.sme.ld1d.vert(<vscale x 2 x i1> %pg, ptr %ptr, i32 5, i32 0)
144   call void @llvm.aarch64.sme.ld1d.vert(<vscale x 2 x i1> %pg, ptr %ptr, i32 6, i32 0)
145   call void @llvm.aarch64.sme.ld1d.vert(<vscale x 2 x i1> %pg, ptr %ptr, i32 7, i32 %tileslice)
146   ret void;
149 define void @ld1d_with_addr_offset(<vscale x 2 x i1> %pg, ptr %ptr, i64 %index, i32 %sliceidx) {
150 ; CHECK-LABEL: ld1d_with_addr_offset:
151 ; CHECK:       // %bb.0:
152 ; CHECK-NEXT:    mov w12, w2
153 ; CHECK-NEXT:    mov w13, wzr
154 ; CHECK-NEXT:    ld1d {za0h.d[w12, 1]}, p0/z, [x0, x1, lsl #3]
155 ; CHECK-NEXT:    ld1d {za7v.d[w13, 0]}, p0/z, [x0, x1, lsl #3]
156 ; CHECK-NEXT:    ret
157   %base = getelementptr i64, ptr %ptr, i64 %index
158   %tileslice = add i32 %sliceidx, 1
159   call void @llvm.aarch64.sme.ld1d.horiz(<vscale x 2 x i1> %pg, ptr %base, i32 0, i32 %tileslice)
160   call void @llvm.aarch64.sme.ld1d.vert(<vscale x 2 x i1> %pg, ptr %base, i32 7, i32 0)
161   ret void;
164 define void @ld1q(<vscale x 1 x i1> %pg, ptr %ptr) {
165 ; CHECK-LABEL: ld1q:
166 ; CHECK:       // %bb.0:
167 ; CHECK-NEXT:    mov w12, wzr
168 ; CHECK-NEXT:    ld1q {za0h.q[w12, 0]}, p0/z, [x0]
169 ; CHECK-NEXT:    ld1q {za1h.q[w12, 0]}, p0/z, [x0]
170 ; CHECK-NEXT:    ld1q {za2h.q[w12, 0]}, p0/z, [x0]
171 ; CHECK-NEXT:    ld1q {za3h.q[w12, 0]}, p0/z, [x0]
172 ; CHECK-NEXT:    ld1q {za4h.q[w12, 0]}, p0/z, [x0]
173 ; CHECK-NEXT:    ld1q {za5h.q[w12, 0]}, p0/z, [x0]
174 ; CHECK-NEXT:    ld1q {za6h.q[w12, 0]}, p0/z, [x0]
175 ; CHECK-NEXT:    ld1q {za7h.q[w12, 0]}, p0/z, [x0]
176 ; CHECK-NEXT:    ld1q {za8h.q[w12, 0]}, p0/z, [x0]
177 ; CHECK-NEXT:    ld1q {za9h.q[w12, 0]}, p0/z, [x0]
178 ; CHECK-NEXT:    ld1q {za10h.q[w12, 0]}, p0/z, [x0]
179 ; CHECK-NEXT:    ld1q {za11h.q[w12, 0]}, p0/z, [x0]
180 ; CHECK-NEXT:    ld1q {za12h.q[w12, 0]}, p0/z, [x0]
181 ; CHECK-NEXT:    ld1q {za13h.q[w12, 0]}, p0/z, [x0]
182 ; CHECK-NEXT:    ld1q {za14h.q[w12, 0]}, p0/z, [x0]
183 ; CHECK-NEXT:    ld1q {za15h.q[w12, 0]}, p0/z, [x0]
184 ; CHECK-NEXT:    ld1q {za0v.q[w12, 0]}, p0/z, [x0]
185 ; CHECK-NEXT:    ld1q {za1v.q[w12, 0]}, p0/z, [x0]
186 ; CHECK-NEXT:    ld1q {za2v.q[w12, 0]}, p0/z, [x0]
187 ; CHECK-NEXT:    ld1q {za3v.q[w12, 0]}, p0/z, [x0]
188 ; CHECK-NEXT:    ld1q {za4v.q[w12, 0]}, p0/z, [x0]
189 ; CHECK-NEXT:    ld1q {za5v.q[w12, 0]}, p0/z, [x0]
190 ; CHECK-NEXT:    ld1q {za6v.q[w12, 0]}, p0/z, [x0]
191 ; CHECK-NEXT:    ld1q {za7v.q[w12, 0]}, p0/z, [x0]
192 ; CHECK-NEXT:    ld1q {za8v.q[w12, 0]}, p0/z, [x0]
193 ; CHECK-NEXT:    ld1q {za9v.q[w12, 0]}, p0/z, [x0]
194 ; CHECK-NEXT:    ld1q {za10v.q[w12, 0]}, p0/z, [x0]
195 ; CHECK-NEXT:    ld1q {za11v.q[w12, 0]}, p0/z, [x0]
196 ; CHECK-NEXT:    ld1q {za12v.q[w12, 0]}, p0/z, [x0]
197 ; CHECK-NEXT:    ld1q {za13v.q[w12, 0]}, p0/z, [x0]
198 ; CHECK-NEXT:    ld1q {za14v.q[w12, 0]}, p0/z, [x0]
199 ; CHECK-NEXT:    ld1q {za15v.q[w12, 0]}, p0/z, [x0]
200 ; CHECK-NEXT:    ret
201   call void @llvm.aarch64.sme.ld1q.horiz(<vscale x 1 x i1> %pg, ptr %ptr, i32 0, i32 0)
202   call void @llvm.aarch64.sme.ld1q.horiz(<vscale x 1 x i1> %pg, ptr %ptr, i32 1, i32 0)
203   call void @llvm.aarch64.sme.ld1q.horiz(<vscale x 1 x i1> %pg, ptr %ptr, i32 2, i32 0)
204   call void @llvm.aarch64.sme.ld1q.horiz(<vscale x 1 x i1> %pg, ptr %ptr, i32 3, i32 0)
205   call void @llvm.aarch64.sme.ld1q.horiz(<vscale x 1 x i1> %pg, ptr %ptr, i32 4, i32 0)
206   call void @llvm.aarch64.sme.ld1q.horiz(<vscale x 1 x i1> %pg, ptr %ptr, i32 5, i32 0)
207   call void @llvm.aarch64.sme.ld1q.horiz(<vscale x 1 x i1> %pg, ptr %ptr, i32 6, i32 0)
208   call void @llvm.aarch64.sme.ld1q.horiz(<vscale x 1 x i1> %pg, ptr %ptr, i32 7, i32 0)
209   call void @llvm.aarch64.sme.ld1q.horiz(<vscale x 1 x i1> %pg, ptr %ptr, i32 8, i32 0)
210   call void @llvm.aarch64.sme.ld1q.horiz(<vscale x 1 x i1> %pg, ptr %ptr, i32 9, i32 0)
211   call void @llvm.aarch64.sme.ld1q.horiz(<vscale x 1 x i1> %pg, ptr %ptr, i32 10, i32 0)
212   call void @llvm.aarch64.sme.ld1q.horiz(<vscale x 1 x i1> %pg, ptr %ptr, i32 11, i32 0)
213   call void @llvm.aarch64.sme.ld1q.horiz(<vscale x 1 x i1> %pg, ptr %ptr, i32 12, i32 0)
214   call void @llvm.aarch64.sme.ld1q.horiz(<vscale x 1 x i1> %pg, ptr %ptr, i32 13, i32 0)
215   call void @llvm.aarch64.sme.ld1q.horiz(<vscale x 1 x i1> %pg, ptr %ptr, i32 14, i32 0)
216   call void @llvm.aarch64.sme.ld1q.horiz(<vscale x 1 x i1> %pg, ptr %ptr, i32 15, i32 0)
217   call void @llvm.aarch64.sme.ld1q.vert(<vscale x 1 x i1> %pg, ptr %ptr, i32 0, i32 0)
218   call void @llvm.aarch64.sme.ld1q.vert(<vscale x 1 x i1> %pg, ptr %ptr, i32 1, i32 0)
219   call void @llvm.aarch64.sme.ld1q.vert(<vscale x 1 x i1> %pg, ptr %ptr, i32 2, i32 0)
220   call void @llvm.aarch64.sme.ld1q.vert(<vscale x 1 x i1> %pg, ptr %ptr, i32 3, i32 0)
221   call void @llvm.aarch64.sme.ld1q.vert(<vscale x 1 x i1> %pg, ptr %ptr, i32 4, i32 0)
222   call void @llvm.aarch64.sme.ld1q.vert(<vscale x 1 x i1> %pg, ptr %ptr, i32 5, i32 0)
223   call void @llvm.aarch64.sme.ld1q.vert(<vscale x 1 x i1> %pg, ptr %ptr, i32 6, i32 0)
224   call void @llvm.aarch64.sme.ld1q.vert(<vscale x 1 x i1> %pg, ptr %ptr, i32 7, i32 0)
225   call void @llvm.aarch64.sme.ld1q.vert(<vscale x 1 x i1> %pg, ptr %ptr, i32 8, i32 0)
226   call void @llvm.aarch64.sme.ld1q.vert(<vscale x 1 x i1> %pg, ptr %ptr, i32 9, i32 0)
227   call void @llvm.aarch64.sme.ld1q.vert(<vscale x 1 x i1> %pg, ptr %ptr, i32 10, i32 0)
228   call void @llvm.aarch64.sme.ld1q.vert(<vscale x 1 x i1> %pg, ptr %ptr, i32 11, i32 0)
229   call void @llvm.aarch64.sme.ld1q.vert(<vscale x 1 x i1> %pg, ptr %ptr, i32 12, i32 0)
230   call void @llvm.aarch64.sme.ld1q.vert(<vscale x 1 x i1> %pg, ptr %ptr, i32 13, i32 0)
231   call void @llvm.aarch64.sme.ld1q.vert(<vscale x 1 x i1> %pg, ptr %ptr, i32 14, i32 0)
232   call void @llvm.aarch64.sme.ld1q.vert(<vscale x 1 x i1> %pg, ptr %ptr, i32 15, i32 0)
233   ret void;
236 define void @ld1q_with_addr_offset(<vscale x 1 x i1> %pg, ptr %ptr, i64 %index) {
237 ; CHECK-LABEL: ld1q_with_addr_offset:
238 ; CHECK:       // %bb.0:
239 ; CHECK-NEXT:    mov w12, wzr
240 ; CHECK-NEXT:    ld1q {za0h.q[w12, 0]}, p0/z, [x0, x1, lsl #4]
241 ; CHECK-NEXT:    ld1q {za15v.q[w12, 0]}, p0/z, [x0, x1, lsl #4]
242 ; CHECK-NEXT:    ret
243   %base = getelementptr i128, ptr %ptr, i64 %index
244   call void @llvm.aarch64.sme.ld1q.horiz(<vscale x 1 x i1> %pg, ptr %base, i32 0, i32 0)
245   call void @llvm.aarch64.sme.ld1q.vert(<vscale x 1 x i1> %pg, ptr %base, i32 15, i32 0)
246   ret void;
249 define void @ldr(ptr %ptr) {
250 ; CHECK-LABEL: ldr:
251 ; CHECK:       // %bb.0:
252 ; CHECK-NEXT:    mov w12, wzr
253 ; CHECK-NEXT:    ldr za[w12, 0], [x0]
254 ; CHECK-NEXT:    ret
255   call void @llvm.aarch64.sme.ldr(i32 0, ptr %ptr)
256   ret void;
259 define void @ldr_with_off_15(ptr %ptr) {
260 ; CHECK-LABEL: ldr_with_off_15:
261 ; CHECK:       // %bb.0:
262 ; CHECK-NEXT:    mov w12, #15 // =0xf
263 ; CHECK-NEXT:    add x8, x0, #15
264 ; CHECK-NEXT:    ldr za[w12, 0], [x8]
265 ; CHECK-NEXT:    ret
266   %base = getelementptr i8, ptr %ptr, i64 15
267   call void @llvm.aarch64.sme.ldr(i32 15, ptr %base)
268   ret void;
271 define void @ldr_with_off_15mulvl(ptr %ptr) {
272 ; CHECK-LABEL: ldr_with_off_15mulvl:
273 ; CHECK:       // %bb.0:
274 ; CHECK-NEXT:    mov w12, #15 // =0xf
275 ; CHECK-NEXT:    addvl x8, x0, #15
276 ; CHECK-NEXT:    ldr za[w12, 0], [x8]
277 ; CHECK-NEXT:    ret
278   %vscale = call i64 @llvm.vscale.i64()
279   %mulvl = mul i64 %vscale, 240
280   %base = getelementptr i8, ptr %ptr, i64 %mulvl
281   call void @llvm.aarch64.sme.ldr(i32 15, ptr %base)
282   ret void;
285 define void @ldr_with_off_16mulvl(ptr %ptr) {
286 ; CHECK-LABEL: ldr_with_off_16mulvl:
287 ; CHECK:       // %bb.0:
288 ; CHECK-NEXT:    mov w12, #16 // =0x10
289 ; CHECK-NEXT:    addvl x8, x0, #16
290 ; CHECK-NEXT:    ldr za[w12, 0], [x8]
291 ; CHECK-NEXT:    ret
292   %vscale = call i64 @llvm.vscale.i64()
293   %mulvl = mul i64 %vscale, 256
294   %base = getelementptr i8, ptr %ptr, i64 %mulvl
295   call void @llvm.aarch64.sme.ldr(i32 16, ptr %base)
296   ret void;
299 ; Ensure that the tile offset is sunk, given that this is likely to be an 'add'
300 ; that's decomposed into a base + offset in ISel.
301 define void @test_ld1_sink_tile0_offset_operand(<vscale x 4 x i1> %pg, ptr %src, i32 %base, i32 %N) {
302 ; CHECK-LABEL: test_ld1_sink_tile0_offset_operand:
303 ; CHECK:       // %bb.0: // %entry
304 ; CHECK-NEXT:    mov w12, w1
305 ; CHECK-NEXT:  .LBB14_1: // %for.body
306 ; CHECK-NEXT:    // =>This Inner Loop Header: Depth=1
307 ; CHECK-NEXT:    ld1w {za0h.s[w12, 0]}, p0/z, [x0]
308 ; CHECK-NEXT:    subs w2, w2, #1
309 ; CHECK-NEXT:    ld1w {za0h.s[w12, 1]}, p0/z, [x0]
310 ; CHECK-NEXT:    ld1w {za0h.s[w12, 2]}, p0/z, [x0]
311 ; CHECK-NEXT:    b.ne .LBB14_1
312 ; CHECK-NEXT:  // %bb.2: // %exit
313 ; CHECK-NEXT:    ret
314 entry:
315   %add1 = add i32 %base, 1
316   %add2 = add i32 %base, 2
317   br label %for.body
319 for.body:
320   %i = phi i32 [ 0, %entry ], [ %inc, %for.body ]
321   call void @llvm.aarch64.sme.ld1w.horiz(<vscale x 4 x i1> %pg, ptr %src, i32 0, i32 %base)
322   call void @llvm.aarch64.sme.ld1w.horiz(<vscale x 4 x i1> %pg, ptr %src, i32 0, i32 %add1)
323   call void @llvm.aarch64.sme.ld1w.horiz(<vscale x 4 x i1> %pg, ptr %src, i32 0, i32 %add2)
324   %inc = add nuw nsw i32 %i, 1
325   %exitcond.not = icmp eq i32 %inc, %N
326   br i1 %exitcond.not, label %exit, label %for.body
328 exit:
329   ret void
333 declare void @llvm.aarch64.sme.ld1b.horiz(<vscale x 16 x i1>, ptr, i32, i32)
334 declare void @llvm.aarch64.sme.ld1h.horiz(<vscale x 8 x i1>, ptr, i32, i32)
335 declare void @llvm.aarch64.sme.ld1w.horiz(<vscale x 4 x i1>, ptr, i32, i32)
336 declare void @llvm.aarch64.sme.ld1d.horiz(<vscale x 2 x i1>, ptr, i32, i32)
337 declare void @llvm.aarch64.sme.ld1q.horiz(<vscale x 1 x i1>, ptr, i32, i32)
338 declare void @llvm.aarch64.sme.ld1b.vert(<vscale x 16 x i1>, ptr, i32, i32)
339 declare void @llvm.aarch64.sme.ld1h.vert(<vscale x 8 x i1>, ptr, i32, i32)
340 declare void @llvm.aarch64.sme.ld1w.vert(<vscale x 4 x i1>, ptr, i32, i32)
341 declare void @llvm.aarch64.sme.ld1d.vert(<vscale x 2 x i1>, ptr, i32, i32)
342 declare void @llvm.aarch64.sme.ld1q.vert(<vscale x 1 x i1>, ptr, i32, i32)
344 declare void @llvm.aarch64.sme.ldr(i32, ptr)
345 declare i64 @llvm.vscale.i64()