Bump version to 19.1.0-rc3
[llvm-project.git] / llvm / test / CodeGen / RISCV / rvv / extractelt-int-rv64.ll
bloba96cf5807e6c16801d775c16088b904b7f1e6579
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc -mtriple=riscv64 -mattr=+d,+zfh,+zvfh,+v -target-abi=lp64d \
3 ; RUN:     -verify-machineinstrs < %s | FileCheck %s -check-prefixes=CHECK,RV64NOM
4 ; RUN: llc -mtriple=riscv64 -mattr=+d,+zfh,+zvfh,+v,+m -target-abi=lp64d \
5 ; RUN:     -verify-machineinstrs < %s | FileCheck %s -check-prefixes=CHECK,RV64M
7 define signext i8 @extractelt_nxv1i8_0(<vscale x 1 x i8> %v) {
8 ; CHECK-LABEL: extractelt_nxv1i8_0:
9 ; CHECK:       # %bb.0:
10 ; CHECK-NEXT:    vsetivli zero, 1, e8, m1, ta, ma
11 ; CHECK-NEXT:    vmv.x.s a0, v8
12 ; CHECK-NEXT:    ret
13   %r = extractelement <vscale x 1 x i8> %v, i32 0
14   ret i8 %r
17 define signext i8 @extractelt_nxv1i8_imm(<vscale x 1 x i8> %v) {
18 ; CHECK-LABEL: extractelt_nxv1i8_imm:
19 ; CHECK:       # %bb.0:
20 ; CHECK-NEXT:    vsetivli zero, 1, e8, mf8, ta, ma
21 ; CHECK-NEXT:    vslidedown.vi v8, v8, 2
22 ; CHECK-NEXT:    vmv.x.s a0, v8
23 ; CHECK-NEXT:    ret
24   %r = extractelement <vscale x 1 x i8> %v, i32 2
25   ret i8 %r
28 define signext i8 @extractelt_nxv1i8_idx(<vscale x 1 x i8> %v, i32 zeroext %idx) {
29 ; CHECK-LABEL: extractelt_nxv1i8_idx:
30 ; CHECK:       # %bb.0:
31 ; CHECK-NEXT:    vsetivli zero, 1, e8, mf8, ta, ma
32 ; CHECK-NEXT:    vslidedown.vx v8, v8, a0
33 ; CHECK-NEXT:    vmv.x.s a0, v8
34 ; CHECK-NEXT:    ret
35   %r = extractelement <vscale x 1 x i8> %v, i32 %idx
36   ret i8 %r
39 define signext i8 @extractelt_nxv2i8_0(<vscale x 2 x i8> %v) {
40 ; CHECK-LABEL: extractelt_nxv2i8_0:
41 ; CHECK:       # %bb.0:
42 ; CHECK-NEXT:    vsetivli zero, 1, e8, m1, ta, ma
43 ; CHECK-NEXT:    vmv.x.s a0, v8
44 ; CHECK-NEXT:    ret
45   %r = extractelement <vscale x 2 x i8> %v, i32 0
46   ret i8 %r
49 define signext i8 @extractelt_nxv2i8_imm(<vscale x 2 x i8> %v) {
50 ; CHECK-LABEL: extractelt_nxv2i8_imm:
51 ; CHECK:       # %bb.0:
52 ; CHECK-NEXT:    vsetivli zero, 1, e8, mf4, ta, ma
53 ; CHECK-NEXT:    vslidedown.vi v8, v8, 2
54 ; CHECK-NEXT:    vmv.x.s a0, v8
55 ; CHECK-NEXT:    ret
56   %r = extractelement <vscale x 2 x i8> %v, i32 2
57   ret i8 %r
60 define signext i8 @extractelt_nxv2i8_idx(<vscale x 2 x i8> %v, i32 zeroext %idx) {
61 ; CHECK-LABEL: extractelt_nxv2i8_idx:
62 ; CHECK:       # %bb.0:
63 ; CHECK-NEXT:    vsetivli zero, 1, e8, mf4, ta, ma
64 ; CHECK-NEXT:    vslidedown.vx v8, v8, a0
65 ; CHECK-NEXT:    vmv.x.s a0, v8
66 ; CHECK-NEXT:    ret
67   %r = extractelement <vscale x 2 x i8> %v, i32 %idx
68   ret i8 %r
71 define signext i8 @extractelt_nxv4i8_0(<vscale x 4 x i8> %v) {
72 ; CHECK-LABEL: extractelt_nxv4i8_0:
73 ; CHECK:       # %bb.0:
74 ; CHECK-NEXT:    vsetivli zero, 1, e8, m1, ta, ma
75 ; CHECK-NEXT:    vmv.x.s a0, v8
76 ; CHECK-NEXT:    ret
77   %r = extractelement <vscale x 4 x i8> %v, i32 0
78   ret i8 %r
81 define signext i8 @extractelt_nxv4i8_imm(<vscale x 4 x i8> %v) {
82 ; CHECK-LABEL: extractelt_nxv4i8_imm:
83 ; CHECK:       # %bb.0:
84 ; CHECK-NEXT:    vsetivli zero, 1, e8, mf2, ta, ma
85 ; CHECK-NEXT:    vslidedown.vi v8, v8, 2
86 ; CHECK-NEXT:    vmv.x.s a0, v8
87 ; CHECK-NEXT:    ret
88   %r = extractelement <vscale x 4 x i8> %v, i32 2
89   ret i8 %r
92 define signext i8 @extractelt_nxv4i8_idx(<vscale x 4 x i8> %v, i32 zeroext %idx) {
93 ; CHECK-LABEL: extractelt_nxv4i8_idx:
94 ; CHECK:       # %bb.0:
95 ; CHECK-NEXT:    vsetivli zero, 1, e8, mf2, ta, ma
96 ; CHECK-NEXT:    vslidedown.vx v8, v8, a0
97 ; CHECK-NEXT:    vmv.x.s a0, v8
98 ; CHECK-NEXT:    ret
99   %r = extractelement <vscale x 4 x i8> %v, i32 %idx
100   ret i8 %r
103 define signext i8 @extractelt_nxv8i8_0(<vscale x 8 x i8> %v) {
104 ; CHECK-LABEL: extractelt_nxv8i8_0:
105 ; CHECK:       # %bb.0:
106 ; CHECK-NEXT:    vsetivli zero, 1, e8, m1, ta, ma
107 ; CHECK-NEXT:    vmv.x.s a0, v8
108 ; CHECK-NEXT:    ret
109   %r = extractelement <vscale x 8 x i8> %v, i32 0
110   ret i8 %r
113 define signext i8 @extractelt_nxv8i8_imm(<vscale x 8 x i8> %v) {
114 ; CHECK-LABEL: extractelt_nxv8i8_imm:
115 ; CHECK:       # %bb.0:
116 ; CHECK-NEXT:    vsetivli zero, 1, e8, m1, ta, ma
117 ; CHECK-NEXT:    vslidedown.vi v8, v8, 2
118 ; CHECK-NEXT:    vmv.x.s a0, v8
119 ; CHECK-NEXT:    ret
120   %r = extractelement <vscale x 8 x i8> %v, i32 2
121   ret i8 %r
124 define signext i8 @extractelt_nxv8i8_idx(<vscale x 8 x i8> %v, i32 zeroext %idx) {
125 ; CHECK-LABEL: extractelt_nxv8i8_idx:
126 ; CHECK:       # %bb.0:
127 ; CHECK-NEXT:    vsetivli zero, 1, e8, m1, ta, ma
128 ; CHECK-NEXT:    vslidedown.vx v8, v8, a0
129 ; CHECK-NEXT:    vmv.x.s a0, v8
130 ; CHECK-NEXT:    ret
131   %r = extractelement <vscale x 8 x i8> %v, i32 %idx
132   ret i8 %r
135 define signext i8 @extractelt_nxv16i8_0(<vscale x 16 x i8> %v) {
136 ; CHECK-LABEL: extractelt_nxv16i8_0:
137 ; CHECK:       # %bb.0:
138 ; CHECK-NEXT:    vsetivli zero, 1, e8, m1, ta, ma
139 ; CHECK-NEXT:    vmv.x.s a0, v8
140 ; CHECK-NEXT:    ret
141   %r = extractelement <vscale x 16 x i8> %v, i32 0
142   ret i8 %r
145 define signext i8 @extractelt_nxv16i8_imm(<vscale x 16 x i8> %v) {
146 ; CHECK-LABEL: extractelt_nxv16i8_imm:
147 ; CHECK:       # %bb.0:
148 ; CHECK-NEXT:    vsetivli zero, 1, e8, m1, ta, ma
149 ; CHECK-NEXT:    vslidedown.vi v8, v8, 2
150 ; CHECK-NEXT:    vmv.x.s a0, v8
151 ; CHECK-NEXT:    ret
152   %r = extractelement <vscale x 16 x i8> %v, i32 2
153   ret i8 %r
156 define signext i8 @extractelt_nxv16i8_idx(<vscale x 16 x i8> %v, i32 zeroext %idx) {
157 ; CHECK-LABEL: extractelt_nxv16i8_idx:
158 ; CHECK:       # %bb.0:
159 ; CHECK-NEXT:    vsetivli zero, 1, e8, m2, ta, ma
160 ; CHECK-NEXT:    vslidedown.vx v8, v8, a0
161 ; CHECK-NEXT:    vmv.x.s a0, v8
162 ; CHECK-NEXT:    ret
163   %r = extractelement <vscale x 16 x i8> %v, i32 %idx
164   ret i8 %r
167 define signext i8 @extractelt_nxv32i8_0(<vscale x 32 x i8> %v) {
168 ; CHECK-LABEL: extractelt_nxv32i8_0:
169 ; CHECK:       # %bb.0:
170 ; CHECK-NEXT:    vsetivli zero, 1, e8, m1, ta, ma
171 ; CHECK-NEXT:    vmv.x.s a0, v8
172 ; CHECK-NEXT:    ret
173   %r = extractelement <vscale x 32 x i8> %v, i32 0
174   ret i8 %r
177 define signext i8 @extractelt_nxv32i8_imm(<vscale x 32 x i8> %v) {
178 ; CHECK-LABEL: extractelt_nxv32i8_imm:
179 ; CHECK:       # %bb.0:
180 ; CHECK-NEXT:    vsetivli zero, 1, e8, m1, ta, ma
181 ; CHECK-NEXT:    vslidedown.vi v8, v8, 2
182 ; CHECK-NEXT:    vmv.x.s a0, v8
183 ; CHECK-NEXT:    ret
184   %r = extractelement <vscale x 32 x i8> %v, i32 2
185   ret i8 %r
188 define signext i8 @extractelt_nxv32i8_idx(<vscale x 32 x i8> %v, i32 zeroext %idx) {
189 ; CHECK-LABEL: extractelt_nxv32i8_idx:
190 ; CHECK:       # %bb.0:
191 ; CHECK-NEXT:    vsetivli zero, 1, e8, m4, ta, ma
192 ; CHECK-NEXT:    vslidedown.vx v8, v8, a0
193 ; CHECK-NEXT:    vmv.x.s a0, v8
194 ; CHECK-NEXT:    ret
195   %r = extractelement <vscale x 32 x i8> %v, i32 %idx
196   ret i8 %r
199 define signext i8 @extractelt_nxv64i8_0(<vscale x 64 x i8> %v) {
200 ; CHECK-LABEL: extractelt_nxv64i8_0:
201 ; CHECK:       # %bb.0:
202 ; CHECK-NEXT:    vsetivli zero, 1, e8, m1, ta, ma
203 ; CHECK-NEXT:    vmv.x.s a0, v8
204 ; CHECK-NEXT:    ret
205   %r = extractelement <vscale x 64 x i8> %v, i32 0
206   ret i8 %r
209 define signext i8 @extractelt_nxv64i8_imm(<vscale x 64 x i8> %v) {
210 ; CHECK-LABEL: extractelt_nxv64i8_imm:
211 ; CHECK:       # %bb.0:
212 ; CHECK-NEXT:    vsetivli zero, 1, e8, m1, ta, ma
213 ; CHECK-NEXT:    vslidedown.vi v8, v8, 2
214 ; CHECK-NEXT:    vmv.x.s a0, v8
215 ; CHECK-NEXT:    ret
216   %r = extractelement <vscale x 64 x i8> %v, i32 2
217   ret i8 %r
220 define signext i8 @extractelt_nxv64i8_idx(<vscale x 64 x i8> %v, i32 zeroext %idx) {
221 ; CHECK-LABEL: extractelt_nxv64i8_idx:
222 ; CHECK:       # %bb.0:
223 ; CHECK-NEXT:    vsetivli zero, 1, e8, m8, ta, ma
224 ; CHECK-NEXT:    vslidedown.vx v8, v8, a0
225 ; CHECK-NEXT:    vmv.x.s a0, v8
226 ; CHECK-NEXT:    ret
227   %r = extractelement <vscale x 64 x i8> %v, i32 %idx
228   ret i8 %r
231 define signext i16 @extractelt_nxv1i16_0(<vscale x 1 x i16> %v) {
232 ; CHECK-LABEL: extractelt_nxv1i16_0:
233 ; CHECK:       # %bb.0:
234 ; CHECK-NEXT:    vsetivli zero, 1, e16, m1, ta, ma
235 ; CHECK-NEXT:    vmv.x.s a0, v8
236 ; CHECK-NEXT:    ret
237   %r = extractelement <vscale x 1 x i16> %v, i32 0
238   ret i16 %r
241 define signext i16 @extractelt_nxv1i16_imm(<vscale x 1 x i16> %v) {
242 ; CHECK-LABEL: extractelt_nxv1i16_imm:
243 ; CHECK:       # %bb.0:
244 ; CHECK-NEXT:    vsetivli zero, 1, e16, mf4, ta, ma
245 ; CHECK-NEXT:    vslidedown.vi v8, v8, 2
246 ; CHECK-NEXT:    vmv.x.s a0, v8
247 ; CHECK-NEXT:    ret
248   %r = extractelement <vscale x 1 x i16> %v, i32 2
249   ret i16 %r
252 define signext i16 @extractelt_nxv1i16_idx(<vscale x 1 x i16> %v, i32 zeroext %idx) {
253 ; CHECK-LABEL: extractelt_nxv1i16_idx:
254 ; CHECK:       # %bb.0:
255 ; CHECK-NEXT:    vsetivli zero, 1, e16, mf4, ta, ma
256 ; CHECK-NEXT:    vslidedown.vx v8, v8, a0
257 ; CHECK-NEXT:    vmv.x.s a0, v8
258 ; CHECK-NEXT:    ret
259   %r = extractelement <vscale x 1 x i16> %v, i32 %idx
260   ret i16 %r
263 define signext i16 @extractelt_nxv2i16_0(<vscale x 2 x i16> %v) {
264 ; CHECK-LABEL: extractelt_nxv2i16_0:
265 ; CHECK:       # %bb.0:
266 ; CHECK-NEXT:    vsetivli zero, 1, e16, m1, ta, ma
267 ; CHECK-NEXT:    vmv.x.s a0, v8
268 ; CHECK-NEXT:    ret
269   %r = extractelement <vscale x 2 x i16> %v, i32 0
270   ret i16 %r
273 define signext i16 @extractelt_nxv2i16_imm(<vscale x 2 x i16> %v) {
274 ; CHECK-LABEL: extractelt_nxv2i16_imm:
275 ; CHECK:       # %bb.0:
276 ; CHECK-NEXT:    vsetivli zero, 1, e16, mf2, ta, ma
277 ; CHECK-NEXT:    vslidedown.vi v8, v8, 2
278 ; CHECK-NEXT:    vmv.x.s a0, v8
279 ; CHECK-NEXT:    ret
280   %r = extractelement <vscale x 2 x i16> %v, i32 2
281   ret i16 %r
284 define signext i16 @extractelt_nxv2i16_idx(<vscale x 2 x i16> %v, i32 zeroext %idx) {
285 ; CHECK-LABEL: extractelt_nxv2i16_idx:
286 ; CHECK:       # %bb.0:
287 ; CHECK-NEXT:    vsetivli zero, 1, e16, mf2, ta, ma
288 ; CHECK-NEXT:    vslidedown.vx v8, v8, a0
289 ; CHECK-NEXT:    vmv.x.s a0, v8
290 ; CHECK-NEXT:    ret
291   %r = extractelement <vscale x 2 x i16> %v, i32 %idx
292   ret i16 %r
295 define signext i16 @extractelt_nxv4i16_0(<vscale x 4 x i16> %v) {
296 ; CHECK-LABEL: extractelt_nxv4i16_0:
297 ; CHECK:       # %bb.0:
298 ; CHECK-NEXT:    vsetivli zero, 1, e16, m1, ta, ma
299 ; CHECK-NEXT:    vmv.x.s a0, v8
300 ; CHECK-NEXT:    ret
301   %r = extractelement <vscale x 4 x i16> %v, i32 0
302   ret i16 %r
305 define signext i16 @extractelt_nxv4i16_imm(<vscale x 4 x i16> %v) {
306 ; CHECK-LABEL: extractelt_nxv4i16_imm:
307 ; CHECK:       # %bb.0:
308 ; CHECK-NEXT:    vsetivli zero, 1, e16, m1, ta, ma
309 ; CHECK-NEXT:    vslidedown.vi v8, v8, 2
310 ; CHECK-NEXT:    vmv.x.s a0, v8
311 ; CHECK-NEXT:    ret
312   %r = extractelement <vscale x 4 x i16> %v, i32 2
313   ret i16 %r
316 define signext i16 @extractelt_nxv4i16_idx(<vscale x 4 x i16> %v, i32 zeroext %idx) {
317 ; CHECK-LABEL: extractelt_nxv4i16_idx:
318 ; CHECK:       # %bb.0:
319 ; CHECK-NEXT:    vsetivli zero, 1, e16, m1, ta, ma
320 ; CHECK-NEXT:    vslidedown.vx v8, v8, a0
321 ; CHECK-NEXT:    vmv.x.s a0, v8
322 ; CHECK-NEXT:    ret
323   %r = extractelement <vscale x 4 x i16> %v, i32 %idx
324   ret i16 %r
327 define signext i16 @extractelt_nxv8i16_0(<vscale x 8 x i16> %v) {
328 ; CHECK-LABEL: extractelt_nxv8i16_0:
329 ; CHECK:       # %bb.0:
330 ; CHECK-NEXT:    vsetivli zero, 1, e16, m1, ta, ma
331 ; CHECK-NEXT:    vmv.x.s a0, v8
332 ; CHECK-NEXT:    ret
333   %r = extractelement <vscale x 8 x i16> %v, i32 0
334   ret i16 %r
337 define signext i16 @extractelt_nxv8i16_imm(<vscale x 8 x i16> %v) {
338 ; CHECK-LABEL: extractelt_nxv8i16_imm:
339 ; CHECK:       # %bb.0:
340 ; CHECK-NEXT:    vsetivli zero, 1, e16, m1, ta, ma
341 ; CHECK-NEXT:    vslidedown.vi v8, v8, 2
342 ; CHECK-NEXT:    vmv.x.s a0, v8
343 ; CHECK-NEXT:    ret
344   %r = extractelement <vscale x 8 x i16> %v, i32 2
345   ret i16 %r
348 define signext i16 @extractelt_nxv8i16_idx(<vscale x 8 x i16> %v, i32 zeroext %idx) {
349 ; CHECK-LABEL: extractelt_nxv8i16_idx:
350 ; CHECK:       # %bb.0:
351 ; CHECK-NEXT:    vsetivli zero, 1, e16, m2, ta, ma
352 ; CHECK-NEXT:    vslidedown.vx v8, v8, a0
353 ; CHECK-NEXT:    vmv.x.s a0, v8
354 ; CHECK-NEXT:    ret
355   %r = extractelement <vscale x 8 x i16> %v, i32 %idx
356   ret i16 %r
359 define signext i16 @extractelt_nxv16i16_0(<vscale x 16 x i16> %v) {
360 ; CHECK-LABEL: extractelt_nxv16i16_0:
361 ; CHECK:       # %bb.0:
362 ; CHECK-NEXT:    vsetivli zero, 1, e16, m1, ta, ma
363 ; CHECK-NEXT:    vmv.x.s a0, v8
364 ; CHECK-NEXT:    ret
365   %r = extractelement <vscale x 16 x i16> %v, i32 0
366   ret i16 %r
369 define signext i16 @extractelt_nxv16i16_imm(<vscale x 16 x i16> %v) {
370 ; CHECK-LABEL: extractelt_nxv16i16_imm:
371 ; CHECK:       # %bb.0:
372 ; CHECK-NEXT:    vsetivli zero, 1, e16, m1, ta, ma
373 ; CHECK-NEXT:    vslidedown.vi v8, v8, 2
374 ; CHECK-NEXT:    vmv.x.s a0, v8
375 ; CHECK-NEXT:    ret
376   %r = extractelement <vscale x 16 x i16> %v, i32 2
377   ret i16 %r
380 define signext i16 @extractelt_nxv16i16_idx(<vscale x 16 x i16> %v, i32 zeroext %idx) {
381 ; CHECK-LABEL: extractelt_nxv16i16_idx:
382 ; CHECK:       # %bb.0:
383 ; CHECK-NEXT:    vsetivli zero, 1, e16, m4, ta, ma
384 ; CHECK-NEXT:    vslidedown.vx v8, v8, a0
385 ; CHECK-NEXT:    vmv.x.s a0, v8
386 ; CHECK-NEXT:    ret
387   %r = extractelement <vscale x 16 x i16> %v, i32 %idx
388   ret i16 %r
391 define signext i16 @extractelt_nxv32i16_0(<vscale x 32 x i16> %v) {
392 ; CHECK-LABEL: extractelt_nxv32i16_0:
393 ; CHECK:       # %bb.0:
394 ; CHECK-NEXT:    vsetivli zero, 1, e16, m1, ta, ma
395 ; CHECK-NEXT:    vmv.x.s a0, v8
396 ; CHECK-NEXT:    ret
397   %r = extractelement <vscale x 32 x i16> %v, i32 0
398   ret i16 %r
401 define signext i16 @extractelt_nxv32i16_imm(<vscale x 32 x i16> %v) {
402 ; CHECK-LABEL: extractelt_nxv32i16_imm:
403 ; CHECK:       # %bb.0:
404 ; CHECK-NEXT:    vsetivli zero, 1, e16, m1, ta, ma
405 ; CHECK-NEXT:    vslidedown.vi v8, v8, 2
406 ; CHECK-NEXT:    vmv.x.s a0, v8
407 ; CHECK-NEXT:    ret
408   %r = extractelement <vscale x 32 x i16> %v, i32 2
409   ret i16 %r
412 define signext i16 @extractelt_nxv32i16_idx(<vscale x 32 x i16> %v, i32 zeroext %idx) {
413 ; CHECK-LABEL: extractelt_nxv32i16_idx:
414 ; CHECK:       # %bb.0:
415 ; CHECK-NEXT:    vsetivli zero, 1, e16, m8, ta, ma
416 ; CHECK-NEXT:    vslidedown.vx v8, v8, a0
417 ; CHECK-NEXT:    vmv.x.s a0, v8
418 ; CHECK-NEXT:    ret
419   %r = extractelement <vscale x 32 x i16> %v, i32 %idx
420   ret i16 %r
423 define signext i32 @extractelt_nxv1i32_0(<vscale x 1 x i32> %v) {
424 ; CHECK-LABEL: extractelt_nxv1i32_0:
425 ; CHECK:       # %bb.0:
426 ; CHECK-NEXT:    vsetivli zero, 1, e32, m1, ta, ma
427 ; CHECK-NEXT:    vmv.x.s a0, v8
428 ; CHECK-NEXT:    ret
429   %r = extractelement <vscale x 1 x i32> %v, i32 0
430   ret i32 %r
433 define signext i32 @extractelt_nxv1i32_imm(<vscale x 1 x i32> %v) {
434 ; CHECK-LABEL: extractelt_nxv1i32_imm:
435 ; CHECK:       # %bb.0:
436 ; CHECK-NEXT:    vsetivli zero, 1, e32, mf2, ta, ma
437 ; CHECK-NEXT:    vslidedown.vi v8, v8, 2
438 ; CHECK-NEXT:    vmv.x.s a0, v8
439 ; CHECK-NEXT:    ret
440   %r = extractelement <vscale x 1 x i32> %v, i32 2
441   ret i32 %r
444 define signext i32 @extractelt_nxv1i32_idx(<vscale x 1 x i32> %v, i32 zeroext %idx) {
445 ; CHECK-LABEL: extractelt_nxv1i32_idx:
446 ; CHECK:       # %bb.0:
447 ; CHECK-NEXT:    vsetivli zero, 1, e32, mf2, ta, ma
448 ; CHECK-NEXT:    vslidedown.vx v8, v8, a0
449 ; CHECK-NEXT:    vmv.x.s a0, v8
450 ; CHECK-NEXT:    ret
451   %r = extractelement <vscale x 1 x i32> %v, i32 %idx
452   ret i32 %r
455 define signext i32 @extractelt_nxv2i32_0(<vscale x 2 x i32> %v) {
456 ; CHECK-LABEL: extractelt_nxv2i32_0:
457 ; CHECK:       # %bb.0:
458 ; CHECK-NEXT:    vsetivli zero, 1, e32, m1, ta, ma
459 ; CHECK-NEXT:    vmv.x.s a0, v8
460 ; CHECK-NEXT:    ret
461   %r = extractelement <vscale x 2 x i32> %v, i32 0
462   ret i32 %r
465 define signext i32 @extractelt_nxv2i32_imm(<vscale x 2 x i32> %v) {
466 ; CHECK-LABEL: extractelt_nxv2i32_imm:
467 ; CHECK:       # %bb.0:
468 ; CHECK-NEXT:    vsetivli zero, 1, e32, m1, ta, ma
469 ; CHECK-NEXT:    vslidedown.vi v8, v8, 2
470 ; CHECK-NEXT:    vmv.x.s a0, v8
471 ; CHECK-NEXT:    ret
472   %r = extractelement <vscale x 2 x i32> %v, i32 2
473   ret i32 %r
476 define signext i32 @extractelt_nxv2i32_idx(<vscale x 2 x i32> %v, i32 zeroext %idx) {
477 ; CHECK-LABEL: extractelt_nxv2i32_idx:
478 ; CHECK:       # %bb.0:
479 ; CHECK-NEXT:    vsetivli zero, 1, e32, m1, ta, ma
480 ; CHECK-NEXT:    vslidedown.vx v8, v8, a0
481 ; CHECK-NEXT:    vmv.x.s a0, v8
482 ; CHECK-NEXT:    ret
483   %r = extractelement <vscale x 2 x i32> %v, i32 %idx
484   ret i32 %r
487 define signext i32 @extractelt_nxv4i32_0(<vscale x 4 x i32> %v) {
488 ; CHECK-LABEL: extractelt_nxv4i32_0:
489 ; CHECK:       # %bb.0:
490 ; CHECK-NEXT:    vsetivli zero, 1, e32, m1, ta, ma
491 ; CHECK-NEXT:    vmv.x.s a0, v8
492 ; CHECK-NEXT:    ret
493   %r = extractelement <vscale x 4 x i32> %v, i32 0
494   ret i32 %r
497 define signext i32 @extractelt_nxv4i32_imm(<vscale x 4 x i32> %v) {
498 ; CHECK-LABEL: extractelt_nxv4i32_imm:
499 ; CHECK:       # %bb.0:
500 ; CHECK-NEXT:    vsetivli zero, 1, e32, m1, ta, ma
501 ; CHECK-NEXT:    vslidedown.vi v8, v8, 2
502 ; CHECK-NEXT:    vmv.x.s a0, v8
503 ; CHECK-NEXT:    ret
504   %r = extractelement <vscale x 4 x i32> %v, i32 2
505   ret i32 %r
508 define signext i32 @extractelt_nxv4i32_idx(<vscale x 4 x i32> %v, i32 zeroext %idx) {
509 ; CHECK-LABEL: extractelt_nxv4i32_idx:
510 ; CHECK:       # %bb.0:
511 ; CHECK-NEXT:    vsetivli zero, 1, e32, m2, ta, ma
512 ; CHECK-NEXT:    vslidedown.vx v8, v8, a0
513 ; CHECK-NEXT:    vmv.x.s a0, v8
514 ; CHECK-NEXT:    ret
515   %r = extractelement <vscale x 4 x i32> %v, i32 %idx
516   ret i32 %r
519 define signext i32 @extractelt_nxv8i32_0(<vscale x 8 x i32> %v) {
520 ; CHECK-LABEL: extractelt_nxv8i32_0:
521 ; CHECK:       # %bb.0:
522 ; CHECK-NEXT:    vsetivli zero, 1, e32, m1, ta, ma
523 ; CHECK-NEXT:    vmv.x.s a0, v8
524 ; CHECK-NEXT:    ret
525   %r = extractelement <vscale x 8 x i32> %v, i32 0
526   ret i32 %r
529 define signext i32 @extractelt_nxv8i32_imm(<vscale x 8 x i32> %v) {
530 ; CHECK-LABEL: extractelt_nxv8i32_imm:
531 ; CHECK:       # %bb.0:
532 ; CHECK-NEXT:    vsetivli zero, 1, e32, m1, ta, ma
533 ; CHECK-NEXT:    vslidedown.vi v8, v8, 2
534 ; CHECK-NEXT:    vmv.x.s a0, v8
535 ; CHECK-NEXT:    ret
536   %r = extractelement <vscale x 8 x i32> %v, i32 2
537   ret i32 %r
540 define signext i32 @extractelt_nxv8i32_idx(<vscale x 8 x i32> %v, i32 zeroext %idx) {
541 ; CHECK-LABEL: extractelt_nxv8i32_idx:
542 ; CHECK:       # %bb.0:
543 ; CHECK-NEXT:    vsetivli zero, 1, e32, m4, ta, ma
544 ; CHECK-NEXT:    vslidedown.vx v8, v8, a0
545 ; CHECK-NEXT:    vmv.x.s a0, v8
546 ; CHECK-NEXT:    ret
547   %r = extractelement <vscale x 8 x i32> %v, i32 %idx
548   ret i32 %r
551 define signext i32 @extractelt_nxv16i32_0(<vscale x 16 x i32> %v) {
552 ; CHECK-LABEL: extractelt_nxv16i32_0:
553 ; CHECK:       # %bb.0:
554 ; CHECK-NEXT:    vsetivli zero, 1, e32, m1, ta, ma
555 ; CHECK-NEXT:    vmv.x.s a0, v8
556 ; CHECK-NEXT:    ret
557   %r = extractelement <vscale x 16 x i32> %v, i32 0
558   ret i32 %r
561 define signext i32 @extractelt_nxv16i32_imm(<vscale x 16 x i32> %v) {
562 ; CHECK-LABEL: extractelt_nxv16i32_imm:
563 ; CHECK:       # %bb.0:
564 ; CHECK-NEXT:    vsetivli zero, 1, e32, m1, ta, ma
565 ; CHECK-NEXT:    vslidedown.vi v8, v8, 2
566 ; CHECK-NEXT:    vmv.x.s a0, v8
567 ; CHECK-NEXT:    ret
568   %r = extractelement <vscale x 16 x i32> %v, i32 2
569   ret i32 %r
572 define signext i32 @extractelt_nxv16i32_idx(<vscale x 16 x i32> %v, i32 zeroext %idx) {
573 ; CHECK-LABEL: extractelt_nxv16i32_idx:
574 ; CHECK:       # %bb.0:
575 ; CHECK-NEXT:    vsetivli zero, 1, e32, m8, ta, ma
576 ; CHECK-NEXT:    vslidedown.vx v8, v8, a0
577 ; CHECK-NEXT:    vmv.x.s a0, v8
578 ; CHECK-NEXT:    ret
579   %r = extractelement <vscale x 16 x i32> %v, i32 %idx
580   ret i32 %r
583 define i64 @extractelt_nxv1i64_0(<vscale x 1 x i64> %v) {
584 ; CHECK-LABEL: extractelt_nxv1i64_0:
585 ; CHECK:       # %bb.0:
586 ; CHECK-NEXT:    vsetivli zero, 1, e64, m1, ta, ma
587 ; CHECK-NEXT:    vmv.x.s a0, v8
588 ; CHECK-NEXT:    ret
589   %r = extractelement <vscale x 1 x i64> %v, i32 0
590   ret i64 %r
593 define i64 @extractelt_nxv1i64_imm(<vscale x 1 x i64> %v) {
594 ; CHECK-LABEL: extractelt_nxv1i64_imm:
595 ; CHECK:       # %bb.0:
596 ; CHECK-NEXT:    vsetivli zero, 1, e64, m1, ta, ma
597 ; CHECK-NEXT:    vslidedown.vi v8, v8, 2
598 ; CHECK-NEXT:    vmv.x.s a0, v8
599 ; CHECK-NEXT:    ret
600   %r = extractelement <vscale x 1 x i64> %v, i32 2
601   ret i64 %r
604 define i64 @extractelt_nxv1i64_idx(<vscale x 1 x i64> %v, i32 zeroext %idx) {
605 ; CHECK-LABEL: extractelt_nxv1i64_idx:
606 ; CHECK:       # %bb.0:
607 ; CHECK-NEXT:    vsetivli zero, 1, e64, m1, ta, ma
608 ; CHECK-NEXT:    vslidedown.vx v8, v8, a0
609 ; CHECK-NEXT:    vmv.x.s a0, v8
610 ; CHECK-NEXT:    ret
611   %r = extractelement <vscale x 1 x i64> %v, i32 %idx
612   ret i64 %r
615 define i64 @extractelt_nxv2i64_0(<vscale x 2 x i64> %v) {
616 ; CHECK-LABEL: extractelt_nxv2i64_0:
617 ; CHECK:       # %bb.0:
618 ; CHECK-NEXT:    vsetivli zero, 1, e64, m1, ta, ma
619 ; CHECK-NEXT:    vmv.x.s a0, v8
620 ; CHECK-NEXT:    ret
621   %r = extractelement <vscale x 2 x i64> %v, i32 0
622   ret i64 %r
625 define i64 @extractelt_nxv2i64_imm(<vscale x 2 x i64> %v) {
626 ; CHECK-LABEL: extractelt_nxv2i64_imm:
627 ; CHECK:       # %bb.0:
628 ; CHECK-NEXT:    vsetivli zero, 1, e64, m2, ta, ma
629 ; CHECK-NEXT:    vslidedown.vi v8, v8, 2
630 ; CHECK-NEXT:    vmv.x.s a0, v8
631 ; CHECK-NEXT:    ret
632   %r = extractelement <vscale x 2 x i64> %v, i32 2
633   ret i64 %r
636 define i64 @extractelt_nxv2i64_idx(<vscale x 2 x i64> %v, i32 zeroext %idx) {
637 ; CHECK-LABEL: extractelt_nxv2i64_idx:
638 ; CHECK:       # %bb.0:
639 ; CHECK-NEXT:    vsetivli zero, 1, e64, m2, ta, ma
640 ; CHECK-NEXT:    vslidedown.vx v8, v8, a0
641 ; CHECK-NEXT:    vmv.x.s a0, v8
642 ; CHECK-NEXT:    ret
643   %r = extractelement <vscale x 2 x i64> %v, i32 %idx
644   ret i64 %r
647 define i64 @extractelt_nxv4i64_0(<vscale x 4 x i64> %v) {
648 ; CHECK-LABEL: extractelt_nxv4i64_0:
649 ; CHECK:       # %bb.0:
650 ; CHECK-NEXT:    vsetivli zero, 1, e64, m1, ta, ma
651 ; CHECK-NEXT:    vmv.x.s a0, v8
652 ; CHECK-NEXT:    ret
653   %r = extractelement <vscale x 4 x i64> %v, i32 0
654   ret i64 %r
657 define i64 @extractelt_nxv4i64_imm(<vscale x 4 x i64> %v) {
658 ; CHECK-LABEL: extractelt_nxv4i64_imm:
659 ; CHECK:       # %bb.0:
660 ; CHECK-NEXT:    vsetivli zero, 1, e64, m2, ta, ma
661 ; CHECK-NEXT:    vslidedown.vi v8, v8, 2
662 ; CHECK-NEXT:    vmv.x.s a0, v8
663 ; CHECK-NEXT:    ret
664   %r = extractelement <vscale x 4 x i64> %v, i32 2
665   ret i64 %r
668 define i64 @extractelt_nxv4i64_idx(<vscale x 4 x i64> %v, i32 zeroext %idx) {
669 ; CHECK-LABEL: extractelt_nxv4i64_idx:
670 ; CHECK:       # %bb.0:
671 ; CHECK-NEXT:    vsetivli zero, 1, e64, m4, ta, ma
672 ; CHECK-NEXT:    vslidedown.vx v8, v8, a0
673 ; CHECK-NEXT:    vmv.x.s a0, v8
674 ; CHECK-NEXT:    ret
675   %r = extractelement <vscale x 4 x i64> %v, i32 %idx
676   ret i64 %r
679 define i64 @extractelt_nxv8i64_0(<vscale x 8 x i64> %v) {
680 ; CHECK-LABEL: extractelt_nxv8i64_0:
681 ; CHECK:       # %bb.0:
682 ; CHECK-NEXT:    vsetivli zero, 1, e64, m1, ta, ma
683 ; CHECK-NEXT:    vmv.x.s a0, v8
684 ; CHECK-NEXT:    ret
685   %r = extractelement <vscale x 8 x i64> %v, i32 0
686   ret i64 %r
689 define i64 @extractelt_nxv8i64_imm(<vscale x 8 x i64> %v) {
690 ; CHECK-LABEL: extractelt_nxv8i64_imm:
691 ; CHECK:       # %bb.0:
692 ; CHECK-NEXT:    vsetivli zero, 1, e64, m2, ta, ma
693 ; CHECK-NEXT:    vslidedown.vi v8, v8, 2
694 ; CHECK-NEXT:    vmv.x.s a0, v8
695 ; CHECK-NEXT:    ret
696   %r = extractelement <vscale x 8 x i64> %v, i32 2
697   ret i64 %r
700 define i64 @extractelt_nxv8i64_2_exact_vlen(<vscale x 8 x i64> %v) vscale_range(2,2) {
701 ; CHECK-LABEL: extractelt_nxv8i64_2_exact_vlen:
702 ; CHECK:       # %bb.0:
703 ; CHECK-NEXT:    vsetivli zero, 1, e64, m1, ta, ma
704 ; CHECK-NEXT:    vmv.x.s a0, v9
705 ; CHECK-NEXT:    ret
706   %r = extractelement <vscale x 8 x i64> %v, i32 2
707   ret i64 %r
710 define i64 @extractelt_nxv8i64_15_exact_vlen(<vscale x 8 x i64> %v) vscale_range(2,2) {
711 ; CHECK-LABEL: extractelt_nxv8i64_15_exact_vlen:
712 ; CHECK:       # %bb.0:
713 ; CHECK-NEXT:    vsetivli zero, 1, e64, m1, ta, ma
714 ; CHECK-NEXT:    vslidedown.vi v8, v15, 1
715 ; CHECK-NEXT:    vmv.x.s a0, v8
716 ; CHECK-NEXT:    ret
717   %r = extractelement <vscale x 8 x i64> %v, i32 15
718   ret i64 %r
721 define i64 @extractelt_nxv8i64_idx(<vscale x 8 x i64> %v, i32 zeroext %idx) {
722 ; CHECK-LABEL: extractelt_nxv8i64_idx:
723 ; CHECK:       # %bb.0:
724 ; CHECK-NEXT:    vsetivli zero, 1, e64, m8, ta, ma
725 ; CHECK-NEXT:    vslidedown.vx v8, v8, a0
726 ; CHECK-NEXT:    vmv.x.s a0, v8
727 ; CHECK-NEXT:    ret
728   %r = extractelement <vscale x 8 x i64> %v, i32 %idx
729   ret i64 %r
732 define i32 @extractelt_add_nxv4i32_splat(<vscale x 4 x i32> %x) {
733 ; CHECK-LABEL: extractelt_add_nxv4i32_splat:
734 ; CHECK:       # %bb.0:
735 ; CHECK-NEXT:    vsetivli zero, 1, e32, m1, ta, ma
736 ; CHECK-NEXT:    vslidedown.vi v8, v8, 2
737 ; CHECK-NEXT:    vmv.x.s a0, v8
738 ; CHECK-NEXT:    addiw a0, a0, 3
739 ; CHECK-NEXT:    ret
740   %bo = add <vscale x 4 x i32> %x, splat (i32 3)
741   %ext = extractelement <vscale x 4 x i32> %bo, i32 2
742   ret i32 %ext
745 define i32 @extractelt_sub_nxv4i32_splat(<vscale x 4 x i32> %x) {
746 ; CHECK-LABEL: extractelt_sub_nxv4i32_splat:
747 ; CHECK:       # %bb.0:
748 ; CHECK-NEXT:    vsetivli zero, 1, e32, m1, ta, ma
749 ; CHECK-NEXT:    vslidedown.vi v8, v8, 1
750 ; CHECK-NEXT:    vmv.x.s a0, v8
751 ; CHECK-NEXT:    li a1, 3
752 ; CHECK-NEXT:    subw a0, a1, a0
753 ; CHECK-NEXT:    ret
754   %bo = sub <vscale x 4 x i32> splat (i32 3), %x
755   %ext = extractelement <vscale x 4 x i32> %bo, i32 1
756   ret i32 %ext
759 define i32 @extractelt_mul_nxv4i32_splat(<vscale x 4 x i32> %x) {
760 ; RV64NOM-LABEL: extractelt_mul_nxv4i32_splat:
761 ; RV64NOM:       # %bb.0:
762 ; RV64NOM-NEXT:    li a0, 3
763 ; RV64NOM-NEXT:    vsetvli a1, zero, e32, m2, ta, ma
764 ; RV64NOM-NEXT:    vmul.vx v8, v8, a0
765 ; RV64NOM-NEXT:    vsetivli zero, 1, e32, m1, ta, ma
766 ; RV64NOM-NEXT:    vslidedown.vi v8, v8, 3
767 ; RV64NOM-NEXT:    vmv.x.s a0, v8
768 ; RV64NOM-NEXT:    ret
770 ; RV64M-LABEL: extractelt_mul_nxv4i32_splat:
771 ; RV64M:       # %bb.0:
772 ; RV64M-NEXT:    vsetivli zero, 1, e32, m1, ta, ma
773 ; RV64M-NEXT:    vslidedown.vi v8, v8, 3
774 ; RV64M-NEXT:    vmv.x.s a0, v8
775 ; RV64M-NEXT:    slli a1, a0, 1
776 ; RV64M-NEXT:    addw a0, a1, a0
777 ; RV64M-NEXT:    ret
778   %bo = mul <vscale x 4 x i32> %x, splat (i32 3)
779   %ext = extractelement <vscale x 4 x i32> %bo, i32 3
780   ret i32 %ext
783 define i32 @extractelt_sdiv_nxv4i32_splat(<vscale x 4 x i32> %x) {
784 ; RV64NOM-LABEL: extractelt_sdiv_nxv4i32_splat:
785 ; RV64NOM:       # %bb.0:
786 ; RV64NOM-NEXT:    lui a0, 349525
787 ; RV64NOM-NEXT:    addi a0, a0, 1366
788 ; RV64NOM-NEXT:    vsetvli a1, zero, e32, m2, ta, ma
789 ; RV64NOM-NEXT:    vmulh.vx v8, v8, a0
790 ; RV64NOM-NEXT:    vsrl.vi v10, v8, 31
791 ; RV64NOM-NEXT:    vadd.vv v8, v8, v10
792 ; RV64NOM-NEXT:    vmv.x.s a0, v8
793 ; RV64NOM-NEXT:    ret
795 ; RV64M-LABEL: extractelt_sdiv_nxv4i32_splat:
796 ; RV64M:       # %bb.0:
797 ; RV64M-NEXT:    vsetivli zero, 1, e32, m1, ta, ma
798 ; RV64M-NEXT:    vmv.x.s a0, v8
799 ; RV64M-NEXT:    lui a1, 349525
800 ; RV64M-NEXT:    addiw a1, a1, 1366
801 ; RV64M-NEXT:    mul a0, a0, a1
802 ; RV64M-NEXT:    srli a1, a0, 63
803 ; RV64M-NEXT:    srli a0, a0, 32
804 ; RV64M-NEXT:    addw a0, a0, a1
805 ; RV64M-NEXT:    ret
806   %bo = sdiv <vscale x 4 x i32> %x, splat (i32 3)
807   %ext = extractelement <vscale x 4 x i32> %bo, i32 0
808   ret i32 %ext
811 define i32 @extractelt_udiv_nxv4i32_splat(<vscale x 4 x i32> %x) {
812 ; RV64NOM-LABEL: extractelt_udiv_nxv4i32_splat:
813 ; RV64NOM:       # %bb.0:
814 ; RV64NOM-NEXT:    lui a0, 349525
815 ; RV64NOM-NEXT:    addi a0, a0, 1366
816 ; RV64NOM-NEXT:    vsetvli a1, zero, e32, m2, ta, ma
817 ; RV64NOM-NEXT:    vmulh.vx v8, v8, a0
818 ; RV64NOM-NEXT:    vsrl.vi v10, v8, 31
819 ; RV64NOM-NEXT:    vadd.vv v8, v8, v10
820 ; RV64NOM-NEXT:    vmv.x.s a0, v8
821 ; RV64NOM-NEXT:    ret
823 ; RV64M-LABEL: extractelt_udiv_nxv4i32_splat:
824 ; RV64M:       # %bb.0:
825 ; RV64M-NEXT:    vsetivli zero, 1, e32, m1, ta, ma
826 ; RV64M-NEXT:    vmv.x.s a0, v8
827 ; RV64M-NEXT:    lui a1, 349525
828 ; RV64M-NEXT:    addiw a1, a1, 1366
829 ; RV64M-NEXT:    mul a0, a0, a1
830 ; RV64M-NEXT:    srli a1, a0, 63
831 ; RV64M-NEXT:    srli a0, a0, 32
832 ; RV64M-NEXT:    addw a0, a0, a1
833 ; RV64M-NEXT:    ret
834   %bo = sdiv <vscale x 4 x i32> %x, splat (i32 3)
835   %ext = extractelement <vscale x 4 x i32> %bo, i32 0
836   ret i32 %ext
839 define i64 @extractelt_nxv16i64_0(<vscale x 16 x i64> %v) {
840 ; CHECK-LABEL: extractelt_nxv16i64_0:
841 ; CHECK:       # %bb.0:
842 ; CHECK-NEXT:    vsetivli zero, 1, e64, m1, ta, ma
843 ; CHECK-NEXT:    vmv.x.s a0, v8
844 ; CHECK-NEXT:    ret
845   %r = extractelement <vscale x 16 x i64> %v, i32 0
846   ret i64 %r
849 define i64 @extractelt_nxv16i64_neg1(<vscale x 16 x i64> %v) {
850 ; CHECK-LABEL: extractelt_nxv16i64_neg1:
851 ; CHECK:       # %bb.0:
852 ; CHECK-NEXT:    addi sp, sp, -80
853 ; CHECK-NEXT:    .cfi_def_cfa_offset 80
854 ; CHECK-NEXT:    sd ra, 72(sp) # 8-byte Folded Spill
855 ; CHECK-NEXT:    sd s0, 64(sp) # 8-byte Folded Spill
856 ; CHECK-NEXT:    .cfi_offset ra, -8
857 ; CHECK-NEXT:    .cfi_offset s0, -16
858 ; CHECK-NEXT:    addi s0, sp, 80
859 ; CHECK-NEXT:    .cfi_def_cfa s0, 0
860 ; CHECK-NEXT:    csrr a0, vlenb
861 ; CHECK-NEXT:    slli a0, a0, 4
862 ; CHECK-NEXT:    sub sp, sp, a0
863 ; CHECK-NEXT:    andi sp, sp, -64
864 ; CHECK-NEXT:    addi a0, sp, 64
865 ; CHECK-NEXT:    vs8r.v v8, (a0)
866 ; CHECK-NEXT:    csrr a2, vlenb
867 ; CHECK-NEXT:    slli a1, a2, 3
868 ; CHECK-NEXT:    add a3, a0, a1
869 ; CHECK-NEXT:    li a1, -1
870 ; CHECK-NEXT:    srli a1, a1, 32
871 ; CHECK-NEXT:    slli a2, a2, 1
872 ; CHECK-NEXT:    addi a2, a2, -1
873 ; CHECK-NEXT:    vs8r.v v16, (a3)
874 ; CHECK-NEXT:    bltu a2, a1, .LBB74_2
875 ; CHECK-NEXT:  # %bb.1:
876 ; CHECK-NEXT:    mv a2, a1
877 ; CHECK-NEXT:  .LBB74_2:
878 ; CHECK-NEXT:    slli a2, a2, 3
879 ; CHECK-NEXT:    add a0, a0, a2
880 ; CHECK-NEXT:    ld a0, 0(a0)
881 ; CHECK-NEXT:    addi sp, s0, -80
882 ; CHECK-NEXT:    ld ra, 72(sp) # 8-byte Folded Reload
883 ; CHECK-NEXT:    ld s0, 64(sp) # 8-byte Folded Reload
884 ; CHECK-NEXT:    addi sp, sp, 80
885 ; CHECK-NEXT:    ret
886   %r = extractelement <vscale x 16 x i64> %v, i32 -1
887   ret i64 %r
890 define i64 @extractelt_nxv16i64_imm(<vscale x 16 x i64> %v) {
891 ; CHECK-LABEL: extractelt_nxv16i64_imm:
892 ; CHECK:       # %bb.0:
893 ; CHECK-NEXT:    vsetivli zero, 1, e64, m2, ta, ma
894 ; CHECK-NEXT:    vslidedown.vi v8, v8, 2
895 ; CHECK-NEXT:    vmv.x.s a0, v8
896 ; CHECK-NEXT:    ret
897   %r = extractelement <vscale x 16 x i64> %v, i32 2
898   ret i64 %r
901 define i64 @extractelt_nxv16i64_idx(<vscale x 16 x i64> %v, i32 zeroext %idx) {
902 ; CHECK-LABEL: extractelt_nxv16i64_idx:
903 ; CHECK:       # %bb.0:
904 ; CHECK-NEXT:    csrr a1, vlenb
905 ; CHECK-NEXT:    slli a2, a1, 1
906 ; CHECK-NEXT:    addi a2, a2, -1
907 ; CHECK-NEXT:    bltu a0, a2, .LBB76_2
908 ; CHECK-NEXT:  # %bb.1:
909 ; CHECK-NEXT:    mv a0, a2
910 ; CHECK-NEXT:  .LBB76_2:
911 ; CHECK-NEXT:    addi sp, sp, -80
912 ; CHECK-NEXT:    .cfi_def_cfa_offset 80
913 ; CHECK-NEXT:    sd ra, 72(sp) # 8-byte Folded Spill
914 ; CHECK-NEXT:    sd s0, 64(sp) # 8-byte Folded Spill
915 ; CHECK-NEXT:    .cfi_offset ra, -8
916 ; CHECK-NEXT:    .cfi_offset s0, -16
917 ; CHECK-NEXT:    addi s0, sp, 80
918 ; CHECK-NEXT:    .cfi_def_cfa s0, 0
919 ; CHECK-NEXT:    csrr a2, vlenb
920 ; CHECK-NEXT:    slli a2, a2, 4
921 ; CHECK-NEXT:    sub sp, sp, a2
922 ; CHECK-NEXT:    andi sp, sp, -64
923 ; CHECK-NEXT:    slli a0, a0, 3
924 ; CHECK-NEXT:    addi a2, sp, 64
925 ; CHECK-NEXT:    add a0, a2, a0
926 ; CHECK-NEXT:    vs8r.v v8, (a2)
927 ; CHECK-NEXT:    slli a1, a1, 3
928 ; CHECK-NEXT:    add a1, a2, a1
929 ; CHECK-NEXT:    vs8r.v v16, (a1)
930 ; CHECK-NEXT:    ld a0, 0(a0)
931 ; CHECK-NEXT:    addi sp, s0, -80
932 ; CHECK-NEXT:    ld ra, 72(sp) # 8-byte Folded Reload
933 ; CHECK-NEXT:    ld s0, 64(sp) # 8-byte Folded Reload
934 ; CHECK-NEXT:    addi sp, sp, 80
935 ; CHECK-NEXT:    ret
936   %r = extractelement <vscale x 16 x i64> %v, i32 %idx
937   ret i64 %r