[NFC][RemoveDIs] Prefer iterators over inst-pointers in InstCombine
[llvm-project.git] / llvm / test / CodeGen / AArch64 / GlobalISel / legalize-shuffle-vector.mir
blob864275664882ccef28a125ff66a213ed5a22ebfa
1 # NOTE: Assertions have been autogenerated by utils/update_mir_test_checks.py
2 # RUN: llc -mtriple=aarch64 -O0 -run-pass=legalizer -global-isel-abort=1 %s -o - | FileCheck %s
3 ---
4 name:            shuffle_v4i32
5 alignment:       4
6 tracksRegLiveness: true
7 body:             |
8   bb.1:
9     liveins: $q0, $q1
11     ; CHECK-LABEL: name: shuffle_v4i32
12     ; CHECK: liveins: $q0, $q1
13     ; CHECK-NEXT: {{  $}}
14     ; CHECK-NEXT: [[COPY:%[0-9]+]]:_(<4 x s32>) = COPY $q0
15     ; CHECK-NEXT: [[COPY1:%[0-9]+]]:_(<4 x s32>) = COPY $q1
16     ; CHECK-NEXT: [[SHUF:%[0-9]+]]:_(<4 x s32>) = G_SHUFFLE_VECTOR [[COPY]](<4 x s32>), [[COPY1]], shufflemask(0, 0, 0, 0)
17     ; CHECK-NEXT: $q0 = COPY [[SHUF]](<4 x s32>)
18     ; CHECK-NEXT: RET_ReallyLR implicit $q0
19     %0:_(<4 x s32>) = COPY $q0
20     %1:_(<4 x s32>) = COPY $q1
21     %2:_(<4 x s32>) = G_SHUFFLE_VECTOR %0(<4 x s32>), %1, shufflemask(0, 0, 0, 0)
22     $q0 = COPY %2(<4 x s32>)
23     RET_ReallyLR implicit $q0
25 ...
26 ---
27 name:            shuffle_v2i64
28 alignment:       4
29 tracksRegLiveness: true
30 body:             |
31   bb.1:
32     liveins: $q0, $q1
34     ; CHECK-LABEL: name: shuffle_v2i64
35     ; CHECK: liveins: $q0, $q1
36     ; CHECK-NEXT: {{  $}}
37     ; CHECK-NEXT: [[COPY:%[0-9]+]]:_(<2 x s64>) = COPY $q0
38     ; CHECK-NEXT: [[COPY1:%[0-9]+]]:_(<2 x s64>) = COPY $q1
39     ; CHECK-NEXT: [[SHUF:%[0-9]+]]:_(<2 x s64>) = G_SHUFFLE_VECTOR [[COPY]](<2 x s64>), [[COPY1]], shufflemask(0, 0)
40     ; CHECK-NEXT: $q0 = COPY [[SHUF]](<2 x s64>)
41     ; CHECK-NEXT: RET_ReallyLR implicit $q0
42     %0:_(<2 x s64>) = COPY $q0
43     %1:_(<2 x s64>) = COPY $q1
44     %2:_(<2 x s64>) = G_SHUFFLE_VECTOR %0(<2 x s64>), %1, shufflemask(0, 0)
45     $q0 = COPY %2(<2 x s64>)
46     RET_ReallyLR implicit $q0
48 ...
49 ---
50 name:            shuffle_v2p0
51 alignment:       4
52 tracksRegLiveness: true
53 body:             |
54   bb.1:
55     liveins: $q0, $q1
57     ; CHECK-LABEL: name: shuffle_v2p0
58     ; CHECK: liveins: $q0, $q1
59     ; CHECK-NEXT: {{  $}}
60     ; CHECK-NEXT: [[COPY:%[0-9]+]]:_(<2 x p0>) = COPY $q0
61     ; CHECK-NEXT: [[COPY1:%[0-9]+]]:_(<2 x p0>) = COPY $q1
62     ; CHECK-NEXT: [[SHUF:%[0-9]+]]:_(<2 x p0>) = G_SHUFFLE_VECTOR [[COPY]](<2 x p0>), [[COPY1]], shufflemask(0, 0)
63     ; CHECK-NEXT: $q0 = COPY [[SHUF]](<2 x p0>)
64     ; CHECK-NEXT: RET_ReallyLR implicit $q0
65     %0:_(<2 x p0>) = COPY $q0
66     %1:_(<2 x p0>) = COPY $q1
67     %2:_(<2 x p0>) = G_SHUFFLE_VECTOR %0(<2 x p0>), %1, shufflemask(0, 0)
68     $q0 = COPY %2(<2 x p0>)
69     RET_ReallyLR implicit $q0
71 ...
72 ---
73 name:            shuffle_v16i8
74 alignment:       4
75 tracksRegLiveness: true
76 body:             |
77   bb.1:
78     liveins: $q0, $q1
80     ; CHECK-LABEL: name: shuffle_v16i8
81     ; CHECK: liveins: $q0, $q1
82     ; CHECK-NEXT: {{  $}}
83     ; CHECK-NEXT: [[COPY:%[0-9]+]]:_(<16 x s8>) = COPY $q0
84     ; CHECK-NEXT: [[COPY1:%[0-9]+]]:_(<16 x s8>) = COPY $q1
85     ; CHECK-NEXT: [[SHUF:%[0-9]+]]:_(<16 x s8>) = G_SHUFFLE_VECTOR [[COPY]](<16 x s8>), [[COPY1]], shufflemask(0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0)
86     ; CHECK-NEXT: $q0 = COPY [[SHUF]](<16 x s8>)
87     ; CHECK-NEXT: RET_ReallyLR implicit $q0
88     %0:_(<16 x s8>) = COPY $q0
89     %1:_(<16 x s8>) = COPY $q1
90     %2:_(<16 x s8>) = G_SHUFFLE_VECTOR %0(<16 x s8>), %1, shufflemask(0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0)
91     $q0 = COPY %2(<16 x s8>)
92     RET_ReallyLR implicit $q0
94 ...
95 ---
96 name:            shuffle_v8i16
97 alignment:       4
98 tracksRegLiveness: true
99 body:             |
100   bb.1:
101     liveins: $q0, $q1
103     ; CHECK-LABEL: name: shuffle_v8i16
104     ; CHECK: liveins: $q0, $q1
105     ; CHECK-NEXT: {{  $}}
106     ; CHECK-NEXT: [[COPY:%[0-9]+]]:_(<8 x s16>) = COPY $q0
107     ; CHECK-NEXT: [[COPY1:%[0-9]+]]:_(<8 x s16>) = COPY $q1
108     ; CHECK-NEXT: [[SHUF:%[0-9]+]]:_(<8 x s16>) = G_SHUFFLE_VECTOR [[COPY]](<8 x s16>), [[COPY1]], shufflemask(0, 0, 0, 0, 0, 0, 0, 0)
109     ; CHECK-NEXT: $q0 = COPY [[SHUF]](<8 x s16>)
110     ; CHECK-NEXT: RET_ReallyLR implicit $q0
111     %0:_(<8 x s16>) = COPY $q0
112     %1:_(<8 x s16>) = COPY $q1
113     %2:_(<8 x s16>) = G_SHUFFLE_VECTOR %0(<8 x s16>), %1, shufflemask(0, 0, 0, 0, 0, 0, 0, 0)
114     $q0 = COPY %2(<8 x s16>)
115     RET_ReallyLR implicit $q0
119 name:            shuffle_1elt_mask
120 alignment:       4
121 tracksRegLiveness: true
122 body:             |
123   bb.1:
124     liveins: $d0, $d1
126     ; CHECK-LABEL: name: shuffle_1elt_mask
127     ; CHECK: liveins: $d0, $d1
128     ; CHECK-NEXT: {{  $}}
129     ; CHECK-NEXT: [[COPY:%[0-9]+]]:_(s64) = COPY $d0
130     ; CHECK-NEXT: [[COPY1:%[0-9]+]]:_(s64) = COPY $d1
131     ; CHECK-NEXT: [[COPY2:%[0-9]+]]:_(s64) = COPY [[COPY]](s64)
132     ; CHECK-NEXT: [[COPY3:%[0-9]+]]:_(s64) = COPY [[COPY1]](s64)
133     ; CHECK-NEXT: $d0 = COPY [[COPY2]](s64)
134     ; CHECK-NEXT: $d1 = COPY [[COPY3]](s64)
135     ; CHECK-NEXT: RET_ReallyLR implicit $d0, implicit $d1
136     %0:_(s64) = COPY $d0
137     %1:_(s64) = COPY $d1
138     %3:_(s64) = G_SHUFFLE_VECTOR %0:_(s64), %1:_, shufflemask(0)
139     %4:_(s64) = G_SHUFFLE_VECTOR %0:_(s64), %1:_, shufflemask(1)
140     $d0 = COPY %3(s64)
141     $d1 = COPY %4(s64)
142     RET_ReallyLR implicit $d0, implicit $d1
146 name:            oversize_shuffle_v4i64
147 alignment:       4
148 tracksRegLiveness: true
149 body:             |
150   bb.1:
151     liveins: $q0, $q1, $q2, $q3, $x0
153     ; CHECK-LABEL: name: oversize_shuffle_v4i64
154     ; CHECK: liveins: $q0, $q1, $q2, $q3, $x0
155     ; CHECK-NEXT: {{  $}}
156     ; CHECK-NEXT: [[COPY:%[0-9]+]]:_(<2 x s64>) = COPY $q0
157     ; CHECK-NEXT: [[COPY1:%[0-9]+]]:_(<2 x s64>) = COPY $q1
158     ; CHECK-NEXT: [[COPY2:%[0-9]+]]:_(<2 x s64>) = COPY $q2
159     ; CHECK-NEXT: [[COPY3:%[0-9]+]]:_(<2 x s64>) = COPY $q3
160     ; CHECK-NEXT: [[COPY4:%[0-9]+]]:_(p0) = COPY $x0
161     ; CHECK-NEXT: [[SHUF:%[0-9]+]]:_(<2 x s64>) = G_SHUFFLE_VECTOR [[COPY1]](<2 x s64>), [[COPY2]], shufflemask(1, 2)
162     ; CHECK-NEXT: [[SHUF1:%[0-9]+]]:_(<2 x s64>) = G_SHUFFLE_VECTOR [[COPY3]](<2 x s64>), [[COPY]], shufflemask(1, 2)
163     ; CHECK-NEXT: G_STORE [[SHUF]](<2 x s64>), [[COPY4]](p0) :: (store (<2 x s64>), align 32)
164     ; CHECK-NEXT: [[C:%[0-9]+]]:_(s64) = G_CONSTANT i64 16
165     ; CHECK-NEXT: [[PTR_ADD:%[0-9]+]]:_(p0) = G_PTR_ADD [[COPY4]], [[C]](s64)
166     ; CHECK-NEXT: G_STORE [[SHUF1]](<2 x s64>), [[PTR_ADD]](p0) :: (store (<2 x s64>) into unknown-address + 16)
167     ; CHECK-NEXT: RET_ReallyLR
168     %3:_(<2 x s64>) = COPY $q0
169     %4:_(<2 x s64>) = COPY $q1
170     %0:_(<4 x s64>) = G_CONCAT_VECTORS %3(<2 x s64>), %4(<2 x s64>)
171     %5:_(<2 x s64>) = COPY $q2
172     %6:_(<2 x s64>) = COPY $q3
173     %1:_(<4 x s64>) = G_CONCAT_VECTORS %5(<2 x s64>), %6(<2 x s64>)
174     %2:_(p0) = COPY $x0
175     %7:_(<4 x s64>) = G_SHUFFLE_VECTOR %0(<4 x s64>), %1, shufflemask(3, 4, 7, 0)
176     G_STORE %7(<4 x s64>), %2(p0) :: (store (<4 x s64>))
177     RET_ReallyLR
181 name:            oversize_shuffle_v8i32_build_vector
182 alignment:       4
183 tracksRegLiveness: true
184 body:             |
185   bb.1:
186     liveins: $q0, $q1, $q2, $q3, $x0
188     ; CHECK-LABEL: name: oversize_shuffle_v8i32_build_vector
189     ; CHECK: liveins: $q0, $q1, $q2, $q3, $x0
190     ; CHECK-NEXT: {{  $}}
191     ; CHECK-NEXT: [[COPY:%[0-9]+]]:_(<4 x s32>) = COPY $q0
192     ; CHECK-NEXT: [[COPY1:%[0-9]+]]:_(<4 x s32>) = COPY $q1
193     ; CHECK-NEXT: [[COPY2:%[0-9]+]]:_(<4 x s32>) = COPY $q2
194     ; CHECK-NEXT: [[COPY3:%[0-9]+]]:_(<4 x s32>) = COPY $q3
195     ; CHECK-NEXT: [[COPY4:%[0-9]+]]:_(p0) = COPY $x0
196     ; CHECK-NEXT: [[C:%[0-9]+]]:_(s64) = G_CONSTANT i64 0
197     ; CHECK-NEXT: [[EVEC:%[0-9]+]]:_(s32) = G_EXTRACT_VECTOR_ELT [[COPY]](<4 x s32>), [[C]](s64)
198     ; CHECK-NEXT: [[C1:%[0-9]+]]:_(s64) = G_CONSTANT i64 1
199     ; CHECK-NEXT: [[EVEC1:%[0-9]+]]:_(s32) = G_EXTRACT_VECTOR_ELT [[COPY1]](<4 x s32>), [[C1]](s64)
200     ; CHECK-NEXT: [[C2:%[0-9]+]]:_(s64) = G_CONSTANT i64 2
201     ; CHECK-NEXT: [[EVEC2:%[0-9]+]]:_(s32) = G_EXTRACT_VECTOR_ELT [[COPY2]](<4 x s32>), [[C2]](s64)
202     ; CHECK-NEXT: [[C3:%[0-9]+]]:_(s64) = G_CONSTANT i64 3
203     ; CHECK-NEXT: [[EVEC3:%[0-9]+]]:_(s32) = G_EXTRACT_VECTOR_ELT [[COPY3]](<4 x s32>), [[C3]](s64)
204     ; CHECK-NEXT: [[BUILD_VECTOR:%[0-9]+]]:_(<4 x s32>) = G_BUILD_VECTOR [[EVEC]](s32), [[EVEC1]](s32), [[EVEC2]](s32), [[EVEC3]](s32)
205     ; CHECK-NEXT: [[SHUF:%[0-9]+]]:_(<4 x s32>) = G_SHUFFLE_VECTOR [[COPY1]](<4 x s32>), [[COPY]], shufflemask(2, 6, 5, 3)
206     ; CHECK-NEXT: G_STORE [[BUILD_VECTOR]](<4 x s32>), [[COPY4]](p0) :: (store (<4 x s32>), align 32)
207     ; CHECK-NEXT: [[C4:%[0-9]+]]:_(s64) = G_CONSTANT i64 16
208     ; CHECK-NEXT: [[PTR_ADD:%[0-9]+]]:_(p0) = G_PTR_ADD [[COPY4]], [[C4]](s64)
209     ; CHECK-NEXT: G_STORE [[SHUF]](<4 x s32>), [[PTR_ADD]](p0) :: (store (<4 x s32>) into unknown-address + 16)
210     ; CHECK-NEXT: RET_ReallyLR
211     %3:_(<4 x s32>) = COPY $q0
212     %4:_(<4 x s32>) = COPY $q1
213     %0:_(<8 x s32>) = G_CONCAT_VECTORS %3(<4 x s32>), %4(<4 x s32>)
214     %5:_(<4 x s32>) = COPY $q2
215     %6:_(<4 x s32>) = COPY $q3
216     %1:_(<8 x s32>) = G_CONCAT_VECTORS %5(<4 x s32>), %6(<4 x s32>)
217     %2:_(p0) = COPY $x0
218     %7:_(<8 x s32>) = G_SHUFFLE_VECTOR %0(<8 x s32>), %1, shufflemask(0, 5, 10, 15, 6, 2, 1, 7)
219     G_STORE %7(<8 x s32>), %2(p0) :: (store (<8 x s32>))
220     RET_ReallyLR
224 name:            oversize_shuffle_v6i64
225 alignment:       4
226 tracksRegLiveness: true
227 frameInfo:
228   maxAlignment:    8
229 fixedStack:
230   - { id: 0, offset: 24, size: 8, alignment: 8, isImmutable: true }
231   - { id: 1, offset: 16, size: 8, alignment: 16, isImmutable: true }
232   - { id: 2, offset: 8, size: 8, alignment: 8, isImmutable: true }
233   - { id: 3, size: 8, alignment: 16, isImmutable: true }
234 body:             |
235   bb.1:
236     liveins: $d0, $d1, $d2, $d3, $d4, $d5, $d6, $d7, $x0
238     ; CHECK-LABEL: name: oversize_shuffle_v6i64
239     ; CHECK: liveins: $d0, $d1, $d2, $d3, $d4, $d5, $d6, $d7, $x0
240     ; CHECK-NEXT: {{  $}}
241     ; CHECK-NEXT: [[COPY:%[0-9]+]]:_(s64) = COPY $d0
242     ; CHECK-NEXT: [[COPY1:%[0-9]+]]:_(s64) = COPY $d1
243     ; CHECK-NEXT: [[COPY2:%[0-9]+]]:_(s64) = COPY $d2
244     ; CHECK-NEXT: [[COPY3:%[0-9]+]]:_(s64) = COPY $d3
245     ; CHECK-NEXT: [[COPY4:%[0-9]+]]:_(s64) = COPY $d4
246     ; CHECK-NEXT: [[COPY5:%[0-9]+]]:_(s64) = COPY $d5
247     ; CHECK-NEXT: [[COPY6:%[0-9]+]]:_(s64) = COPY $d6
248     ; CHECK-NEXT: [[COPY7:%[0-9]+]]:_(s64) = COPY $d7
249     ; CHECK-NEXT: [[FRAME_INDEX:%[0-9]+]]:_(p0) = G_FRAME_INDEX %fixed-stack.2
250     ; CHECK-NEXT: [[LOAD:%[0-9]+]]:_(s64) = G_LOAD [[FRAME_INDEX]](p0) :: (invariant load (s64) from %fixed-stack.2, align 16)
251     ; CHECK-NEXT: [[FRAME_INDEX1:%[0-9]+]]:_(p0) = G_FRAME_INDEX %fixed-stack.3
252     ; CHECK-NEXT: [[LOAD1:%[0-9]+]]:_(s64) = G_LOAD [[FRAME_INDEX1]](p0) :: (invariant load (s64) from %fixed-stack.3)
253     ; CHECK-NEXT: [[COPY8:%[0-9]+]]:_(p0) = COPY $x0
254     ; CHECK-NEXT: [[BUILD_VECTOR:%[0-9]+]]:_(<2 x s64>) = G_BUILD_VECTOR [[COPY2]](s64), [[COPY3]](s64)
255     ; CHECK-NEXT: [[BUILD_VECTOR1:%[0-9]+]]:_(<2 x s64>) = G_BUILD_VECTOR [[COPY4]](s64), [[COPY5]](s64)
256     ; CHECK-NEXT: [[BUILD_VECTOR2:%[0-9]+]]:_(<2 x s64>) = G_BUILD_VECTOR [[COPY]](s64), [[COPY1]](s64)
257     ; CHECK-NEXT: [[BUILD_VECTOR3:%[0-9]+]]:_(<2 x s64>) = G_BUILD_VECTOR [[COPY]](s64), [[COPY1]](s64)
258     ; CHECK-NEXT: [[BUILD_VECTOR4:%[0-9]+]]:_(<2 x s64>) = G_BUILD_VECTOR [[COPY6]](s64), [[COPY7]](s64)
259     ; CHECK-NEXT: [[BUILD_VECTOR5:%[0-9]+]]:_(<2 x s64>) = G_BUILD_VECTOR [[LOAD]](s64), [[LOAD1]](s64)
260     ; CHECK-NEXT: [[C:%[0-9]+]]:_(s64) = G_CONSTANT i64 1
261     ; CHECK-NEXT: [[EVEC:%[0-9]+]]:_(s64) = G_EXTRACT_VECTOR_ELT [[BUILD_VECTOR]](<2 x s64>), [[C]](s64)
262     ; CHECK-NEXT: [[C1:%[0-9]+]]:_(s64) = G_CONSTANT i64 0
263     ; CHECK-NEXT: [[EVEC1:%[0-9]+]]:_(s64) = G_EXTRACT_VECTOR_ELT [[BUILD_VECTOR1]](<2 x s64>), [[C1]](s64)
264     ; CHECK-NEXT: [[EVEC2:%[0-9]+]]:_(s64) = G_EXTRACT_VECTOR_ELT [[BUILD_VECTOR4]](<2 x s64>), [[C]](s64)
265     ; CHECK-NEXT: [[EVEC3:%[0-9]+]]:_(s64) = G_EXTRACT_VECTOR_ELT [[BUILD_VECTOR2]](<2 x s64>), [[C1]](s64)
266     ; CHECK-NEXT: [[SHUF:%[0-9]+]]:_(<2 x s64>) = G_SHUFFLE_VECTOR [[BUILD_VECTOR3]](<2 x s64>), [[BUILD_VECTOR5]], shufflemask(1, 3)
267     ; CHECK-NEXT: [[BUILD_VECTOR6:%[0-9]+]]:_(<2 x s64>) = G_BUILD_VECTOR [[EVEC]](s64), [[EVEC1]](s64)
268     ; CHECK-NEXT: [[BUILD_VECTOR7:%[0-9]+]]:_(<2 x s64>) = G_BUILD_VECTOR [[EVEC2]](s64), [[EVEC3]](s64)
269     ; CHECK-NEXT: G_STORE [[BUILD_VECTOR6]](<2 x s64>), [[COPY8]](p0) :: (store (<2 x s64>), align 64)
270     ; CHECK-NEXT: [[C2:%[0-9]+]]:_(s64) = G_CONSTANT i64 16
271     ; CHECK-NEXT: [[PTR_ADD:%[0-9]+]]:_(p0) = G_PTR_ADD [[COPY8]], [[C2]](s64)
272     ; CHECK-NEXT: G_STORE [[BUILD_VECTOR7]](<2 x s64>), [[PTR_ADD]](p0) :: (store (<2 x s64>) into unknown-address + 16)
273     ; CHECK-NEXT: [[C3:%[0-9]+]]:_(s64) = G_CONSTANT i64 32
274     ; CHECK-NEXT: [[PTR_ADD1:%[0-9]+]]:_(p0) = G_PTR_ADD [[COPY8]], [[C3]](s64)
275     ; CHECK-NEXT: G_STORE [[SHUF]](<2 x s64>), [[PTR_ADD1]](p0) :: (store (<2 x s64>) into unknown-address + 32, align 32)
276     ; CHECK-NEXT: RET_ReallyLR
277     %3:_(s64) = COPY $d0
278     %4:_(s64) = COPY $d1
279     %5:_(s64) = COPY $d2
280     %6:_(s64) = COPY $d3
281     %7:_(s64) = COPY $d4
282     %8:_(s64) = COPY $d5
283     %0:_(<6 x s64>) = G_BUILD_VECTOR %3(s64), %4(s64), %5(s64), %6(s64), %7(s64), %8(s64)
284     %9:_(s64) = COPY $d6
285     %10:_(s64) = COPY $d7
286     %15:_(p0) = G_FRAME_INDEX %fixed-stack.3
287     %11:_(s64) = G_LOAD %15(p0) :: (invariant load (s64) from %fixed-stack.3, align 16)
288     %16:_(p0) = G_FRAME_INDEX %fixed-stack.2
289     %12:_(s64) = G_LOAD %16(p0) :: (invariant load (s64) from %fixed-stack.2)
290     %17:_(p0) = G_FRAME_INDEX %fixed-stack.1
291     %13:_(s64) = G_LOAD %17(p0) :: (invariant load 8 from %fixed-stack.1, align 16)
292     %18:_(p0) = G_FRAME_INDEX %fixed-stack.0
293     %14:_(s64) = G_LOAD %18(p0) :: (invariant load 8 from %fixed-stack.0)
294     %1:_(<6 x s64>) = G_BUILD_VECTOR %9(s64), %10(s64), %11(s64), %12(s64), %13(s64), %14(s64)
295     %2:_(p0) = COPY $x0
296     %19:_(<6 x s64>) = G_SHUFFLE_VECTOR %0(<6 x s64>), %1, shufflemask(3, 4, 7, 0, 1, 11)
297     G_STORE %19(<6 x s64>), %2(p0) :: (store (<6 x s64>), align 64)
298     RET_ReallyLR
302 name:            shuffle_v4i32_v1i32
303 alignment:       4
304 tracksRegLiveness: true
305 body:             |
306   bb.1:
307     liveins: $w0, $w1, $w2
309     ; CHECK-LABEL: name: shuffle_v4i32_v1i32
310     ; CHECK: liveins: $w0, $w1, $w2
311     ; CHECK-NEXT: {{  $}}
312     ; CHECK-NEXT: [[COPY:%[0-9]+]]:_(s32) = COPY $w0
313     ; CHECK-NEXT: [[COPY1:%[0-9]+]]:_(s32) = COPY $w1
314     ; CHECK-NEXT: [[COPY2:%[0-9]+]]:_(s32) = COPY $w2
315     ; CHECK-NEXT: [[DEF:%[0-9]+]]:_(s32) = G_IMPLICIT_DEF
316     ; CHECK-NEXT: [[BUILD_VECTOR:%[0-9]+]]:_(<4 x s32>) = G_BUILD_VECTOR [[COPY]](s32), [[COPY1]](s32), [[COPY2]](s32), [[DEF]](s32)
317     ; CHECK-NEXT: [[BUILD_VECTOR1:%[0-9]+]]:_(<4 x s32>) = G_BUILD_VECTOR [[COPY]](s32), [[COPY1]](s32), [[COPY2]](s32), [[DEF]](s32)
318     ; CHECK-NEXT: [[SHUF:%[0-9]+]]:_(<4 x s32>) = G_SHUFFLE_VECTOR [[BUILD_VECTOR]](<4 x s32>), [[BUILD_VECTOR1]], shufflemask(0, 1, 5, 6)
319     %0:_(s32) = COPY $w0
320     %1:_(s32) = COPY $w1
321     %2:_(s32) = COPY $w2
322     %3:_(<3 x s32>) = G_BUILD_VECTOR %0(s32), %1(s32), %2(s32)
323     %4:_(<4 x s32>) = G_SHUFFLE_VECTOR %3(<3 x s32>), %3, shufflemask(0, 1, 4, 5)
324     $q0 = COPY %4(<4 x s32>)
325     RET_ReallyLR implicit $q0
329 name:            shuffle_v4i32_v2i32
330 alignment:       4
331 tracksRegLiveness: true
332 body:             |
333   bb.1:
334     liveins: $q0, $d1
336     ; CHECK-LABEL: name: shuffle_v4i32_v2i32
337     ; CHECK: liveins: $q0, $d1
338     ; CHECK-NEXT: {{  $}}
339     ; CHECK-NEXT: [[COPY:%[0-9]+]]:_(<2 x s32>) = COPY $d0
340     ; CHECK-NEXT: [[COPY1:%[0-9]+]]:_(<2 x s32>) = COPY $d1
341     ; CHECK-NEXT: [[DEF:%[0-9]+]]:_(<2 x s32>) = G_IMPLICIT_DEF
342     ; CHECK-NEXT: [[CONCAT_VECTORS:%[0-9]+]]:_(<4 x s32>) = G_CONCAT_VECTORS [[COPY]](<2 x s32>), [[DEF]](<2 x s32>)
343     ; CHECK-NEXT: [[CONCAT_VECTORS1:%[0-9]+]]:_(<4 x s32>) = G_CONCAT_VECTORS [[COPY1]](<2 x s32>), [[DEF]](<2 x s32>)
344     ; CHECK-NEXT: [[SHUF:%[0-9]+]]:_(<4 x s32>) = G_SHUFFLE_VECTOR [[CONCAT_VECTORS]](<4 x s32>), [[CONCAT_VECTORS1]], shufflemask(0, 1, 4, 5)
345     ; CHECK-NEXT: $q0 = COPY [[SHUF]](<4 x s32>)
346     ; CHECK-NEXT: RET_ReallyLR implicit $q0
347     %0:_(<2 x s32>) = COPY $d0
348     %1:_(<2 x s32>) = COPY $d1
349     %2:_(<4 x s32>) = G_SHUFFLE_VECTOR %0(<2 x s32>), %1, shufflemask(0, 1, 2, 3)
350     $q0 = COPY %2(<4 x s32>)
351     RET_ReallyLR implicit $q0
355 name:            shuffle_v8i16_v4i16
356 alignment:       4
357 tracksRegLiveness: true
358 body:             |
359   bb.1:
360     liveins: $d0, $d1
362     ; CHECK-LABEL: name: shuffle_v8i16_v4i16
363     ; CHECK: liveins: $d0, $d1
364     ; CHECK-NEXT: {{  $}}
365     ; CHECK-NEXT: [[COPY:%[0-9]+]]:_(<4 x s16>) = COPY $d0
366     ; CHECK-NEXT: [[COPY1:%[0-9]+]]:_(<4 x s16>) = COPY $d1
367     ; CHECK-NEXT: [[DEF:%[0-9]+]]:_(<4 x s16>) = G_IMPLICIT_DEF
368     ; CHECK-NEXT: [[CONCAT_VECTORS:%[0-9]+]]:_(<8 x s16>) = G_CONCAT_VECTORS [[COPY]](<4 x s16>), [[DEF]](<4 x s16>)
369     ; CHECK-NEXT: [[CONCAT_VECTORS1:%[0-9]+]]:_(<8 x s16>) = G_CONCAT_VECTORS [[COPY1]](<4 x s16>), [[DEF]](<4 x s16>)
370     ; CHECK-NEXT: [[SHUF:%[0-9]+]]:_(<8 x s16>) = G_SHUFFLE_VECTOR [[CONCAT_VECTORS]](<8 x s16>), [[CONCAT_VECTORS1]], shufflemask(11, 10, 9, 8, 3, 2, 1, 0)
371     ; CHECK-NEXT: $q0 = COPY [[SHUF]](<8 x s16>)
372     ; CHECK-NEXT: RET_ReallyLR implicit $q0
373     %0:_(<4 x s16>) = COPY $d0
374     %1:_(<4 x s16>) = COPY $d1
375     %2:_(<8 x s16>) = G_SHUFFLE_VECTOR %0(<4 x s16>), %1, shufflemask(7, 6, 5, 4, 3, 2, 1, 0)
376     $q0 = COPY %2(<8 x s16>)
377     RET_ReallyLR implicit $q0
381 name:            shuffle_v16i8_v8i8
382 alignment:       4
383 tracksRegLiveness: true
384 body:             |
385   bb.1:
386     liveins: $d0, $d1
388     ; CHECK-LABEL: name: shuffle_v16i8_v8i8
389     ; CHECK: liveins: $d0, $d1
390     ; CHECK-NEXT: {{  $}}
391     ; CHECK-NEXT: [[COPY:%[0-9]+]]:_(<8 x s8>) = COPY $d0
392     ; CHECK-NEXT: [[COPY1:%[0-9]+]]:_(<8 x s8>) = COPY $d1
393     ; CHECK-NEXT: [[DEF:%[0-9]+]]:_(<8 x s8>) = G_IMPLICIT_DEF
394     ; CHECK-NEXT: [[CONCAT_VECTORS:%[0-9]+]]:_(<16 x s8>) = G_CONCAT_VECTORS [[COPY]](<8 x s8>), [[DEF]](<8 x s8>)
395     ; CHECK-NEXT: [[CONCAT_VECTORS1:%[0-9]+]]:_(<16 x s8>) = G_CONCAT_VECTORS [[COPY1]](<8 x s8>), [[DEF]](<8 x s8>)
396     ; CHECK-NEXT: [[SHUF:%[0-9]+]]:_(<16 x s8>) = G_SHUFFLE_VECTOR [[CONCAT_VECTORS]](<16 x s8>), [[CONCAT_VECTORS1]], shufflemask(7, 21, 6, 4, 5, 3, 0, 0, 0, 0, 0, 0, 0, 0, 23, 0)
397     ; CHECK-NEXT: $q0 = COPY [[SHUF]](<16 x s8>)
398     ; CHECK-NEXT: RET_ReallyLR implicit $q0
399     %0:_(<8 x s8>) = COPY $d0
400     %1:_(<8 x s8>) = COPY $d1
401     %2:_(<16 x s8>) = G_SHUFFLE_VECTOR %0(<8 x s8>), %1, shufflemask(7, 13, 6, 4, 5, 3, 0, 0, 0, 0, 0, 0, 0, 0, 15, 0)
402     $q0 = COPY %2(<16 x s8>)
403     RET_ReallyLR implicit $q0
407 name:            size_shuffle_v6i32_v4i32
408 alignment:       4
409 tracksRegLiveness: true
410 body:             |
411   bb.1:
412     liveins: $s0, $s1, $s2, $s3, $s4, $s5, $s6, $s7, $x0
414     ; CHECK-LABEL: name: size_shuffle_v6i32_v4i32
415     ; CHECK: liveins: $s0, $s1, $s2, $s3, $s4, $s5, $s6, $s7, $x0
416     ; CHECK-NEXT: {{  $}}
417     ; CHECK-NEXT: [[COPY:%[0-9]+]]:_(s32) = COPY $s0
418     ; CHECK-NEXT: [[COPY1:%[0-9]+]]:_(s32) = COPY $s1
419     ; CHECK-NEXT: [[COPY2:%[0-9]+]]:_(s32) = COPY $s2
420     ; CHECK-NEXT: [[COPY3:%[0-9]+]]:_(s32) = COPY $s3
421     ; CHECK-NEXT: [[BUILD_VECTOR:%[0-9]+]]:_(<4 x s32>) = G_BUILD_VECTOR [[COPY]](s32), [[COPY1]](s32), [[COPY2]](s32), [[COPY3]](s32)
422     ; CHECK-NEXT: [[COPY4:%[0-9]+]]:_(s32) = COPY $s4
423     ; CHECK-NEXT: [[COPY5:%[0-9]+]]:_(s32) = COPY $s5
424     ; CHECK-NEXT: [[COPY6:%[0-9]+]]:_(s32) = COPY $s6
425     ; CHECK-NEXT: [[COPY7:%[0-9]+]]:_(s32) = COPY $s7
426     ; CHECK-NEXT: [[BUILD_VECTOR1:%[0-9]+]]:_(<4 x s32>) = G_BUILD_VECTOR [[COPY4]](s32), [[COPY5]](s32), [[COPY6]](s32), [[COPY7]](s32)
427     ; CHECK-NEXT: [[COPY8:%[0-9]+]]:_(p0) = COPY $x0
428     ; CHECK-NEXT: [[SHUF:%[0-9]+]]:_(<4 x s32>) = G_SHUFFLE_VECTOR [[BUILD_VECTOR]](<4 x s32>), [[BUILD_VECTOR1]], shufflemask(3, 4, 7, 0)
429     ; CHECK-NEXT: [[SHUF1:%[0-9]+]]:_(<4 x s32>) = G_SHUFFLE_VECTOR [[BUILD_VECTOR]](<4 x s32>), [[BUILD_VECTOR1]], shufflemask(1, 5, undef, undef)
430     ; CHECK-NEXT: [[C:%[0-9]+]]:_(s64) = G_CONSTANT i64 0
431     ; CHECK-NEXT: [[EVEC:%[0-9]+]]:_(s32) = G_EXTRACT_VECTOR_ELT [[SHUF]](<4 x s32>), [[C]](s64)
432     ; CHECK-NEXT: [[C1:%[0-9]+]]:_(s64) = G_CONSTANT i64 1
433     ; CHECK-NEXT: [[EVEC1:%[0-9]+]]:_(s32) = G_EXTRACT_VECTOR_ELT [[SHUF]](<4 x s32>), [[C1]](s64)
434     ; CHECK-NEXT: [[C2:%[0-9]+]]:_(s64) = G_CONSTANT i64 2
435     ; CHECK-NEXT: [[EVEC2:%[0-9]+]]:_(s32) = G_EXTRACT_VECTOR_ELT [[SHUF]](<4 x s32>), [[C2]](s64)
436     ; CHECK-NEXT: [[C3:%[0-9]+]]:_(s64) = G_CONSTANT i64 3
437     ; CHECK-NEXT: [[EVEC3:%[0-9]+]]:_(s32) = G_EXTRACT_VECTOR_ELT [[SHUF]](<4 x s32>), [[C3]](s64)
438     ; CHECK-NEXT: [[EVEC4:%[0-9]+]]:_(s32) = G_EXTRACT_VECTOR_ELT [[SHUF1]](<4 x s32>), [[C]](s64)
439     ; CHECK-NEXT: [[EVEC5:%[0-9]+]]:_(s32) = G_EXTRACT_VECTOR_ELT [[SHUF1]](<4 x s32>), [[C1]](s64)
440     ; CHECK-NEXT: [[BUILD_VECTOR2:%[0-9]+]]:_(<4 x s32>) = G_BUILD_VECTOR [[EVEC]](s32), [[EVEC1]](s32), [[EVEC2]](s32), [[EVEC3]](s32)
441     ; CHECK-NEXT: [[BUILD_VECTOR3:%[0-9]+]]:_(<2 x s32>) = G_BUILD_VECTOR [[EVEC4]](s32), [[EVEC5]](s32)
442     ; CHECK-NEXT: G_STORE [[BUILD_VECTOR2]](<4 x s32>), [[COPY8]](p0) :: (store (<4 x s32>), align 32)
443     ; CHECK-NEXT: [[C4:%[0-9]+]]:_(s64) = G_CONSTANT i64 16
444     ; CHECK-NEXT: [[PTR_ADD:%[0-9]+]]:_(p0) = G_PTR_ADD [[COPY8]], [[C4]](s64)
445     ; CHECK-NEXT: G_STORE [[BUILD_VECTOR3]](<2 x s32>), [[PTR_ADD]](p0) :: (store (<2 x s32>) into unknown-address + 16, align 16)
446     ; CHECK-NEXT: RET_ReallyLR
447     %3:_(s32) = COPY $s0
448     %4:_(s32) = COPY $s1
449     %5:_(s32) = COPY $s2
450     %6:_(s32) = COPY $s3
451     %0:_(<4 x s32>) = G_BUILD_VECTOR %3(s32), %4(s32), %5(s32), %6(s32)
452     %7:_(s32) = COPY $s4
453     %8:_(s32) = COPY $s5
454     %9:_(s32) = COPY $s6
455     %10:_(s32) = COPY $s7
456     %1:_(<4 x s32>) = G_BUILD_VECTOR %7(s32), %8(s32), %9(s32), %10(s32)
457     %2:_(p0) = COPY $x0
458     %19:_(<6 x s32>) = G_SHUFFLE_VECTOR %0(<4 x s32>), %1, shufflemask(3, 4, 7, 0, 1, 5)
459     G_STORE %19(<6 x s32>), %2(p0) :: (store (<6 x s32>), align 32)
460     RET_ReallyLR
464 name:            shuffle_v3i32_v4i32
465 alignment:       4
466 tracksRegLiveness: true
467 body:             |
468   bb.1:
469     liveins: $q0, $q1
471     ; CHECK-LABEL: name: shuffle_v3i32_v4i32
472     ; CHECK: liveins: $q0, $q1
473     ; CHECK-NEXT: {{  $}}
474     ; CHECK-NEXT: [[COPY:%[0-9]+]]:_(<4 x s32>) = COPY $q0
475     ; CHECK-NEXT: [[COPY1:%[0-9]+]]:_(<4 x s32>) = COPY $q1
476     ; CHECK-NEXT: [[SHUF:%[0-9]+]]:_(<4 x s32>) = G_SHUFFLE_VECTOR [[COPY]](<4 x s32>), [[COPY1]], shufflemask(0, 1, 4, undef)
477     ; CHECK-NEXT: [[UV:%[0-9]+]]:_(s32), [[UV1:%[0-9]+]]:_(s32), [[UV2:%[0-9]+]]:_(s32), [[UV3:%[0-9]+]]:_(s32) = G_UNMERGE_VALUES [[SHUF]](<4 x s32>)
478     ; CHECK-NEXT: $w0 = COPY [[UV]](s32)
479     ; CHECK-NEXT: RET_ReallyLR implicit $w0
480     %0:_(<4 x s32>) = COPY $q0
481     %1:_(<4 x s32>) = COPY $q1
482     %2:_(<3 x s32>) = G_SHUFFLE_VECTOR %0(<4 x s32>), %1, shufflemask(0, 1, 4)
483     %3:_(s32), %4:_(s32), %5:_(s32) = G_UNMERGE_VALUES %2(<3 x s32>)
484     $w0 = COPY %3(s32)
485     RET_ReallyLR implicit $w0
489 name:            shuffle_v2i32_v4i32
490 alignment:       4
491 tracksRegLiveness: true
492 body:             |
493   bb.1:
494     liveins: $q0, $q1
496     ; CHECK-LABEL: name: shuffle_v2i32_v4i32
497     ; CHECK: liveins: $q0, $q1
498     ; CHECK-NEXT: {{  $}}
499     ; CHECK-NEXT: [[COPY:%[0-9]+]]:_(<4 x s32>) = COPY $q0
500     ; CHECK-NEXT: [[COPY1:%[0-9]+]]:_(<4 x s32>) = COPY $q1
501     ; CHECK-NEXT: [[SHUF:%[0-9]+]]:_(<4 x s32>) = G_SHUFFLE_VECTOR [[COPY]](<4 x s32>), [[COPY1]], shufflemask(0, 4, undef, undef)
502     ; CHECK-NEXT: [[UV:%[0-9]+]]:_(<2 x s32>), [[UV1:%[0-9]+]]:_(<2 x s32>) = G_UNMERGE_VALUES [[SHUF]](<4 x s32>)
503     ; CHECK-NEXT: $d0 = COPY [[UV]](<2 x s32>)
504     ; CHECK-NEXT: RET_ReallyLR implicit $d0
505     %0:_(<4 x s32>) = COPY $q0
506     %1:_(<4 x s32>) = COPY $q1
507     %2:_(<2 x s32>) = G_SHUFFLE_VECTOR %0(<4 x s32>), %1, shufflemask(0, 4)
508     $d0 = COPY %2(<2 x s32>)
509     RET_ReallyLR implicit $d0
513 name:            shuffle_v4i16_v8i16
514 alignment:       4
515 tracksRegLiveness: true
516 body:             |
517   bb.1:
518     liveins: $q0, $q1
520     ; CHECK-LABEL: name: shuffle_v4i16_v8i16
521     ; CHECK: liveins: $q0, $q1
522     ; CHECK-NEXT: {{  $}}
523     ; CHECK-NEXT: [[COPY:%[0-9]+]]:_(<8 x s16>) = COPY $q0
524     ; CHECK-NEXT: [[COPY1:%[0-9]+]]:_(<8 x s16>) = COPY $q1
525     ; CHECK-NEXT: [[SHUF:%[0-9]+]]:_(<8 x s16>) = G_SHUFFLE_VECTOR [[COPY]](<8 x s16>), [[COPY1]], shufflemask(15, 14, 13, 4, undef, undef, undef, undef)
526     ; CHECK-NEXT: [[UV:%[0-9]+]]:_(<4 x s16>), [[UV1:%[0-9]+]]:_(<4 x s16>) = G_UNMERGE_VALUES [[SHUF]](<8 x s16>)
527     ; CHECK-NEXT: $d0 = COPY [[UV]](<4 x s16>)
528     ; CHECK-NEXT: RET_ReallyLR implicit $d0
529     %0:_(<8 x s16>) = COPY $q0
530     %1:_(<8 x s16>) = COPY $q1
531     %2:_(<4 x s16>) = G_SHUFFLE_VECTOR %0(<8 x s16>), %1, shufflemask(15, 14, 13, 4)
532     $d0 = COPY %2(<4 x s16>)
533     RET_ReallyLR implicit $d0
537 name:            shuffle_v8i8_v16i8
538 alignment:       4
539 tracksRegLiveness: true
540 body:             |
541   bb.1:
542     liveins: $q0, $q1
544     ; CHECK-LABEL: name: shuffle_v8i8_v16i8
545     ; CHECK: liveins: $q0, $q1
546     ; CHECK-NEXT: {{  $}}
547     ; CHECK-NEXT: [[COPY:%[0-9]+]]:_(<16 x s8>) = COPY $q0
548     ; CHECK-NEXT: [[COPY1:%[0-9]+]]:_(<16 x s8>) = COPY $q1
549     ; CHECK-NEXT: [[SHUF:%[0-9]+]]:_(<16 x s8>) = G_SHUFFLE_VECTOR [[COPY]](<16 x s8>), [[COPY1]], shufflemask(7, 13, 6, 4, 17, 3, 0, 0, undef, undef, undef, undef, undef, undef, undef, undef)
550     ; CHECK-NEXT: [[UV:%[0-9]+]]:_(<8 x s8>), [[UV1:%[0-9]+]]:_(<8 x s8>) = G_UNMERGE_VALUES [[SHUF]](<16 x s8>)
551     ; CHECK-NEXT: $d0 = COPY [[UV]](<8 x s8>)
552     ; CHECK-NEXT: RET_ReallyLR implicit $d0
553     %0:_(<16 x s8>) = COPY $q0
554     %1:_(<16 x s8>) = COPY $q1
555     %2:_(<8 x s8>) = G_SHUFFLE_VECTOR %0(<16 x s8>), %1, shufflemask(7, 13, 6, 4, 17, 3, 0, 0)
556     $d0 = COPY %2(<8 x s8>)
557     RET_ReallyLR implicit $d0
561 name:            size_shuffle_v4i32_v6i32
562 alignment:       4
563 tracksRegLiveness: true
564 body:             |
565   bb.1:
566     liveins: $s0, $s1, $s2, $s3, $s4, $s5
568     ; CHECK-LABEL: name: size_shuffle_v4i32_v6i32
569     ; CHECK: liveins: $s0, $s1, $s2, $s3, $s4, $s5
570     ; CHECK-NEXT: {{  $}}
571     ; CHECK-NEXT: [[COPY:%[0-9]+]]:_(s32) = COPY $s0
572     ; CHECK-NEXT: [[COPY1:%[0-9]+]]:_(s32) = COPY $s1
573     ; CHECK-NEXT: [[COPY2:%[0-9]+]]:_(s32) = COPY $s2
574     ; CHECK-NEXT: [[COPY3:%[0-9]+]]:_(s32) = COPY $s3
575     ; CHECK-NEXT: [[COPY4:%[0-9]+]]:_(s32) = COPY $s4
576     ; CHECK-NEXT: [[COPY5:%[0-9]+]]:_(s32) = COPY $s5
577     ; CHECK-NEXT: [[DEF:%[0-9]+]]:_(s32) = G_IMPLICIT_DEF
578     ; CHECK-NEXT: [[BUILD_VECTOR:%[0-9]+]]:_(<4 x s32>) = G_BUILD_VECTOR [[COPY]](s32), [[COPY1]](s32), [[COPY2]](s32), [[COPY3]](s32)
579     ; CHECK-NEXT: [[BUILD_VECTOR1:%[0-9]+]]:_(<4 x s32>) = G_BUILD_VECTOR [[COPY4]](s32), [[COPY5]](s32), [[DEF]](s32), [[DEF]](s32)
580     ; CHECK-NEXT: [[BUILD_VECTOR2:%[0-9]+]]:_(<4 x s32>) = G_BUILD_VECTOR [[COPY]](s32), [[COPY1]](s32), [[COPY2]](s32), [[COPY3]](s32)
581     ; CHECK-NEXT: [[C:%[0-9]+]]:_(s64) = G_CONSTANT i64 3
582     ; CHECK-NEXT: [[EVEC:%[0-9]+]]:_(s32) = G_EXTRACT_VECTOR_ELT [[BUILD_VECTOR]](<4 x s32>), [[C]](s64)
583     ; CHECK-NEXT: [[C1:%[0-9]+]]:_(s64) = G_CONSTANT i64 0
584     ; CHECK-NEXT: [[EVEC1:%[0-9]+]]:_(s32) = G_EXTRACT_VECTOR_ELT [[BUILD_VECTOR1]](<4 x s32>), [[C1]](s64)
585     ; CHECK-NEXT: [[C2:%[0-9]+]]:_(s64) = G_CONSTANT i64 1
586     ; CHECK-NEXT: [[EVEC2:%[0-9]+]]:_(s32) = G_EXTRACT_VECTOR_ELT [[BUILD_VECTOR2]](<4 x s32>), [[C2]](s64)
587     ; CHECK-NEXT: [[COPY6:%[0-9]+]]:_(s64) = COPY [[C1]](s64)
588     ; CHECK-NEXT: [[EVEC3:%[0-9]+]]:_(s32) = G_EXTRACT_VECTOR_ELT [[BUILD_VECTOR]](<4 x s32>), [[COPY6]](s64)
589     ; CHECK-NEXT: [[BUILD_VECTOR3:%[0-9]+]]:_(<4 x s32>) = G_BUILD_VECTOR [[EVEC]](s32), [[EVEC1]](s32), [[EVEC2]](s32), [[EVEC3]](s32)
590     ; CHECK-NEXT: $q0 = COPY [[BUILD_VECTOR3]](<4 x s32>)
591     ; CHECK-NEXT: RET_ReallyLR implicit $q0
592     %3:_(s32) = COPY $s0
593     %4:_(s32) = COPY $s1
594     %5:_(s32) = COPY $s2
595     %6:_(s32) = COPY $s3
596     %7:_(s32) = COPY $s4
597     %8:_(s32) = COPY $s5
598     %0:_(<6 x s32>) = G_BUILD_VECTOR %3(s32), %4(s32), %5(s32), %6(s32), %7(s32), %8(s32)
599     %19:_(<4 x s32>) = G_SHUFFLE_VECTOR %0(<6 x s32>), %0, shufflemask(3, 4, 7, 0)
600     $q0 = COPY %19(<4 x s32>)
601     RET_ReallyLR implicit $q0