[ORC] Add std::tuple support to SimplePackedSerialization.
[llvm-project.git] / llvm / test / CodeGen / Thumb2 / mve-phireg.ll
blob8a1109950c03aaaac3fef602fe93d1e5eea95ddc
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc -O3 -mtriple=thumbv8.1m.main-none-none-eabi -mattr=+mve.fp --arm-memtransfer-tploop=allow -enable-arm-maskedgatscat=false -verify-machineinstrs %s -o - | FileCheck %s
4 ; verify-machineinstrs previously caught the incorrect use of QPR in the stack reloads.
6 define arm_aapcs_vfpcc void @k() {
7 ; CHECK-LABEL: k:
8 ; CHECK:       @ %bb.0: @ %entry
9 ; CHECK-NEXT:    .save {r4, r5, r6, r7, r8, r9, lr}
10 ; CHECK-NEXT:    push.w {r4, r5, r6, r7, r8, r9, lr}
11 ; CHECK-NEXT:    .pad #4
12 ; CHECK-NEXT:    sub sp, #4
13 ; CHECK-NEXT:    .vsave {d8, d9, d10, d11, d12, d13, d14}
14 ; CHECK-NEXT:    vpush {d8, d9, d10, d11, d12, d13, d14}
15 ; CHECK-NEXT:    .pad #16
16 ; CHECK-NEXT:    sub sp, #16
17 ; CHECK-NEXT:    adr.w r8, .LCPI0_0
18 ; CHECK-NEXT:    adr.w r9, .LCPI0_1
19 ; CHECK-NEXT:    vldrw.u32 q6, [r8]
20 ; CHECK-NEXT:    vldrw.u32 q5, [r9]
21 ; CHECK-NEXT:    vmov.i32 q0, #0x1
22 ; CHECK-NEXT:    vmov.i8 q1, #0x0
23 ; CHECK-NEXT:    vmov.i8 q2, #0xff
24 ; CHECK-NEXT:    vmov.i16 q3, #0x6
25 ; CHECK-NEXT:    vmov.i16 q4, #0x3
26 ; CHECK-NEXT:    mov.w r12, #0
27 ; CHECK-NEXT:  .LBB0_1: @ %vector.body
28 ; CHECK-NEXT:    @ =>This Inner Loop Header: Depth=1
29 ; CHECK-NEXT:    vand q6, q6, q0
30 ; CHECK-NEXT:    vand q5, q5, q0
31 ; CHECK-NEXT:    vcmp.i32 eq, q6, zr
32 ; CHECK-NEXT:    cmp.w r12, #0
33 ; CHECK-NEXT:    vpsel q6, q2, q1
34 ; CHECK-NEXT:    vcmp.i32 eq, q5, zr
35 ; CHECK-NEXT:    vpsel q5, q2, q1
36 ; CHECK-NEXT:    vmov r4, r0, d12
37 ; CHECK-NEXT:    vmov r3, r6, d10
38 ; CHECK-NEXT:    vmov r1, r2, d11
39 ; CHECK-NEXT:    vmov.16 q5[0], r3
40 ; CHECK-NEXT:    vmov.16 q5[1], r6
41 ; CHECK-NEXT:    vmov r5, r7, d13
42 ; CHECK-NEXT:    vmov.16 q5[2], r1
43 ; CHECK-NEXT:    vmov.16 q5[3], r2
44 ; CHECK-NEXT:    vmov.16 q5[4], r4
45 ; CHECK-NEXT:    vmov.16 q5[5], r0
46 ; CHECK-NEXT:    vmov.16 q5[6], r5
47 ; CHECK-NEXT:    vmov.16 q5[7], r7
48 ; CHECK-NEXT:    vcmp.i16 ne, q5, zr
49 ; CHECK-NEXT:    vmov.i32 q5, #0x0
50 ; CHECK-NEXT:    vpsel q6, q4, q3
51 ; CHECK-NEXT:    vstrh.16 q6, [r0]
52 ; CHECK-NEXT:    vmov q6, q5
53 ; CHECK-NEXT:    bne .LBB0_1
54 ; CHECK-NEXT:  @ %bb.2: @ %for.cond4.preheader
55 ; CHECK-NEXT:    movs r6, #0
56 ; CHECK-NEXT:    cbnz r6, .LBB0_5
57 ; CHECK-NEXT:  .LBB0_3: @ %for.body10
58 ; CHECK-NEXT:    @ =>This Inner Loop Header: Depth=1
59 ; CHECK-NEXT:    cbnz r6, .LBB0_4
60 ; CHECK-NEXT:    le .LBB0_3
61 ; CHECK-NEXT:  .LBB0_4: @ %for.cond4.loopexit
62 ; CHECK-NEXT:    bl l
63 ; CHECK-NEXT:  .LBB0_5: @ %vector.body105.preheader
64 ; CHECK-NEXT:    vldrw.u32 q0, [r8]
65 ; CHECK-NEXT:    vldrw.u32 q1, [r9]
66 ; CHECK-NEXT:    vmov.i32 q2, #0x8
67 ; CHECK-NEXT:  .LBB0_6: @ %vector.body105
68 ; CHECK-NEXT:    @ =>This Inner Loop Header: Depth=1
69 ; CHECK-NEXT:    vadd.i32 q1, q1, q2
70 ; CHECK-NEXT:    vadd.i32 q0, q0, q2
71 ; CHECK-NEXT:    cbz r6, .LBB0_7
72 ; CHECK-NEXT:    le .LBB0_6
73 ; CHECK-NEXT:  .LBB0_7: @ %vector.body115.ph
74 ; CHECK-NEXT:    vldrw.u32 q0, [r9]
75 ; CHECK-NEXT:    vstrw.32 q0, [sp] @ 16-byte Spill
76 ; CHECK-NEXT:    @APP
77 ; CHECK-NEXT:    nop
78 ; CHECK-NEXT:    @NO_APP
79 ; CHECK-NEXT:    vldrw.u32 q1, [sp] @ 16-byte Reload
80 ; CHECK-NEXT:    vmov.i32 q0, #0x4
81 ; CHECK-NEXT:  .LBB0_8: @ %vector.body115
82 ; CHECK-NEXT:    @ =>This Inner Loop Header: Depth=1
83 ; CHECK-NEXT:    vadd.i32 q1, q1, q0
84 ; CHECK-NEXT:    b .LBB0_8
85 ; CHECK-NEXT:    .p2align 4
86 ; CHECK-NEXT:  @ %bb.9:
87 ; CHECK-NEXT:  .LCPI0_0:
88 ; CHECK-NEXT:    .long 4 @ 0x4
89 ; CHECK-NEXT:    .long 5 @ 0x5
90 ; CHECK-NEXT:    .long 6 @ 0x6
91 ; CHECK-NEXT:    .long 7 @ 0x7
92 ; CHECK-NEXT:  .LCPI0_1:
93 ; CHECK-NEXT:    .long 0 @ 0x0
94 ; CHECK-NEXT:    .long 1 @ 0x1
95 ; CHECK-NEXT:    .long 2 @ 0x2
96 ; CHECK-NEXT:    .long 3 @ 0x3
97 entry:
98   br label %vector.body
100 vector.body:                                      ; preds = %vector.body, %entry
101   %vec.ind = phi <8 x i32> [ <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>, %entry ], [ zeroinitializer, %vector.body ]
102   %0 = and <8 x i32> %vec.ind, <i32 1, i32 1, i32 1, i32 1, i32 1, i32 1, i32 1, i32 1>
103   %1 = icmp eq <8 x i32> %0, zeroinitializer
104   %2 = select <8 x i1> %1, <8 x i16> <i16 3, i16 3, i16 3, i16 3, i16 3, i16 3, i16 3, i16 3>, <8 x i16> <i16 6, i16 6, i16 6, i16 6, i16 6, i16 6, i16 6, i16 6>
105   %3 = bitcast i16* undef to <8 x i16>*
106   store <8 x i16> %2, <8 x i16>* %3, align 2
107   %4 = icmp eq i32 undef, 128
108   br i1 %4, label %for.cond4.preheader, label %vector.body
110 for.cond4.preheader:                              ; preds = %vector.body
111   br i1 undef, label %vector.body105, label %for.body10
113 for.cond4.loopexit:                               ; preds = %for.body10
114   %call5 = call arm_aapcs_vfpcc i32 bitcast (i32 (...)* @l to i32 ()*)()
115   br label %vector.body105
117 for.body10:                                       ; preds = %for.body10, %for.cond4.preheader
118   %exitcond88 = icmp eq i32 undef, 7
119   br i1 %exitcond88, label %for.cond4.loopexit, label %for.body10
121 vector.body105:                                   ; preds = %vector.body105, %for.cond4.loopexit, %for.cond4.preheader
122   %vec.ind113 = phi <8 x i32> [ %vec.ind.next114, %vector.body105 ], [ <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>, %for.cond4.loopexit ], [ <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>, %for.cond4.preheader ]
123   %5 = and <8 x i32> %vec.ind113, <i32 1, i32 1, i32 1, i32 1, i32 1, i32 1, i32 1, i32 1>
124   %vec.ind.next114 = add <8 x i32> %vec.ind113, <i32 8, i32 8, i32 8, i32 8, i32 8, i32 8, i32 8, i32 8>
125   %6 = icmp eq i32 undef, 256
126   br i1 %6, label %vector.body115.ph, label %vector.body105
128 vector.body115.ph:                                ; preds = %vector.body105
129   tail call void asm sideeffect "nop", "~{s0},~{s4},~{s8},~{s12},~{s16},~{s20},~{s24},~{s28},~{memory}"()
130   br label %vector.body115
132 vector.body115:                                   ; preds = %vector.body115, %vector.body115.ph
133   %vec.ind123 = phi <4 x i32> [ %vec.ind.next124, %vector.body115 ], [ <i32 0, i32 1, i32 2, i32 3>, %vector.body115.ph ]
134   %7 = icmp eq <4 x i32> %vec.ind123, zeroinitializer
135   %vec.ind.next124 = add <4 x i32> %vec.ind123, <i32 4, i32 4, i32 4, i32 4>
136   br label %vector.body115
140 @a = external dso_local global i32, align 4
141 @b = dso_local local_unnamed_addr global i32 ptrtoint (i32* @a to i32), align 4
142 @c = dso_local global i32 2, align 4
143 @d = dso_local global i32 2, align 4
145 define dso_local i32 @e() #0 {
146 ; CHECK-LABEL: e:
147 ; CHECK:       @ %bb.0: @ %entry
148 ; CHECK-NEXT:    .save {r4, r5, r6, r7, r8, r9, r10, lr}
149 ; CHECK-NEXT:    push.w {r4, r5, r6, r7, r8, r9, r10, lr}
150 ; CHECK-NEXT:    .vsave {d8, d9, d10, d11, d12, d13, d14, d15}
151 ; CHECK-NEXT:    vpush {d8, d9, d10, d11, d12, d13, d14, d15}
152 ; CHECK-NEXT:    .pad #408
153 ; CHECK-NEXT:    sub sp, #408
154 ; CHECK-NEXT:    movw r7, :lower16:.L_MergedGlobals
155 ; CHECK-NEXT:    vldr s15, .LCPI1_1
156 ; CHECK-NEXT:    movt r7, :upper16:.L_MergedGlobals
157 ; CHECK-NEXT:    movw r2, :lower16:e
158 ; CHECK-NEXT:    mov r4, r7
159 ; CHECK-NEXT:    mov r3, r7
160 ; CHECK-NEXT:    ldr r6, [r4, #8]!
161 ; CHECK-NEXT:    vmov.i32 q0, #0x0
162 ; CHECK-NEXT:    ldr r0, [r3, #4]!
163 ; CHECK-NEXT:    vstrw.32 q0, [sp] @ 16-byte Spill
164 ; CHECK-NEXT:    movt r2, :upper16:e
165 ; CHECK-NEXT:    vmov r5, s15
166 ; CHECK-NEXT:    vmov q0[2], q0[0], r4, r4
167 ; CHECK-NEXT:    vmov s13, r3
168 ; CHECK-NEXT:    vldr s12, .LCPI1_0
169 ; CHECK-NEXT:    vmov q0[3], q0[1], r5, r2
170 ; CHECK-NEXT:    vdup.32 q7, r3
171 ; CHECK-NEXT:    vmov q6[2], q6[0], r3, r5
172 ; CHECK-NEXT:    vstrw.32 q0, [sp, #92]
173 ; CHECK-NEXT:    vmov q0, q7
174 ; CHECK-NEXT:    vmov q6[3], q6[1], r3, r2
175 ; CHECK-NEXT:    vmov q4, q7
176 ; CHECK-NEXT:    vmov.32 q0[0], r2
177 ; CHECK-NEXT:    vmov.32 q7[1], r2
178 ; CHECK-NEXT:    vmov s21, r2
179 ; CHECK-NEXT:    movs r1, #64
180 ; CHECK-NEXT:    vmov.f32 s20, s12
181 ; CHECK-NEXT:    str r0, [sp, #40]
182 ; CHECK-NEXT:    vmov.f32 s22, s13
183 ; CHECK-NEXT:    str r6, [r0]
184 ; CHECK-NEXT:    vmov.f32 s23, s15
185 ; CHECK-NEXT:    str r0, [r0]
186 ; CHECK-NEXT:    vstrw.32 q5, [r0]
187 ; CHECK-NEXT:    vstrw.32 q7, [r0]
188 ; CHECK-NEXT:    vstrw.32 q0, [r0]
189 ; CHECK-NEXT:    vstrw.32 q6, [r0]
190 ; CHECK-NEXT:    mov.w r8, #0
191 ; CHECK-NEXT:    vmov q1[2], q1[0], r4, r3
192 ; CHECK-NEXT:    vmov q2[2], q2[0], r3, r3
193 ; CHECK-NEXT:    mov.w r12, #4
194 ; CHECK-NEXT:    vmov q1[3], q1[1], r2, r4
195 ; CHECK-NEXT:    vmov.f32 s14, s13
196 ; CHECK-NEXT:    vmov q2[3], q2[1], r4, r5
197 ; CHECK-NEXT:    vmov.32 q4[0], r8
198 ; CHECK-NEXT:    @ implicit-def: $r2
199 ; CHECK-NEXT:    str.w r8, [sp, #44]
200 ; CHECK-NEXT:    vstrw.32 q3, [sp, #60]
201 ; CHECK-NEXT:    strh.w r12, [sp, #406]
202 ; CHECK-NEXT:    wlstp.8 lr, r1, .LBB1_2
203 ; CHECK-NEXT:  .LBB1_1: @ =>This Inner Loop Header: Depth=1
204 ; CHECK-NEXT:    vldrw.u32 q0, [sp] @ 16-byte Reload
205 ; CHECK-NEXT:    vstrb.8 q0, [r2], #16
206 ; CHECK-NEXT:    letp lr, .LBB1_1
207 ; CHECK-NEXT:  .LBB1_2: @ %entry
208 ; CHECK-NEXT:    vstrw.32 q1, [r0]
209 ; CHECK-NEXT:    str.w r8, [r7]
210 ; CHECK-NEXT:    vstrw.32 q4, [r0]
211 ; CHECK-NEXT:    vstrw.32 q2, [r0]
212 ; CHECK-NEXT:    str.w r12, [sp, #324]
213 ; CHECK-NEXT:  .LBB1_3: @ %for.cond
214 ; CHECK-NEXT:    @ =>This Inner Loop Header: Depth=1
215 ; CHECK-NEXT:    b .LBB1_3
216 ; CHECK-NEXT:    .p2align 2
217 ; CHECK-NEXT:  @ %bb.4:
218 ; CHECK-NEXT:  .LCPI1_0:
219 ; CHECK-NEXT:    .long 0x00000004 @ float 5.60519386E-45
220 ; CHECK-NEXT:  .LCPI1_1:
221 ; CHECK-NEXT:    .long 0x00000000 @ float 0
222 entry:
223   %f = alloca i16, align 2
224   %g = alloca [3 x [8 x [4 x i16*]]], align 4
225   store i16 4, i16* %f, align 2
226   %0 = load i32, i32* @c, align 4
227   %1 = load i32, i32* @d, align 4
228   %arrayinit.element7 = getelementptr inbounds [3 x [8 x [4 x i16*]]], [3 x [8 x [4 x i16*]]]* %g, i32 0, i32 0, i32 1, i32 1
229   %2 = bitcast i16** %arrayinit.element7 to i32*
230   store i32 %0, i32* %2, align 4
231   %arrayinit.element8 = getelementptr inbounds [3 x [8 x [4 x i16*]]], [3 x [8 x [4 x i16*]]]* %g, i32 0, i32 0, i32 1, i32 2
232   store i16* null, i16** %arrayinit.element8, align 4
233   %3 = bitcast i16** undef to i32*
234   store i32 %1, i32* %3, align 4
235   %4 = bitcast i16** undef to i32*
236   store i32 %0, i32* %4, align 4
237   %arrayinit.element13 = getelementptr inbounds [3 x [8 x [4 x i16*]]], [3 x [8 x [4 x i16*]]]* %g, i32 0, i32 0, i32 2, i32 2
238   %5 = bitcast i16** %arrayinit.element13 to <4 x i16*>*
239   store <4 x i16*> <i16* inttoptr (i32 4 to i16*), i16* bitcast (i32* @c to i16*), i16* bitcast (i32* @c to i16*), i16* null>, <4 x i16*>* %5, align 4
240   %arrayinit.element24 = getelementptr inbounds [3 x [8 x [4 x i16*]]], [3 x [8 x [4 x i16*]]]* %g, i32 0, i32 0, i32 4, i32 2
241   %6 = bitcast i16** %arrayinit.element24 to <4 x i16*>*
242   store <4 x i16*> <i16* bitcast (i32* @d to i16*), i16* null, i16* bitcast (i32* @d to i16*), i16* bitcast (i32 ()* @e to i16*)>, <4 x i16*>* %6, align 4
243   %7 = bitcast i16** undef to <4 x i16*>*
244   store <4 x i16*> <i16* inttoptr (i32 4 to i16*), i16* bitcast (i32 ()* @e to i16*), i16* bitcast (i32* @c to i16*), i16* null>, <4 x i16*>* %7, align 4
245   %8 = bitcast i16** undef to <4 x i16*>*
246   store <4 x i16*> <i16* bitcast (i32* @c to i16*), i16* bitcast (i32 ()* @e to i16*), i16* bitcast (i32* @c to i16*), i16* bitcast (i32* @c to i16*)>, <4 x i16*>* %8, align 4
247   %9 = bitcast i16** undef to <4 x i16*>*
248   store <4 x i16*> <i16* bitcast (i32 ()* @e to i16*), i16* bitcast (i32* @c to i16*), i16* bitcast (i32* @c to i16*), i16* bitcast (i32* @c to i16*)>, <4 x i16*>* %9, align 4
249   %10 = bitcast i16** undef to <4 x i16*>*
250   store <4 x i16*> <i16* bitcast (i32* @c to i16*), i16* bitcast (i32* @c to i16*), i16* null, i16* bitcast (i32 ()* @e to i16*)>, <4 x i16*>* %10, align 4
251   call void @llvm.memset.p0i8.i32(i8* nonnull align 4 dereferenceable(64) undef, i8 0, i32 64, i1 false)
252   %11 = bitcast i16** undef to <4 x i16*>*
253   store <4 x i16*> <i16* bitcast (i32* @d to i16*), i16* bitcast (i32 ()* @e to i16*), i16* bitcast (i32* @c to i16*), i16* bitcast (i32* @d to i16*)>, <4 x i16*>* %11, align 4
254   %12 = bitcast i16** undef to <4 x i16*>*
255   store <4 x i16*> <i16* null, i16* bitcast (i32* @c to i16*), i16* bitcast (i32* @c to i16*), i16* bitcast (i32* @c to i16*)>, <4 x i16*>* %12, align 4
256   %13 = bitcast i16** undef to <4 x i16*>*
257   store <4 x i16*> <i16* bitcast (i32* @c to i16*), i16* bitcast (i32* @d to i16*), i16* bitcast (i32* @c to i16*), i16* null>, <4 x i16*>* %13, align 4
258   %arrayinit.begin78 = getelementptr inbounds [3 x [8 x [4 x i16*]]], [3 x [8 x [4 x i16*]]]* %g, i32 0, i32 2, i32 3, i32 0
259   store i16* inttoptr (i32 4 to i16*), i16** %arrayinit.begin78, align 4
260   store i32 0, i32* @b, align 4
261   br label %for.cond
263 for.cond:                                         ; preds = %for.cond, %entry
264   br label %for.cond
267 ; Function Attrs: argmemonly nounwind willreturn
268 declare void @llvm.memset.p0i8.i32(i8* nocapture writeonly, i8, i32, i1 immarg) #1
270 ; Function Attrs: argmemonly nounwind willreturn
271 declare void @llvm.memset.p0i8.i64(i8* nocapture writeonly, i8, i64, i1 immarg) #1
274 declare arm_aapcs_vfpcc i32 @l(...)