[Instrumentation] Fix a warning
[llvm-project.git] / llvm / test / CodeGen / PowerPC / register-pressure.ll
blob40ee849c6c2b35f27a09b9fcde32a4f31c542489
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc -verify-machineinstrs < %s -mtriple=powerpc-unknown-linux-gnu \
3 ; RUN:          -mattr=+spe | FileCheck %s -check-prefixes=CHECK,SPE
5 target datalayout = "E-m:e-p:32:32-Fn32-i64:64-n32"
6 target triple = "ppc32"
8 %struct.cmplx = type { double, double }
10 ; Function Attrs: noinline nounwind optnone uwtable
11 define dso_local i32 @main() #0 {
12 ; CHECK-LABEL: main:
13 ; CHECK:       # %bb.0:
14 ; CHECK-NEXT:    mflr 0
15 ; CHECK-NEXT:    stwu 1, -48(1)
16 ; CHECK-NEXT:    stw 31, 44(1)
17 ; CHECK-NEXT:    stw 0, 52(1)
18 ; CHECK-NEXT:    .cfi_def_cfa_offset 48
19 ; CHECK-NEXT:    .cfi_offset r31, -4
20 ; CHECK-NEXT:    .cfi_offset lr, 4
21 ; CHECK-NEXT:    mr 31, 1
22 ; CHECK-NEXT:    .cfi_def_cfa_register r31
23 ; CHECK-NEXT:    li 3, 10
24 ; CHECK-NEXT:    stw 3, 40(31)
25 ; CHECK-NEXT:    li 3, 0
26 ; CHECK-NEXT:    stw 3, 28(31)
27 ; CHECK-NEXT:    lis 4, 16404
28 ; CHECK-NEXT:    stw 4, 24(31)
29 ; CHECK-NEXT:    stw 3, 36(31)
30 ; CHECK-NEXT:    lis 3, 16420
31 ; CHECK-NEXT:    stw 3, 32(31)
32 ; CHECK-NEXT:    lwz 3, 40(31)
33 ; CHECK-NEXT:    slwi 3, 3, 4
34 ; CHECK-NEXT:    bl malloc
35 ; CHECK-NEXT:    stw 3, 20(31)
36 ; CHECK-NEXT:    addi 7, 31, 24
37 ; CHECK-NEXT:    stw 7, 16(31)
38 ; CHECK-NEXT:    lwz 3, 20(31)
39 ; CHECK-NEXT:    stw 3, 12(31)
40 ; CHECK-NEXT:    lwz 5, 16(31)
41 ; CHECK-NEXT:    lwz 6, 12(31)
42 ; CHECK-NEXT:    li 3, 5
43 ; CHECK-NEXT:    li 4, 1
44 ; CHECK-NEXT:    li 8, 1
45 ; CHECK-NEXT:    bl pass11
46 ; CHECK-NEXT:    li 3, 0
47 ; CHECK-NEXT:    lwz 0, 52(1)
48 ; CHECK-NEXT:    lwz 31, 44(1)
49 ; CHECK-NEXT:    addi 1, 1, 48
50 ; CHECK-NEXT:    mtlr 0
51 ; CHECK-NEXT:    blr
52   %1 = alloca i32, align 4
53   %2 = alloca %struct.cmplx, align 8
54   %3 = alloca ptr, align 4
55   %4 = alloca ptr, align 4
56   %5 = alloca ptr, align 4
57   store i32 10, ptr %1, align 4
58   %6 = getelementptr inbounds %struct.cmplx, ptr %2, i32 0, i32 0
59   store double 5.000000e+00, ptr %6, align 8
60   %7 = getelementptr inbounds %struct.cmplx, ptr %2, i32 0, i32 1
61   store double 1.000000e+01, ptr %7, align 8
62   %8 = load i32, ptr %1, align 4
63   %9 = mul i32 %8, 16
64   %10 = call ptr @malloc(i32 noundef %9)
65   store ptr %10, ptr %3, align 4
66   store ptr %2, ptr %4, align 4
67   %11 = load ptr, ptr %3, align 4
68   store ptr %11, ptr %5, align 4
69   %12 = load ptr, ptr %4, align 4
70   %13 = load ptr, ptr %5, align 4
71   call void @pass11(i32 noundef 5, i32 noundef 1, ptr noundef %12, ptr noundef %13, ptr noundef %2, i32 noundef 1)
72   ret i32 0
75 declare dso_local ptr @malloc(i32 noundef) #1
77 ; Function Attrs: noinline nounwind optnone uwtable
78 define internal void @pass11(i32 noundef %0, i32 noundef %1, ptr noalias noundef %2, ptr noalias noundef %3, ptr noalias noundef %4, i32 noundef %5) #0 {
79 ; CHECK-LABEL: pass11:
80 ; CHECK:       # %bb.0:
81 ; CHECK-NEXT:    stwu 1, -1088(1)
82 ; CHECK-NEXT:    stw 31, 1084(1)
83 ; CHECK-NEXT:    .cfi_def_cfa_offset 1088
84 ; CHECK-NEXT:    .cfi_offset r31, -4
85 ; CHECK-NEXT:    mr 31, 1
86 ; CHECK-NEXT:    .cfi_def_cfa_register r31
87 ; CHECK-NEXT:    .cfi_offset r15, -68
88 ; CHECK-NEXT:    .cfi_offset r16, -208
89 ; CHECK-NEXT:    .cfi_offset r17, -200
90 ; CHECK-NEXT:    .cfi_offset r18, -192
91 ; CHECK-NEXT:    .cfi_offset r19, -184
92 ; CHECK-NEXT:    .cfi_offset r20, -176
93 ; CHECK-NEXT:    .cfi_offset r21, -168
94 ; CHECK-NEXT:    .cfi_offset r22, -160
95 ; CHECK-NEXT:    .cfi_offset r23, -152
96 ; CHECK-NEXT:    .cfi_offset r24, -144
97 ; CHECK-NEXT:    .cfi_offset r25, -136
98 ; CHECK-NEXT:    .cfi_offset r26, -128
99 ; CHECK-NEXT:    .cfi_offset r27, -120
100 ; CHECK-NEXT:    .cfi_offset r28, -112
101 ; CHECK-NEXT:    .cfi_offset r29, -104
102 ; CHECK-NEXT:    .cfi_offset r30, -8
103 ; CHECK-NEXT:    stw 15, 1020(31) # 4-byte Folded Spill
104 ; CHECK-NEXT:    li 9, 880
105 ; CHECK-NEXT:    evstddx 16, 31, 9 # 8-byte Folded Spill
106 ; CHECK-NEXT:    li 9, 888
107 ; CHECK-NEXT:    evstddx 17, 31, 9 # 8-byte Folded Spill
108 ; CHECK-NEXT:    li 9, 896
109 ; CHECK-NEXT:    evstddx 18, 31, 9 # 8-byte Folded Spill
110 ; CHECK-NEXT:    li 9, 904
111 ; CHECK-NEXT:    evstddx 19, 31, 9 # 8-byte Folded Spill
112 ; CHECK-NEXT:    li 9, 912
113 ; CHECK-NEXT:    evstddx 20, 31, 9 # 8-byte Folded Spill
114 ; CHECK-NEXT:    li 9, 920
115 ; CHECK-NEXT:    evstddx 21, 31, 9 # 8-byte Folded Spill
116 ; CHECK-NEXT:    li 9, 928
117 ; CHECK-NEXT:    evstddx 22, 31, 9 # 8-byte Folded Spill
118 ; CHECK-NEXT:    li 9, 936
119 ; CHECK-NEXT:    evstddx 23, 31, 9 # 8-byte Folded Spill
120 ; CHECK-NEXT:    li 9, 944
121 ; CHECK-NEXT:    evstddx 24, 31, 9 # 8-byte Folded Spill
122 ; CHECK-NEXT:    li 9, 952
123 ; CHECK-NEXT:    evstddx 25, 31, 9 # 8-byte Folded Spill
124 ; CHECK-NEXT:    li 9, 960
125 ; CHECK-NEXT:    evstddx 26, 31, 9 # 8-byte Folded Spill
126 ; CHECK-NEXT:    li 9, 968
127 ; CHECK-NEXT:    evstddx 27, 31, 9 # 8-byte Folded Spill
128 ; CHECK-NEXT:    li 9, 976
129 ; CHECK-NEXT:    evstddx 28, 31, 9 # 8-byte Folded Spill
130 ; CHECK-NEXT:    li 9, 984
131 ; CHECK-NEXT:    evstddx 29, 31, 9 # 8-byte Folded Spill
132 ; CHECK-NEXT:    stw 30, 1080(31) # 4-byte Folded Spill
133 ; CHECK-NEXT:    stw 3, 876(31)
134 ; CHECK-NEXT:    stw 4, 872(31)
135 ; CHECK-NEXT:    stw 5, 868(31)
136 ; CHECK-NEXT:    stw 6, 864(31)
137 ; CHECK-NEXT:    stw 7, 860(31)
138 ; CHECK-NEXT:    stw 8, 856(31)
139 ; CHECK-NEXT:    li 3, 11
140 ; CHECK-NEXT:    stw 3, 852(31)
141 ; CHECK-NEXT:    lis 3, -30876
142 ; CHECK-NEXT:    ori 3, 3, 61626
143 ; CHECK-NEXT:    stw 3, 844(31)
144 ; CHECK-NEXT:    lis 3, 16362
145 ; CHECK-NEXT:    ori 3, 3, 60300
146 ; CHECK-NEXT:    stw 3, 840(31)
147 ; CHECK-NEXT:    lwz 3, 856(31)
148 ; CHECK-NEXT:    efdcfsi 3, 3
149 ; CHECK-NEXT:    li 4, .LCPI1_0@l
150 ; CHECK-NEXT:    lis 5, .LCPI1_0@ha
151 ; CHECK-NEXT:    evlddx 4, 5, 4
152 ; CHECK-NEXT:    efdmul 3, 3, 4
153 ; CHECK-NEXT:    li 4, 832
154 ; CHECK-NEXT:    evstddx 3, 31, 4
155 ; CHECK-NEXT:    lis 3, -9785
156 ; CHECK-NEXT:    ori 3, 3, 4790
157 ; CHECK-NEXT:    stw 3, 828(31)
158 ; CHECK-NEXT:    lis 3, 16346
159 ; CHECK-NEXT:    ori 3, 3, 38440
160 ; CHECK-NEXT:    stw 3, 824(31)
161 ; CHECK-NEXT:    lwz 3, 856(31)
162 ; CHECK-NEXT:    efdcfsi 3, 3
163 ; CHECK-NEXT:    li 4, .LCPI1_1@l
164 ; CHECK-NEXT:    lis 5, .LCPI1_1@ha
165 ; CHECK-NEXT:    evlddx 4, 5, 4
166 ; CHECK-NEXT:    efdmul 3, 3, 4
167 ; CHECK-NEXT:    li 4, 816
168 ; CHECK-NEXT:    evstddx 3, 31, 4
169 ; CHECK-NEXT:    lis 3, 25615
170 ; CHECK-NEXT:    ori 3, 3, 17627
171 ; CHECK-NEXT:    stw 3, 812(31)
172 ; CHECK-NEXT:    lis 3, -16446
173 ; CHECK-NEXT:    ori 3, 3, 14175
174 ; CHECK-NEXT:    stw 3, 808(31)
175 ; CHECK-NEXT:    lwz 3, 856(31)
176 ; CHECK-NEXT:    efdcfsi 3, 3
177 ; CHECK-NEXT:    li 4, .LCPI1_2@l
178 ; CHECK-NEXT:    lis 5, .LCPI1_2@ha
179 ; CHECK-NEXT:    evlddx 4, 5, 4
180 ; CHECK-NEXT:    efdmul 3, 3, 4
181 ; CHECK-NEXT:    li 4, 800
182 ; CHECK-NEXT:    evstddx 3, 31, 4
183 ; CHECK-NEXT:    lis 3, 32631
184 ; CHECK-NEXT:    ori 3, 3, 22663
185 ; CHECK-NEXT:    stw 3, 796(31)
186 ; CHECK-NEXT:    lis 3, -16412
187 ; CHECK-NEXT:    ori 3, 3, 62622
188 ; CHECK-NEXT:    stw 3, 792(31)
189 ; CHECK-NEXT:    lwz 3, 856(31)
190 ; CHECK-NEXT:    efdcfsi 3, 3
191 ; CHECK-NEXT:    li 4, .LCPI1_3@l
192 ; CHECK-NEXT:    lis 5, .LCPI1_3@ha
193 ; CHECK-NEXT:    evlddx 4, 5, 4
194 ; CHECK-NEXT:    efdmul 3, 3, 4
195 ; CHECK-NEXT:    li 4, 784
196 ; CHECK-NEXT:    evstddx 3, 31, 4
197 ; CHECK-NEXT:    lis 3, -25651
198 ; CHECK-NEXT:    ori 3, 3, 20567
199 ; CHECK-NEXT:    stw 3, 780(31)
200 ; CHECK-NEXT:    lis 3, -16402
201 ; CHECK-NEXT:    ori 3, 3, 46122
202 ; CHECK-NEXT:    stw 3, 776(31)
203 ; CHECK-NEXT:    lwz 3, 856(31)
204 ; CHECK-NEXT:    efdcfsi 3, 3
205 ; CHECK-NEXT:    li 4, .LCPI1_4@l
206 ; CHECK-NEXT:    lis 5, .LCPI1_4@ha
207 ; CHECK-NEXT:    evlddx 4, 5, 4
208 ; CHECK-NEXT:    efdmul 3, 3, 4
209 ; CHECK-NEXT:    li 4, 768
210 ; CHECK-NEXT:    evstddx 3, 31, 4
211 ; CHECK-NEXT:    li 3, 0
212 ; CHECK-NEXT:    stw 3, 764(31)
213 ; CHECK-NEXT:    b .LBB1_1
214 ; CHECK-NEXT:  .LBB1_1: # =>This Loop Header: Depth=1
215 ; CHECK-NEXT:    # Child Loop BB1_3 Depth 2
216 ; CHECK-NEXT:    lwz 3, 764(31)
217 ; CHECK-NEXT:    lwz 4, 872(31)
218 ; CHECK-NEXT:    cmplw 3, 4
219 ; CHECK-NEXT:    bge 0, .LBB1_8
220 ; CHECK-NEXT:    b .LBB1_2
221 ; CHECK-NEXT:  .LBB1_2:
222 ; CHECK-NEXT:    lwz 3, 868(31)
223 ; CHECK-NEXT:    lwz 4, 876(31)
224 ; CHECK-NEXT:    lwz 5, 764(31)
225 ; CHECK-NEXT:    mullw 4, 5, 4
226 ; CHECK-NEXT:    mulli 4, 4, 176
227 ; CHECK-NEXT:    lwzux 4, 3, 4
228 ; CHECK-NEXT:    stw 4, 744(31)
229 ; CHECK-NEXT:    lwz 4, 12(3)
230 ; CHECK-NEXT:    stw 4, 756(31)
231 ; CHECK-NEXT:    lwz 4, 8(3)
232 ; CHECK-NEXT:    stw 4, 752(31)
233 ; CHECK-NEXT:    lwz 3, 4(3)
234 ; CHECK-NEXT:    stw 3, 748(31)
235 ; CHECK-NEXT:    lwz 3, 868(31)
236 ; CHECK-NEXT:    lwz 4, 876(31)
237 ; CHECK-NEXT:    lwz 5, 764(31)
238 ; CHECK-NEXT:    mulli 5, 5, 11
239 ; CHECK-NEXT:    addi 6, 5, 1
240 ; CHECK-NEXT:    mullw 6, 4, 6
241 ; CHECK-NEXT:    slwi 6, 6, 4
242 ; CHECK-NEXT:    evlddx 6, 3, 6
243 ; CHECK-NEXT:    addi 5, 5, 10
244 ; CHECK-NEXT:    mullw 4, 4, 5
245 ; CHECK-NEXT:    slwi 4, 4, 4
246 ; CHECK-NEXT:    evlddx 3, 3, 4
247 ; CHECK-NEXT:    efdadd 3, 6, 3
248 ; CHECK-NEXT:    li 4, 728
249 ; CHECK-NEXT:    evstddx 3, 31, 4
250 ; CHECK-NEXT:    lwz 4, 868(31)
251 ; CHECK-NEXT:    lwz 5, 876(31)
252 ; CHECK-NEXT:    lwz 3, 764(31)
253 ; CHECK-NEXT:    mulli 6, 3, 11
254 ; CHECK-NEXT:    addi 3, 6, 1
255 ; CHECK-NEXT:    mullw 3, 5, 3
256 ; CHECK-NEXT:    slwi 3, 3, 4
257 ; CHECK-NEXT:    add 7, 4, 3
258 ; CHECK-NEXT:    li 3, 8
259 ; CHECK-NEXT:    evlddx 7, 7, 3
260 ; CHECK-NEXT:    addi 6, 6, 10
261 ; CHECK-NEXT:    mullw 5, 5, 6
262 ; CHECK-NEXT:    slwi 5, 5, 4
263 ; CHECK-NEXT:    add 4, 4, 5
264 ; CHECK-NEXT:    evlddx 4, 4, 3
265 ; CHECK-NEXT:    efdadd 4, 7, 4
266 ; CHECK-NEXT:    addi 5, 31, 728
267 ; CHECK-NEXT:    evstddx 4, 5, 3
268 ; CHECK-NEXT:    lwz 4, 868(31)
269 ; CHECK-NEXT:    lwz 6, 876(31)
270 ; CHECK-NEXT:    lwz 7, 764(31)
271 ; CHECK-NEXT:    mulli 7, 7, 11
272 ; CHECK-NEXT:    addi 8, 7, 1
273 ; CHECK-NEXT:    mullw 8, 6, 8
274 ; CHECK-NEXT:    slwi 8, 8, 4
275 ; CHECK-NEXT:    evlddx 8, 4, 8
276 ; CHECK-NEXT:    addi 7, 7, 10
277 ; CHECK-NEXT:    mullw 6, 6, 7
278 ; CHECK-NEXT:    slwi 6, 6, 4
279 ; CHECK-NEXT:    evlddx 4, 4, 6
280 ; CHECK-NEXT:    efdsub 4, 8, 4
281 ; CHECK-NEXT:    li 6, 584
282 ; CHECK-NEXT:    evstddx 4, 31, 6
283 ; CHECK-NEXT:    lwz 4, 868(31)
284 ; CHECK-NEXT:    lwz 6, 876(31)
285 ; CHECK-NEXT:    lwz 7, 764(31)
286 ; CHECK-NEXT:    mulli 7, 7, 11
287 ; CHECK-NEXT:    addi 8, 7, 1
288 ; CHECK-NEXT:    mullw 8, 6, 8
289 ; CHECK-NEXT:    slwi 8, 8, 4
290 ; CHECK-NEXT:    add 8, 4, 8
291 ; CHECK-NEXT:    evlddx 8, 8, 3
292 ; CHECK-NEXT:    addi 7, 7, 10
293 ; CHECK-NEXT:    mullw 6, 6, 7
294 ; CHECK-NEXT:    slwi 6, 6, 4
295 ; CHECK-NEXT:    add 4, 4, 6
296 ; CHECK-NEXT:    evlddx 4, 4, 3
297 ; CHECK-NEXT:    efdsub 6, 8, 4
298 ; CHECK-NEXT:    addi 4, 31, 584
299 ; CHECK-NEXT:    evstddx 6, 4, 3
300 ; CHECK-NEXT:    lwz 6, 868(31)
301 ; CHECK-NEXT:    lwz 7, 876(31)
302 ; CHECK-NEXT:    lwz 8, 764(31)
303 ; CHECK-NEXT:    mulli 8, 8, 11
304 ; CHECK-NEXT:    addi 9, 8, 2
305 ; CHECK-NEXT:    mullw 9, 7, 9
306 ; CHECK-NEXT:    slwi 9, 9, 4
307 ; CHECK-NEXT:    evlddx 9, 6, 9
308 ; CHECK-NEXT:    addi 8, 8, 9
309 ; CHECK-NEXT:    mullw 7, 7, 8
310 ; CHECK-NEXT:    slwi 7, 7, 4
311 ; CHECK-NEXT:    evlddx 6, 6, 7
312 ; CHECK-NEXT:    efdadd 6, 9, 6
313 ; CHECK-NEXT:    li 7, 712
314 ; CHECK-NEXT:    evstddx 6, 31, 7
315 ; CHECK-NEXT:    lwz 6, 868(31)
316 ; CHECK-NEXT:    lwz 7, 876(31)
317 ; CHECK-NEXT:    lwz 8, 764(31)
318 ; CHECK-NEXT:    mulli 8, 8, 11
319 ; CHECK-NEXT:    addi 9, 8, 2
320 ; CHECK-NEXT:    mullw 9, 7, 9
321 ; CHECK-NEXT:    slwi 9, 9, 4
322 ; CHECK-NEXT:    add 9, 6, 9
323 ; CHECK-NEXT:    evlddx 9, 9, 3
324 ; CHECK-NEXT:    addi 8, 8, 9
325 ; CHECK-NEXT:    mullw 7, 7, 8
326 ; CHECK-NEXT:    slwi 7, 7, 4
327 ; CHECK-NEXT:    add 6, 6, 7
328 ; CHECK-NEXT:    evlddx 6, 6, 3
329 ; CHECK-NEXT:    efdadd 6, 9, 6
330 ; CHECK-NEXT:    addi 7, 31, 712
331 ; CHECK-NEXT:    evstddx 6, 7, 3
332 ; CHECK-NEXT:    lwz 6, 868(31)
333 ; CHECK-NEXT:    lwz 8, 876(31)
334 ; CHECK-NEXT:    lwz 9, 764(31)
335 ; CHECK-NEXT:    mulli 9, 9, 11
336 ; CHECK-NEXT:    addi 10, 9, 2
337 ; CHECK-NEXT:    mullw 10, 8, 10
338 ; CHECK-NEXT:    slwi 10, 10, 4
339 ; CHECK-NEXT:    evlddx 10, 6, 10
340 ; CHECK-NEXT:    addi 9, 9, 9
341 ; CHECK-NEXT:    mullw 8, 8, 9
342 ; CHECK-NEXT:    slwi 8, 8, 4
343 ; CHECK-NEXT:    evlddx 6, 6, 8
344 ; CHECK-NEXT:    efdsub 6, 10, 6
345 ; CHECK-NEXT:    li 8, 600
346 ; CHECK-NEXT:    evstddx 6, 31, 8
347 ; CHECK-NEXT:    lwz 6, 868(31)
348 ; CHECK-NEXT:    lwz 8, 876(31)
349 ; CHECK-NEXT:    lwz 9, 764(31)
350 ; CHECK-NEXT:    mulli 9, 9, 11
351 ; CHECK-NEXT:    addi 10, 9, 2
352 ; CHECK-NEXT:    mullw 10, 8, 10
353 ; CHECK-NEXT:    slwi 10, 10, 4
354 ; CHECK-NEXT:    add 10, 6, 10
355 ; CHECK-NEXT:    evlddx 10, 10, 3
356 ; CHECK-NEXT:    addi 9, 9, 9
357 ; CHECK-NEXT:    mullw 8, 8, 9
358 ; CHECK-NEXT:    slwi 8, 8, 4
359 ; CHECK-NEXT:    add 6, 6, 8
360 ; CHECK-NEXT:    evlddx 6, 6, 3
361 ; CHECK-NEXT:    efdsub 8, 10, 6
362 ; CHECK-NEXT:    addi 6, 31, 600
363 ; CHECK-NEXT:    evstddx 8, 6, 3
364 ; CHECK-NEXT:    lwz 8, 868(31)
365 ; CHECK-NEXT:    lwz 9, 876(31)
366 ; CHECK-NEXT:    lwz 10, 764(31)
367 ; CHECK-NEXT:    mulli 10, 10, 11
368 ; CHECK-NEXT:    addi 11, 10, 3
369 ; CHECK-NEXT:    mullw 11, 9, 11
370 ; CHECK-NEXT:    slwi 11, 11, 4
371 ; CHECK-NEXT:    evlddx 11, 8, 11
372 ; CHECK-NEXT:    addi 10, 10, 8
373 ; CHECK-NEXT:    mullw 9, 9, 10
374 ; CHECK-NEXT:    slwi 9, 9, 4
375 ; CHECK-NEXT:    evlddx 8, 8, 9
376 ; CHECK-NEXT:    efdadd 8, 11, 8
377 ; CHECK-NEXT:    li 9, 696
378 ; CHECK-NEXT:    evstddx 8, 31, 9
379 ; CHECK-NEXT:    lwz 8, 868(31)
380 ; CHECK-NEXT:    lwz 9, 876(31)
381 ; CHECK-NEXT:    lwz 10, 764(31)
382 ; CHECK-NEXT:    mulli 10, 10, 11
383 ; CHECK-NEXT:    addi 11, 10, 3
384 ; CHECK-NEXT:    mullw 11, 9, 11
385 ; CHECK-NEXT:    slwi 11, 11, 4
386 ; CHECK-NEXT:    add 11, 8, 11
387 ; CHECK-NEXT:    evlddx 11, 11, 3
388 ; CHECK-NEXT:    addi 10, 10, 8
389 ; CHECK-NEXT:    mullw 9, 9, 10
390 ; CHECK-NEXT:    slwi 9, 9, 4
391 ; CHECK-NEXT:    add 8, 8, 9
392 ; CHECK-NEXT:    evlddx 8, 8, 3
393 ; CHECK-NEXT:    efdadd 8, 11, 8
394 ; CHECK-NEXT:    addi 9, 31, 696
395 ; CHECK-NEXT:    evstddx 8, 9, 3
396 ; CHECK-NEXT:    lwz 8, 868(31)
397 ; CHECK-NEXT:    lwz 10, 876(31)
398 ; CHECK-NEXT:    lwz 11, 764(31)
399 ; CHECK-NEXT:    mulli 11, 11, 11
400 ; CHECK-NEXT:    addi 12, 11, 3
401 ; CHECK-NEXT:    mullw 12, 10, 12
402 ; CHECK-NEXT:    slwi 12, 12, 4
403 ; CHECK-NEXT:    evlddx 12, 8, 12
404 ; CHECK-NEXT:    addi 11, 11, 8
405 ; CHECK-NEXT:    mullw 10, 10, 11
406 ; CHECK-NEXT:    slwi 10, 10, 4
407 ; CHECK-NEXT:    evlddx 8, 8, 10
408 ; CHECK-NEXT:    efdsub 8, 12, 8
409 ; CHECK-NEXT:    li 10, 616
410 ; CHECK-NEXT:    evstddx 8, 31, 10
411 ; CHECK-NEXT:    lwz 8, 868(31)
412 ; CHECK-NEXT:    lwz 10, 876(31)
413 ; CHECK-NEXT:    lwz 11, 764(31)
414 ; CHECK-NEXT:    mulli 11, 11, 11
415 ; CHECK-NEXT:    addi 12, 11, 3
416 ; CHECK-NEXT:    mullw 12, 10, 12
417 ; CHECK-NEXT:    slwi 12, 12, 4
418 ; CHECK-NEXT:    add 12, 8, 12
419 ; CHECK-NEXT:    evlddx 12, 12, 3
420 ; CHECK-NEXT:    addi 11, 11, 8
421 ; CHECK-NEXT:    mullw 10, 10, 11
422 ; CHECK-NEXT:    slwi 10, 10, 4
423 ; CHECK-NEXT:    add 8, 8, 10
424 ; CHECK-NEXT:    evlddx 8, 8, 3
425 ; CHECK-NEXT:    efdsub 10, 12, 8
426 ; CHECK-NEXT:    addi 8, 31, 616
427 ; CHECK-NEXT:    evstddx 10, 8, 3
428 ; CHECK-NEXT:    lwz 10, 868(31)
429 ; CHECK-NEXT:    lwz 11, 876(31)
430 ; CHECK-NEXT:    lwz 12, 764(31)
431 ; CHECK-NEXT:    mulli 12, 12, 11
432 ; CHECK-NEXT:    addi 0, 12, 4
433 ; CHECK-NEXT:    mullw 0, 11, 0
434 ; CHECK-NEXT:    slwi 0, 0, 4
435 ; CHECK-NEXT:    evlddx 0, 10, 0
436 ; CHECK-NEXT:    addi 12, 12, 7
437 ; CHECK-NEXT:    mullw 11, 11, 12
438 ; CHECK-NEXT:    slwi 11, 11, 4
439 ; CHECK-NEXT:    evlddx 10, 10, 11
440 ; CHECK-NEXT:    efdadd 10, 0, 10
441 ; CHECK-NEXT:    li 11, 680
442 ; CHECK-NEXT:    evstddx 10, 31, 11
443 ; CHECK-NEXT:    lwz 10, 868(31)
444 ; CHECK-NEXT:    lwz 11, 876(31)
445 ; CHECK-NEXT:    lwz 12, 764(31)
446 ; CHECK-NEXT:    mulli 12, 12, 11
447 ; CHECK-NEXT:    addi 0, 12, 4
448 ; CHECK-NEXT:    mullw 0, 11, 0
449 ; CHECK-NEXT:    slwi 0, 0, 4
450 ; CHECK-NEXT:    add 30, 10, 0
451 ; CHECK-NEXT:    evlddx 0, 30, 3
452 ; CHECK-NEXT:    addi 12, 12, 7
453 ; CHECK-NEXT:    mullw 11, 11, 12
454 ; CHECK-NEXT:    slwi 11, 11, 4
455 ; CHECK-NEXT:    add 10, 10, 11
456 ; CHECK-NEXT:    evlddx 10, 10, 3
457 ; CHECK-NEXT:    efdadd 10, 0, 10
458 ; CHECK-NEXT:    addi 11, 31, 680
459 ; CHECK-NEXT:    evstddx 10, 11, 3
460 ; CHECK-NEXT:    lwz 10, 868(31)
461 ; CHECK-NEXT:    lwz 12, 876(31)
462 ; CHECK-NEXT:    lwz 0, 764(31)
463 ; CHECK-NEXT:    mulli 30, 0, 11
464 ; CHECK-NEXT:    addi 0, 30, 4
465 ; CHECK-NEXT:    mullw 0, 12, 0
466 ; CHECK-NEXT:    slwi 0, 0, 4
467 ; CHECK-NEXT:    evlddx 0, 10, 0
468 ; CHECK-NEXT:    addi 30, 30, 7
469 ; CHECK-NEXT:    mullw 12, 12, 30
470 ; CHECK-NEXT:    slwi 12, 12, 4
471 ; CHECK-NEXT:    evlddx 10, 10, 12
472 ; CHECK-NEXT:    efdsub 10, 0, 10
473 ; CHECK-NEXT:    li 12, 632
474 ; CHECK-NEXT:    evstddx 10, 31, 12
475 ; CHECK-NEXT:    lwz 10, 868(31)
476 ; CHECK-NEXT:    lwz 12, 876(31)
477 ; CHECK-NEXT:    lwz 0, 764(31)
478 ; CHECK-NEXT:    mulli 30, 0, 11
479 ; CHECK-NEXT:    addi 0, 30, 4
480 ; CHECK-NEXT:    mullw 0, 12, 0
481 ; CHECK-NEXT:    slwi 0, 0, 4
482 ; CHECK-NEXT:    add 29, 10, 0
483 ; CHECK-NEXT:    evlddx 0, 29, 3
484 ; CHECK-NEXT:    addi 30, 30, 7
485 ; CHECK-NEXT:    mullw 12, 12, 30
486 ; CHECK-NEXT:    slwi 12, 12, 4
487 ; CHECK-NEXT:    add 10, 10, 12
488 ; CHECK-NEXT:    evlddx 10, 10, 3
489 ; CHECK-NEXT:    efdsub 12, 0, 10
490 ; CHECK-NEXT:    addi 10, 31, 632
491 ; CHECK-NEXT:    evstddx 12, 10, 3
492 ; CHECK-NEXT:    lwz 12, 868(31)
493 ; CHECK-NEXT:    lwz 0, 876(31)
494 ; CHECK-NEXT:    lwz 30, 764(31)
495 ; CHECK-NEXT:    mulli 30, 30, 11
496 ; CHECK-NEXT:    addi 29, 30, 5
497 ; CHECK-NEXT:    mullw 29, 0, 29
498 ; CHECK-NEXT:    slwi 29, 29, 4
499 ; CHECK-NEXT:    evlddx 29, 12, 29
500 ; CHECK-NEXT:    addi 30, 30, 6
501 ; CHECK-NEXT:    mullw 0, 0, 30
502 ; CHECK-NEXT:    slwi 0, 0, 4
503 ; CHECK-NEXT:    evlddx 12, 12, 0
504 ; CHECK-NEXT:    efdadd 12, 29, 12
505 ; CHECK-NEXT:    li 30, 664
506 ; CHECK-NEXT:    evstddx 12, 31, 30
507 ; CHECK-NEXT:    lwz 12, 868(31)
508 ; CHECK-NEXT:    lwz 0, 876(31)
509 ; CHECK-NEXT:    lwz 30, 764(31)
510 ; CHECK-NEXT:    mulli 30, 30, 11
511 ; CHECK-NEXT:    addi 29, 30, 5
512 ; CHECK-NEXT:    mullw 29, 0, 29
513 ; CHECK-NEXT:    slwi 29, 29, 4
514 ; CHECK-NEXT:    add 29, 12, 29
515 ; CHECK-NEXT:    evlddx 29, 29, 3
516 ; CHECK-NEXT:    addi 30, 30, 6
517 ; CHECK-NEXT:    mullw 0, 0, 30
518 ; CHECK-NEXT:    slwi 0, 0, 4
519 ; CHECK-NEXT:    add 12, 12, 0
520 ; CHECK-NEXT:    evlddx 12, 12, 3
521 ; CHECK-NEXT:    efdadd 12, 29, 12
522 ; CHECK-NEXT:    addi 30, 31, 664
523 ; CHECK-NEXT:    evstddx 12, 30, 3
524 ; CHECK-NEXT:    lwz 12, 868(31)
525 ; CHECK-NEXT:    lwz 0, 876(31)
526 ; CHECK-NEXT:    lwz 29, 764(31)
527 ; CHECK-NEXT:    mulli 29, 29, 11
528 ; CHECK-NEXT:    addi 28, 29, 5
529 ; CHECK-NEXT:    mullw 28, 0, 28
530 ; CHECK-NEXT:    slwi 28, 28, 4
531 ; CHECK-NEXT:    evlddx 28, 12, 28
532 ; CHECK-NEXT:    addi 29, 29, 6
533 ; CHECK-NEXT:    mullw 0, 0, 29
534 ; CHECK-NEXT:    slwi 0, 0, 4
535 ; CHECK-NEXT:    evlddx 12, 12, 0
536 ; CHECK-NEXT:    efdsub 12, 28, 12
537 ; CHECK-NEXT:    li 29, 648
538 ; CHECK-NEXT:    evstddx 12, 31, 29
539 ; CHECK-NEXT:    lwz 12, 868(31)
540 ; CHECK-NEXT:    lwz 0, 876(31)
541 ; CHECK-NEXT:    lwz 29, 764(31)
542 ; CHECK-NEXT:    mulli 29, 29, 11
543 ; CHECK-NEXT:    addi 28, 29, 5
544 ; CHECK-NEXT:    mullw 28, 0, 28
545 ; CHECK-NEXT:    slwi 28, 28, 4
546 ; CHECK-NEXT:    add 28, 12, 28
547 ; CHECK-NEXT:    evlddx 28, 28, 3
548 ; CHECK-NEXT:    addi 29, 29, 6
549 ; CHECK-NEXT:    mullw 0, 0, 29
550 ; CHECK-NEXT:    slwi 0, 0, 4
551 ; CHECK-NEXT:    add 12, 12, 0
552 ; CHECK-NEXT:    evlddx 12, 12, 3
553 ; CHECK-NEXT:    efdsub 0, 28, 12
554 ; CHECK-NEXT:    addi 12, 31, 648
555 ; CHECK-NEXT:    evstddx 0, 12, 3
556 ; CHECK-NEXT:    li 29, 744
557 ; CHECK-NEXT:    evlddx 0, 31, 29
558 ; CHECK-NEXT:    li 29, 728
559 ; CHECK-NEXT:    evlddx 29, 31, 29
560 ; CHECK-NEXT:    efdadd 0, 0, 29
561 ; CHECK-NEXT:    li 29, 712
562 ; CHECK-NEXT:    evlddx 29, 31, 29
563 ; CHECK-NEXT:    efdadd 0, 0, 29
564 ; CHECK-NEXT:    li 29, 696
565 ; CHECK-NEXT:    evlddx 29, 31, 29
566 ; CHECK-NEXT:    efdadd 0, 0, 29
567 ; CHECK-NEXT:    li 29, 680
568 ; CHECK-NEXT:    evlddx 29, 31, 29
569 ; CHECK-NEXT:    efdadd 0, 0, 29
570 ; CHECK-NEXT:    li 29, 664
571 ; CHECK-NEXT:    evlddx 29, 31, 29
572 ; CHECK-NEXT:    efdadd 0, 0, 29
573 ; CHECK-NEXT:    lwz 29, 864(31)
574 ; CHECK-NEXT:    lwz 28, 876(31)
575 ; CHECK-NEXT:    lwz 27, 764(31)
576 ; CHECK-NEXT:    mullw 28, 28, 27
577 ; CHECK-NEXT:    slwi 28, 28, 4
578 ; CHECK-NEXT:    evstddx 0, 29, 28
579 ; CHECK-NEXT:    addi 29, 31, 744
580 ; CHECK-NEXT:    evlddx 0, 29, 3
581 ; CHECK-NEXT:    evlddx 28, 5, 3
582 ; CHECK-NEXT:    efdadd 0, 0, 28
583 ; CHECK-NEXT:    evlddx 28, 7, 3
584 ; CHECK-NEXT:    efdadd 0, 0, 28
585 ; CHECK-NEXT:    evlddx 28, 9, 3
586 ; CHECK-NEXT:    efdadd 0, 0, 28
587 ; CHECK-NEXT:    evlddx 28, 11, 3
588 ; CHECK-NEXT:    efdadd 0, 0, 28
589 ; CHECK-NEXT:    evlddx 28, 30, 3
590 ; CHECK-NEXT:    efdadd 0, 0, 28
591 ; CHECK-NEXT:    lwz 28, 864(31)
592 ; CHECK-NEXT:    lwz 27, 876(31)
593 ; CHECK-NEXT:    lwz 26, 764(31)
594 ; CHECK-NEXT:    mullw 27, 27, 26
595 ; CHECK-NEXT:    slwi 27, 27, 4
596 ; CHECK-NEXT:    add 28, 28, 27
597 ; CHECK-NEXT:    evstddx 0, 28, 3
598 ; CHECK-NEXT:    li 28, 744
599 ; CHECK-NEXT:    evlddx 28, 31, 28
600 ; CHECK-NEXT:    li 27, 728
601 ; CHECK-NEXT:    evlddx 27, 31, 27
602 ; CHECK-NEXT:    li 0, .LCPI1_5@l
603 ; CHECK-NEXT:    lis 26, .LCPI1_5@ha
604 ; CHECK-NEXT:    evlddx 0, 26, 0
605 ; CHECK-NEXT:    efdmul 27, 27, 0
606 ; CHECK-NEXT:    efdadd 27, 27, 28
607 ; CHECK-NEXT:    li 28, 712
608 ; CHECK-NEXT:    evlddx 26, 31, 28
609 ; CHECK-NEXT:    li 28, .LCPI1_6@l
610 ; CHECK-NEXT:    lis 25, .LCPI1_6@ha
611 ; CHECK-NEXT:    evlddx 28, 25, 28
612 ; CHECK-NEXT:    efdmul 26, 26, 28
613 ; CHECK-NEXT:    efdadd 26, 26, 27
614 ; CHECK-NEXT:    li 27, 696
615 ; CHECK-NEXT:    evlddx 25, 31, 27
616 ; CHECK-NEXT:    li 27, .LCPI1_7@l
617 ; CHECK-NEXT:    lis 24, .LCPI1_7@ha
618 ; CHECK-NEXT:    evlddx 27, 24, 27
619 ; CHECK-NEXT:    efdmul 25, 25, 27
620 ; CHECK-NEXT:    efdadd 26, 25, 26
621 ; CHECK-NEXT:    li 25, 680
622 ; CHECK-NEXT:    evlddx 24, 31, 25
623 ; CHECK-NEXT:    li 25, .LCPI1_8@l
624 ; CHECK-NEXT:    lis 23, .LCPI1_8@ha
625 ; CHECK-NEXT:    evlddx 25, 23, 25
626 ; CHECK-NEXT:    efdmul 24, 24, 25
627 ; CHECK-NEXT:    efdadd 24, 24, 26
628 ; CHECK-NEXT:    li 26, 664
629 ; CHECK-NEXT:    evlddx 23, 31, 26
630 ; CHECK-NEXT:    li 26, .LCPI1_9@l
631 ; CHECK-NEXT:    lis 22, .LCPI1_9@ha
632 ; CHECK-NEXT:    evlddx 26, 22, 26
633 ; CHECK-NEXT:    efdmul 23, 23, 26
634 ; CHECK-NEXT:    efdadd 24, 23, 24
635 ; CHECK-NEXT:    li 23, 568
636 ; CHECK-NEXT:    evstddx 24, 31, 23
637 ; CHECK-NEXT:    evlddx 24, 29, 3
638 ; CHECK-NEXT:    evlddx 23, 5, 3
639 ; CHECK-NEXT:    efdmul 23, 23, 0
640 ; CHECK-NEXT:    efdadd 24, 23, 24
641 ; CHECK-NEXT:    evlddx 23, 7, 3
642 ; CHECK-NEXT:    efdmul 23, 23, 28
643 ; CHECK-NEXT:    efdadd 24, 23, 24
644 ; CHECK-NEXT:    evlddx 23, 9, 3
645 ; CHECK-NEXT:    efdmul 23, 23, 27
646 ; CHECK-NEXT:    efdadd 24, 23, 24
647 ; CHECK-NEXT:    evlddx 23, 11, 3
648 ; CHECK-NEXT:    efdmul 23, 23, 25
649 ; CHECK-NEXT:    efdadd 24, 23, 24
650 ; CHECK-NEXT:    evlddx 23, 30, 3
651 ; CHECK-NEXT:    efdmul 23, 23, 26
652 ; CHECK-NEXT:    efdadd 23, 23, 24
653 ; CHECK-NEXT:    addi 24, 31, 568
654 ; CHECK-NEXT:    evstddx 23, 24, 3
655 ; CHECK-NEXT:    li 23, 832
656 ; CHECK-NEXT:    evlddx 23, 31, 23
657 ; CHECK-NEXT:    li 22, 584
658 ; CHECK-NEXT:    evlddx 22, 31, 22
659 ; CHECK-NEXT:    li 21, 816
660 ; CHECK-NEXT:    evlddx 21, 31, 21
661 ; CHECK-NEXT:    li 20, 600
662 ; CHECK-NEXT:    evlddx 20, 31, 20
663 ; CHECK-NEXT:    efdmul 21, 21, 20
664 ; CHECK-NEXT:    efdmul 23, 23, 22
665 ; CHECK-NEXT:    efdadd 23, 23, 21
666 ; CHECK-NEXT:    li 22, 800
667 ; CHECK-NEXT:    evlddx 22, 31, 22
668 ; CHECK-NEXT:    li 21, 616
669 ; CHECK-NEXT:    evlddx 21, 31, 21
670 ; CHECK-NEXT:    efdmul 22, 22, 21
671 ; CHECK-NEXT:    efdadd 23, 22, 23
672 ; CHECK-NEXT:    li 22, 784
673 ; CHECK-NEXT:    evlddx 22, 31, 22
674 ; CHECK-NEXT:    li 21, 632
675 ; CHECK-NEXT:    evlddx 21, 31, 21
676 ; CHECK-NEXT:    efdmul 22, 22, 21
677 ; CHECK-NEXT:    efdadd 23, 22, 23
678 ; CHECK-NEXT:    li 22, 768
679 ; CHECK-NEXT:    evlddx 22, 31, 22
680 ; CHECK-NEXT:    li 21, 648
681 ; CHECK-NEXT:    evlddx 21, 31, 21
682 ; CHECK-NEXT:    efdmul 22, 22, 21
683 ; CHECK-NEXT:    efdadd 22, 22, 23
684 ; CHECK-NEXT:    addi 23, 31, 552
685 ; CHECK-NEXT:    evstddx 22, 23, 3
686 ; CHECK-NEXT:    li 22, 832
687 ; CHECK-NEXT:    evlddx 22, 31, 22
688 ; CHECK-NEXT:    evlddx 21, 4, 3
689 ; CHECK-NEXT:    li 20, 816
690 ; CHECK-NEXT:    evlddx 20, 31, 20
691 ; CHECK-NEXT:    evlddx 19, 6, 3
692 ; CHECK-NEXT:    efdmul 20, 20, 19
693 ; CHECK-NEXT:    efdmul 22, 22, 21
694 ; CHECK-NEXT:    efdadd 22, 22, 20
695 ; CHECK-NEXT:    li 21, 800
696 ; CHECK-NEXT:    evlddx 21, 31, 21
697 ; CHECK-NEXT:    evlddx 20, 8, 3
698 ; CHECK-NEXT:    efdmul 21, 21, 20
699 ; CHECK-NEXT:    efdadd 22, 21, 22
700 ; CHECK-NEXT:    li 21, 784
701 ; CHECK-NEXT:    evlddx 21, 31, 21
702 ; CHECK-NEXT:    evlddx 20, 10, 3
703 ; CHECK-NEXT:    efdmul 21, 21, 20
704 ; CHECK-NEXT:    efdadd 22, 21, 22
705 ; CHECK-NEXT:    li 21, 768
706 ; CHECK-NEXT:    evlddx 21, 31, 21
707 ; CHECK-NEXT:    evlddx 20, 12, 3
708 ; CHECK-NEXT:    efdmul 21, 21, 20
709 ; CHECK-NEXT:    efdadd 22, 21, 22
710 ; CHECK-NEXT:    efdneg 22, 22
711 ; CHECK-NEXT:    li 21, 552
712 ; CHECK-NEXT:    evstddx 22, 31, 21
713 ; CHECK-NEXT:    li 22, 568
714 ; CHECK-NEXT:    evlddx 22, 31, 22
715 ; CHECK-NEXT:    li 21, 552
716 ; CHECK-NEXT:    evlddx 21, 31, 21
717 ; CHECK-NEXT:    efdadd 22, 22, 21
718 ; CHECK-NEXT:    lwz 21, 864(31)
719 ; CHECK-NEXT:    lwz 20, 876(31)
720 ; CHECK-NEXT:    lwz 19, 764(31)
721 ; CHECK-NEXT:    lwz 18, 872(31)
722 ; CHECK-NEXT:    add 19, 19, 18
723 ; CHECK-NEXT:    mullw 20, 20, 19
724 ; CHECK-NEXT:    slwi 20, 20, 4
725 ; CHECK-NEXT:    evstddx 22, 21, 20
726 ; CHECK-NEXT:    evlddx 22, 24, 3
727 ; CHECK-NEXT:    evlddx 21, 23, 3
728 ; CHECK-NEXT:    efdadd 22, 22, 21
729 ; CHECK-NEXT:    lwz 21, 864(31)
730 ; CHECK-NEXT:    lwz 20, 876(31)
731 ; CHECK-NEXT:    lwz 19, 764(31)
732 ; CHECK-NEXT:    lwz 18, 872(31)
733 ; CHECK-NEXT:    add 19, 19, 18
734 ; CHECK-NEXT:    mullw 20, 20, 19
735 ; CHECK-NEXT:    slwi 20, 20, 4
736 ; CHECK-NEXT:    add 21, 21, 20
737 ; CHECK-NEXT:    evstddx 22, 21, 3
738 ; CHECK-NEXT:    li 22, 568
739 ; CHECK-NEXT:    evlddx 22, 31, 22
740 ; CHECK-NEXT:    li 21, 552
741 ; CHECK-NEXT:    evlddx 21, 31, 21
742 ; CHECK-NEXT:    efdsub 22, 22, 21
743 ; CHECK-NEXT:    lwz 21, 864(31)
744 ; CHECK-NEXT:    lwz 20, 876(31)
745 ; CHECK-NEXT:    lwz 19, 764(31)
746 ; CHECK-NEXT:    lwz 18, 872(31)
747 ; CHECK-NEXT:    mulli 18, 18, 10
748 ; CHECK-NEXT:    add 19, 19, 18
749 ; CHECK-NEXT:    mullw 20, 20, 19
750 ; CHECK-NEXT:    slwi 20, 20, 4
751 ; CHECK-NEXT:    evstddx 22, 21, 20
752 ; CHECK-NEXT:    evlddx 24, 24, 3
753 ; CHECK-NEXT:    evlddx 23, 23, 3
754 ; CHECK-NEXT:    efdsub 24, 24, 23
755 ; CHECK-NEXT:    lwz 23, 864(31)
756 ; CHECK-NEXT:    lwz 22, 876(31)
757 ; CHECK-NEXT:    lwz 21, 764(31)
758 ; CHECK-NEXT:    lwz 20, 872(31)
759 ; CHECK-NEXT:    mulli 20, 20, 10
760 ; CHECK-NEXT:    add 21, 21, 20
761 ; CHECK-NEXT:    mullw 22, 22, 21
762 ; CHECK-NEXT:    slwi 22, 22, 4
763 ; CHECK-NEXT:    add 23, 23, 22
764 ; CHECK-NEXT:    evstddx 24, 23, 3
765 ; CHECK-NEXT:    li 24, 744
766 ; CHECK-NEXT:    evlddx 24, 31, 24
767 ; CHECK-NEXT:    li 23, 728
768 ; CHECK-NEXT:    evlddx 23, 31, 23
769 ; CHECK-NEXT:    efdmul 23, 23, 28
770 ; CHECK-NEXT:    efdadd 24, 23, 24
771 ; CHECK-NEXT:    li 23, 712
772 ; CHECK-NEXT:    evlddx 23, 31, 23
773 ; CHECK-NEXT:    efdmul 23, 23, 25
774 ; CHECK-NEXT:    efdadd 24, 23, 24
775 ; CHECK-NEXT:    li 23, 696
776 ; CHECK-NEXT:    evlddx 23, 31, 23
777 ; CHECK-NEXT:    efdmul 23, 23, 26
778 ; CHECK-NEXT:    efdadd 24, 23, 24
779 ; CHECK-NEXT:    li 23, 680
780 ; CHECK-NEXT:    evlddx 23, 31, 23
781 ; CHECK-NEXT:    efdmul 23, 23, 27
782 ; CHECK-NEXT:    efdadd 24, 23, 24
783 ; CHECK-NEXT:    li 23, 664
784 ; CHECK-NEXT:    evlddx 23, 31, 23
785 ; CHECK-NEXT:    efdmul 23, 23, 0
786 ; CHECK-NEXT:    efdadd 24, 23, 24
787 ; CHECK-NEXT:    li 23, 536
788 ; CHECK-NEXT:    evstddx 24, 31, 23
789 ; CHECK-NEXT:    evlddx 24, 29, 3
790 ; CHECK-NEXT:    evlddx 23, 5, 3
791 ; CHECK-NEXT:    efdmul 23, 23, 28
792 ; CHECK-NEXT:    efdadd 24, 23, 24
793 ; CHECK-NEXT:    evlddx 23, 7, 3
794 ; CHECK-NEXT:    efdmul 23, 23, 25
795 ; CHECK-NEXT:    efdadd 24, 23, 24
796 ; CHECK-NEXT:    evlddx 23, 9, 3
797 ; CHECK-NEXT:    efdmul 23, 23, 26
798 ; CHECK-NEXT:    efdadd 24, 23, 24
799 ; CHECK-NEXT:    evlddx 23, 11, 3
800 ; CHECK-NEXT:    efdmul 23, 23, 27
801 ; CHECK-NEXT:    efdadd 24, 23, 24
802 ; CHECK-NEXT:    evlddx 23, 30, 3
803 ; CHECK-NEXT:    efdmul 23, 23, 0
804 ; CHECK-NEXT:    efdadd 23, 23, 24
805 ; CHECK-NEXT:    addi 24, 31, 536
806 ; CHECK-NEXT:    evstddx 23, 24, 3
807 ; CHECK-NEXT:    li 23, 816
808 ; CHECK-NEXT:    evlddx 23, 31, 23
809 ; CHECK-NEXT:    li 22, 584
810 ; CHECK-NEXT:    evlddx 22, 31, 22
811 ; CHECK-NEXT:    li 21, 784
812 ; CHECK-NEXT:    evlddx 21, 31, 21
813 ; CHECK-NEXT:    li 20, 600
814 ; CHECK-NEXT:    evlddx 20, 31, 20
815 ; CHECK-NEXT:    efdmul 21, 21, 20
816 ; CHECK-NEXT:    efdmul 23, 23, 22
817 ; CHECK-NEXT:    efdadd 23, 23, 21
818 ; CHECK-NEXT:    li 22, 768
819 ; CHECK-NEXT:    evlddx 22, 31, 22
820 ; CHECK-NEXT:    li 21, 616
821 ; CHECK-NEXT:    evlddx 21, 31, 21
822 ; CHECK-NEXT:    efdmul 22, 22, 21
823 ; CHECK-NEXT:    efdsub 23, 23, 22
824 ; CHECK-NEXT:    li 22, 800
825 ; CHECK-NEXT:    evlddx 22, 31, 22
826 ; CHECK-NEXT:    li 21, 632
827 ; CHECK-NEXT:    evlddx 21, 31, 21
828 ; CHECK-NEXT:    efdmul 22, 22, 21
829 ; CHECK-NEXT:    efdsub 23, 23, 22
830 ; CHECK-NEXT:    li 22, 832
831 ; CHECK-NEXT:    evlddx 22, 31, 22
832 ; CHECK-NEXT:    li 21, 648
833 ; CHECK-NEXT:    evlddx 21, 31, 21
834 ; CHECK-NEXT:    efdmul 22, 22, 21
835 ; CHECK-NEXT:    efdsub 22, 23, 22
836 ; CHECK-NEXT:    addi 23, 31, 520
837 ; CHECK-NEXT:    evstddx 22, 23, 3
838 ; CHECK-NEXT:    li 22, 816
839 ; CHECK-NEXT:    evlddx 22, 31, 22
840 ; CHECK-NEXT:    evlddx 21, 4, 3
841 ; CHECK-NEXT:    li 20, 784
842 ; CHECK-NEXT:    evlddx 20, 31, 20
843 ; CHECK-NEXT:    evlddx 19, 6, 3
844 ; CHECK-NEXT:    efdmul 20, 20, 19
845 ; CHECK-NEXT:    efdmul 22, 22, 21
846 ; CHECK-NEXT:    efdadd 22, 22, 20
847 ; CHECK-NEXT:    li 21, 768
848 ; CHECK-NEXT:    evlddx 21, 31, 21
849 ; CHECK-NEXT:    evlddx 20, 8, 3
850 ; CHECK-NEXT:    efdmul 21, 21, 20
851 ; CHECK-NEXT:    efdsub 22, 22, 21
852 ; CHECK-NEXT:    li 21, 800
853 ; CHECK-NEXT:    evlddx 21, 31, 21
854 ; CHECK-NEXT:    evlddx 20, 10, 3
855 ; CHECK-NEXT:    efdmul 21, 21, 20
856 ; CHECK-NEXT:    efdsub 22, 22, 21
857 ; CHECK-NEXT:    li 21, 832
858 ; CHECK-NEXT:    evlddx 21, 31, 21
859 ; CHECK-NEXT:    evlddx 20, 12, 3
860 ; CHECK-NEXT:    efdmul 21, 21, 20
861 ; CHECK-NEXT:    efdsub 22, 22, 21
862 ; CHECK-NEXT:    efdneg 22, 22
863 ; CHECK-NEXT:    li 21, 520
864 ; CHECK-NEXT:    evstddx 22, 31, 21
865 ; CHECK-NEXT:    li 22, 536
866 ; CHECK-NEXT:    evlddx 22, 31, 22
867 ; CHECK-NEXT:    li 21, 520
868 ; CHECK-NEXT:    evlddx 21, 31, 21
869 ; CHECK-NEXT:    efdadd 22, 22, 21
870 ; CHECK-NEXT:    lwz 21, 864(31)
871 ; CHECK-NEXT:    lwz 20, 876(31)
872 ; CHECK-NEXT:    lwz 19, 764(31)
873 ; CHECK-NEXT:    lwz 18, 872(31)
874 ; CHECK-NEXT:    slwi 18, 18, 1
875 ; CHECK-NEXT:    add 19, 19, 18
876 ; CHECK-NEXT:    mullw 20, 20, 19
877 ; CHECK-NEXT:    slwi 20, 20, 4
878 ; CHECK-NEXT:    evstddx 22, 21, 20
879 ; CHECK-NEXT:    evlddx 22, 24, 3
880 ; CHECK-NEXT:    evlddx 21, 23, 3
881 ; CHECK-NEXT:    efdadd 22, 22, 21
882 ; CHECK-NEXT:    lwz 21, 864(31)
883 ; CHECK-NEXT:    lwz 20, 876(31)
884 ; CHECK-NEXT:    lwz 19, 764(31)
885 ; CHECK-NEXT:    lwz 18, 872(31)
886 ; CHECK-NEXT:    slwi 18, 18, 1
887 ; CHECK-NEXT:    add 19, 19, 18
888 ; CHECK-NEXT:    mullw 20, 20, 19
889 ; CHECK-NEXT:    slwi 20, 20, 4
890 ; CHECK-NEXT:    add 21, 21, 20
891 ; CHECK-NEXT:    evstddx 22, 21, 3
892 ; CHECK-NEXT:    li 22, 536
893 ; CHECK-NEXT:    evlddx 22, 31, 22
894 ; CHECK-NEXT:    li 21, 520
895 ; CHECK-NEXT:    evlddx 21, 31, 21
896 ; CHECK-NEXT:    efdsub 22, 22, 21
897 ; CHECK-NEXT:    lwz 21, 864(31)
898 ; CHECK-NEXT:    lwz 20, 876(31)
899 ; CHECK-NEXT:    lwz 19, 764(31)
900 ; CHECK-NEXT:    lwz 18, 872(31)
901 ; CHECK-NEXT:    mulli 18, 18, 9
902 ; CHECK-NEXT:    add 19, 19, 18
903 ; CHECK-NEXT:    mullw 20, 20, 19
904 ; CHECK-NEXT:    slwi 20, 20, 4
905 ; CHECK-NEXT:    evstddx 22, 21, 20
906 ; CHECK-NEXT:    evlddx 24, 24, 3
907 ; CHECK-NEXT:    evlddx 23, 23, 3
908 ; CHECK-NEXT:    efdsub 24, 24, 23
909 ; CHECK-NEXT:    lwz 23, 864(31)
910 ; CHECK-NEXT:    lwz 22, 876(31)
911 ; CHECK-NEXT:    lwz 21, 764(31)
912 ; CHECK-NEXT:    lwz 20, 872(31)
913 ; CHECK-NEXT:    mulli 20, 20, 9
914 ; CHECK-NEXT:    add 21, 21, 20
915 ; CHECK-NEXT:    mullw 22, 22, 21
916 ; CHECK-NEXT:    slwi 22, 22, 4
917 ; CHECK-NEXT:    add 23, 23, 22
918 ; CHECK-NEXT:    evstddx 24, 23, 3
919 ; CHECK-NEXT:    li 24, 744
920 ; CHECK-NEXT:    evlddx 24, 31, 24
921 ; CHECK-NEXT:    li 23, 728
922 ; CHECK-NEXT:    evlddx 23, 31, 23
923 ; CHECK-NEXT:    efdmul 23, 23, 27
924 ; CHECK-NEXT:    efdadd 24, 23, 24
925 ; CHECK-NEXT:    li 23, 712
926 ; CHECK-NEXT:    evlddx 23, 31, 23
927 ; CHECK-NEXT:    efdmul 23, 23, 26
928 ; CHECK-NEXT:    efdadd 24, 23, 24
929 ; CHECK-NEXT:    li 23, 696
930 ; CHECK-NEXT:    evlddx 23, 31, 23
931 ; CHECK-NEXT:    efdmul 23, 23, 28
932 ; CHECK-NEXT:    efdadd 24, 23, 24
933 ; CHECK-NEXT:    li 23, 680
934 ; CHECK-NEXT:    evlddx 23, 31, 23
935 ; CHECK-NEXT:    efdmul 23, 23, 0
936 ; CHECK-NEXT:    efdadd 24, 23, 24
937 ; CHECK-NEXT:    li 23, 664
938 ; CHECK-NEXT:    evlddx 23, 31, 23
939 ; CHECK-NEXT:    efdmul 23, 23, 25
940 ; CHECK-NEXT:    efdadd 24, 23, 24
941 ; CHECK-NEXT:    li 23, 504
942 ; CHECK-NEXT:    evstddx 24, 31, 23
943 ; CHECK-NEXT:    evlddx 24, 29, 3
944 ; CHECK-NEXT:    evlddx 23, 5, 3
945 ; CHECK-NEXT:    efdmul 23, 23, 27
946 ; CHECK-NEXT:    efdadd 24, 23, 24
947 ; CHECK-NEXT:    evlddx 23, 7, 3
948 ; CHECK-NEXT:    efdmul 23, 23, 26
949 ; CHECK-NEXT:    efdadd 24, 23, 24
950 ; CHECK-NEXT:    evlddx 23, 9, 3
951 ; CHECK-NEXT:    efdmul 23, 23, 28
952 ; CHECK-NEXT:    efdadd 24, 23, 24
953 ; CHECK-NEXT:    evlddx 23, 11, 3
954 ; CHECK-NEXT:    efdmul 23, 23, 0
955 ; CHECK-NEXT:    efdadd 24, 23, 24
956 ; CHECK-NEXT:    evlddx 23, 30, 3
957 ; CHECK-NEXT:    efdmul 23, 23, 25
958 ; CHECK-NEXT:    efdadd 23, 23, 24
959 ; CHECK-NEXT:    addi 24, 31, 504
960 ; CHECK-NEXT:    evstddx 23, 24, 3
961 ; CHECK-NEXT:    li 23, 800
962 ; CHECK-NEXT:    evlddx 23, 31, 23
963 ; CHECK-NEXT:    li 22, 584
964 ; CHECK-NEXT:    evlddx 22, 31, 22
965 ; CHECK-NEXT:    li 21, 768
966 ; CHECK-NEXT:    evlddx 21, 31, 21
967 ; CHECK-NEXT:    li 20, 600
968 ; CHECK-NEXT:    evlddx 20, 31, 20
969 ; CHECK-NEXT:    efdmul 21, 21, 20
970 ; CHECK-NEXT:    efdmul 23, 23, 22
971 ; CHECK-NEXT:    efdsub 23, 23, 21
972 ; CHECK-NEXT:    li 22, 816
973 ; CHECK-NEXT:    evlddx 22, 31, 22
974 ; CHECK-NEXT:    li 21, 616
975 ; CHECK-NEXT:    evlddx 21, 31, 21
976 ; CHECK-NEXT:    efdmul 22, 22, 21
977 ; CHECK-NEXT:    efdsub 23, 23, 22
978 ; CHECK-NEXT:    li 22, 832
979 ; CHECK-NEXT:    evlddx 22, 31, 22
980 ; CHECK-NEXT:    li 21, 632
981 ; CHECK-NEXT:    evlddx 21, 31, 21
982 ; CHECK-NEXT:    efdmul 22, 22, 21
983 ; CHECK-NEXT:    efdadd 23, 22, 23
984 ; CHECK-NEXT:    li 22, 784
985 ; CHECK-NEXT:    evlddx 22, 31, 22
986 ; CHECK-NEXT:    li 21, 648
987 ; CHECK-NEXT:    evlddx 21, 31, 21
988 ; CHECK-NEXT:    efdmul 22, 22, 21
989 ; CHECK-NEXT:    efdadd 22, 22, 23
990 ; CHECK-NEXT:    addi 23, 31, 488
991 ; CHECK-NEXT:    evstddx 22, 23, 3
992 ; CHECK-NEXT:    li 22, 800
993 ; CHECK-NEXT:    evlddx 22, 31, 22
994 ; CHECK-NEXT:    evlddx 21, 4, 3
995 ; CHECK-NEXT:    li 20, 768
996 ; CHECK-NEXT:    evlddx 20, 31, 20
997 ; CHECK-NEXT:    evlddx 19, 6, 3
998 ; CHECK-NEXT:    efdmul 20, 20, 19
999 ; CHECK-NEXT:    efdmul 22, 22, 21
1000 ; CHECK-NEXT:    efdsub 22, 22, 20
1001 ; CHECK-NEXT:    li 21, 816
1002 ; CHECK-NEXT:    evlddx 21, 31, 21
1003 ; CHECK-NEXT:    evlddx 20, 8, 3
1004 ; CHECK-NEXT:    efdmul 21, 21, 20
1005 ; CHECK-NEXT:    efdsub 22, 22, 21
1006 ; CHECK-NEXT:    li 21, 832
1007 ; CHECK-NEXT:    evlddx 21, 31, 21
1008 ; CHECK-NEXT:    evlddx 20, 10, 3
1009 ; CHECK-NEXT:    efdmul 21, 21, 20
1010 ; CHECK-NEXT:    efdadd 22, 21, 22
1011 ; CHECK-NEXT:    li 21, 784
1012 ; CHECK-NEXT:    evlddx 21, 31, 21
1013 ; CHECK-NEXT:    evlddx 20, 12, 3
1014 ; CHECK-NEXT:    efdmul 21, 21, 20
1015 ; CHECK-NEXT:    efdadd 22, 21, 22
1016 ; CHECK-NEXT:    efdneg 22, 22
1017 ; CHECK-NEXT:    li 21, 488
1018 ; CHECK-NEXT:    evstddx 22, 31, 21
1019 ; CHECK-NEXT:    li 22, 504
1020 ; CHECK-NEXT:    evlddx 22, 31, 22
1021 ; CHECK-NEXT:    li 21, 488
1022 ; CHECK-NEXT:    evlddx 21, 31, 21
1023 ; CHECK-NEXT:    efdadd 22, 22, 21
1024 ; CHECK-NEXT:    lwz 21, 864(31)
1025 ; CHECK-NEXT:    lwz 20, 876(31)
1026 ; CHECK-NEXT:    lwz 19, 764(31)
1027 ; CHECK-NEXT:    lwz 18, 872(31)
1028 ; CHECK-NEXT:    mulli 18, 18, 3
1029 ; CHECK-NEXT:    add 19, 19, 18
1030 ; CHECK-NEXT:    mullw 20, 20, 19
1031 ; CHECK-NEXT:    slwi 20, 20, 4
1032 ; CHECK-NEXT:    evstddx 22, 21, 20
1033 ; CHECK-NEXT:    evlddx 22, 24, 3
1034 ; CHECK-NEXT:    evlddx 21, 23, 3
1035 ; CHECK-NEXT:    efdadd 22, 22, 21
1036 ; CHECK-NEXT:    lwz 21, 864(31)
1037 ; CHECK-NEXT:    lwz 20, 876(31)
1038 ; CHECK-NEXT:    lwz 19, 764(31)
1039 ; CHECK-NEXT:    lwz 18, 872(31)
1040 ; CHECK-NEXT:    mulli 18, 18, 3
1041 ; CHECK-NEXT:    add 19, 19, 18
1042 ; CHECK-NEXT:    mullw 20, 20, 19
1043 ; CHECK-NEXT:    slwi 20, 20, 4
1044 ; CHECK-NEXT:    add 21, 21, 20
1045 ; CHECK-NEXT:    evstddx 22, 21, 3
1046 ; CHECK-NEXT:    li 22, 504
1047 ; CHECK-NEXT:    evlddx 22, 31, 22
1048 ; CHECK-NEXT:    li 21, 488
1049 ; CHECK-NEXT:    evlddx 21, 31, 21
1050 ; CHECK-NEXT:    efdsub 22, 22, 21
1051 ; CHECK-NEXT:    lwz 21, 864(31)
1052 ; CHECK-NEXT:    lwz 20, 876(31)
1053 ; CHECK-NEXT:    lwz 19, 764(31)
1054 ; CHECK-NEXT:    lwz 18, 872(31)
1055 ; CHECK-NEXT:    slwi 18, 18, 3
1056 ; CHECK-NEXT:    add 19, 19, 18
1057 ; CHECK-NEXT:    mullw 20, 20, 19
1058 ; CHECK-NEXT:    slwi 20, 20, 4
1059 ; CHECK-NEXT:    evstddx 22, 21, 20
1060 ; CHECK-NEXT:    evlddx 24, 24, 3
1061 ; CHECK-NEXT:    evlddx 23, 23, 3
1062 ; CHECK-NEXT:    efdsub 24, 24, 23
1063 ; CHECK-NEXT:    lwz 23, 864(31)
1064 ; CHECK-NEXT:    lwz 22, 876(31)
1065 ; CHECK-NEXT:    lwz 21, 764(31)
1066 ; CHECK-NEXT:    lwz 20, 872(31)
1067 ; CHECK-NEXT:    slwi 20, 20, 3
1068 ; CHECK-NEXT:    add 21, 21, 20
1069 ; CHECK-NEXT:    mullw 22, 22, 21
1070 ; CHECK-NEXT:    slwi 22, 22, 4
1071 ; CHECK-NEXT:    add 23, 23, 22
1072 ; CHECK-NEXT:    evstddx 24, 23, 3
1073 ; CHECK-NEXT:    li 24, 744
1074 ; CHECK-NEXT:    evlddx 24, 31, 24
1075 ; CHECK-NEXT:    li 23, 728
1076 ; CHECK-NEXT:    evlddx 23, 31, 23
1077 ; CHECK-NEXT:    efdmul 23, 23, 25
1078 ; CHECK-NEXT:    efdadd 24, 23, 24
1079 ; CHECK-NEXT:    li 23, 712
1080 ; CHECK-NEXT:    evlddx 23, 31, 23
1081 ; CHECK-NEXT:    efdmul 23, 23, 27
1082 ; CHECK-NEXT:    efdadd 24, 23, 24
1083 ; CHECK-NEXT:    li 23, 696
1084 ; CHECK-NEXT:    evlddx 23, 31, 23
1085 ; CHECK-NEXT:    efdmul 23, 23, 0
1086 ; CHECK-NEXT:    efdadd 24, 23, 24
1087 ; CHECK-NEXT:    li 23, 680
1088 ; CHECK-NEXT:    evlddx 23, 31, 23
1089 ; CHECK-NEXT:    efdmul 23, 23, 26
1090 ; CHECK-NEXT:    efdadd 24, 23, 24
1091 ; CHECK-NEXT:    li 23, 664
1092 ; CHECK-NEXT:    evlddx 23, 31, 23
1093 ; CHECK-NEXT:    efdmul 23, 23, 28
1094 ; CHECK-NEXT:    efdadd 24, 23, 24
1095 ; CHECK-NEXT:    li 23, 472
1096 ; CHECK-NEXT:    evstddx 24, 31, 23
1097 ; CHECK-NEXT:    evlddx 29, 29, 3
1098 ; CHECK-NEXT:    evlddx 5, 5, 3
1099 ; CHECK-NEXT:    efdmul 5, 5, 25
1100 ; CHECK-NEXT:    efdadd 5, 5, 29
1101 ; CHECK-NEXT:    evlddx 7, 7, 3
1102 ; CHECK-NEXT:    efdmul 7, 7, 27
1103 ; CHECK-NEXT:    efdadd 5, 7, 5
1104 ; CHECK-NEXT:    evlddx 7, 9, 3
1105 ; CHECK-NEXT:    efdmul 7, 7, 0
1106 ; CHECK-NEXT:    efdadd 5, 7, 5
1107 ; CHECK-NEXT:    evlddx 7, 11, 3
1108 ; CHECK-NEXT:    efdmul 7, 7, 26
1109 ; CHECK-NEXT:    efdadd 5, 7, 5
1110 ; CHECK-NEXT:    evlddx 7, 30, 3
1111 ; CHECK-NEXT:    efdmul 7, 7, 28
1112 ; CHECK-NEXT:    efdadd 7, 7, 5
1113 ; CHECK-NEXT:    addi 5, 31, 472
1114 ; CHECK-NEXT:    evstddx 7, 5, 3
1115 ; CHECK-NEXT:    li 7, 784
1116 ; CHECK-NEXT:    evlddx 7, 31, 7
1117 ; CHECK-NEXT:    li 9, 584
1118 ; CHECK-NEXT:    evlddx 9, 31, 9
1119 ; CHECK-NEXT:    li 11, 800
1120 ; CHECK-NEXT:    evlddx 11, 31, 11
1121 ; CHECK-NEXT:    li 30, 600
1122 ; CHECK-NEXT:    evlddx 0, 31, 30
1123 ; CHECK-NEXT:    efdmul 11, 11, 0
1124 ; CHECK-NEXT:    efdmul 7, 7, 9
1125 ; CHECK-NEXT:    efdsub 7, 7, 11
1126 ; CHECK-NEXT:    li 9, 832
1127 ; CHECK-NEXT:    evlddx 9, 31, 9
1128 ; CHECK-NEXT:    li 11, 616
1129 ; CHECK-NEXT:    evlddx 11, 31, 11
1130 ; CHECK-NEXT:    efdmul 9, 9, 11
1131 ; CHECK-NEXT:    efdadd 7, 9, 7
1132 ; CHECK-NEXT:    li 9, 768
1133 ; CHECK-NEXT:    evlddx 9, 31, 9
1134 ; CHECK-NEXT:    li 11, 632
1135 ; CHECK-NEXT:    evlddx 11, 31, 11
1136 ; CHECK-NEXT:    efdmul 9, 9, 11
1137 ; CHECK-NEXT:    efdadd 7, 9, 7
1138 ; CHECK-NEXT:    li 9, 816
1139 ; CHECK-NEXT:    evlddx 9, 31, 9
1140 ; CHECK-NEXT:    li 11, 648
1141 ; CHECK-NEXT:    evlddx 11, 31, 11
1142 ; CHECK-NEXT:    efdmul 9, 9, 11
1143 ; CHECK-NEXT:    efdsub 9, 7, 9
1144 ; CHECK-NEXT:    addi 7, 31, 456
1145 ; CHECK-NEXT:    evstddx 9, 7, 3
1146 ; CHECK-NEXT:    li 9, 784
1147 ; CHECK-NEXT:    evlddx 9, 31, 9
1148 ; CHECK-NEXT:    evlddx 4, 4, 3
1149 ; CHECK-NEXT:    li 11, 800
1150 ; CHECK-NEXT:    evlddx 11, 31, 11
1151 ; CHECK-NEXT:    evlddx 6, 6, 3
1152 ; CHECK-NEXT:    efdmul 6, 11, 6
1153 ; CHECK-NEXT:    efdmul 4, 9, 4
1154 ; CHECK-NEXT:    efdsub 4, 4, 6
1155 ; CHECK-NEXT:    li 6, 832
1156 ; CHECK-NEXT:    evlddx 6, 31, 6
1157 ; CHECK-NEXT:    evlddx 8, 8, 3
1158 ; CHECK-NEXT:    efdmul 6, 6, 8
1159 ; CHECK-NEXT:    efdadd 4, 6, 4
1160 ; CHECK-NEXT:    li 6, 768
1161 ; CHECK-NEXT:    evlddx 6, 31, 6
1162 ; CHECK-NEXT:    evlddx 8, 10, 3
1163 ; CHECK-NEXT:    efdmul 6, 6, 8
1164 ; CHECK-NEXT:    efdadd 4, 6, 4
1165 ; CHECK-NEXT:    li 6, 816
1166 ; CHECK-NEXT:    evlddx 6, 31, 6
1167 ; CHECK-NEXT:    evlddx 8, 12, 3
1168 ; CHECK-NEXT:    efdmul 6, 6, 8
1169 ; CHECK-NEXT:    efdsub 4, 4, 6
1170 ; CHECK-NEXT:    efdneg 4, 4
1171 ; CHECK-NEXT:    li 6, 456
1172 ; CHECK-NEXT:    evstddx 4, 31, 6
1173 ; CHECK-NEXT:    li 4, 472
1174 ; CHECK-NEXT:    evlddx 4, 31, 4
1175 ; CHECK-NEXT:    li 6, 456
1176 ; CHECK-NEXT:    evlddx 6, 31, 6
1177 ; CHECK-NEXT:    efdadd 4, 4, 6
1178 ; CHECK-NEXT:    lwz 6, 864(31)
1179 ; CHECK-NEXT:    lwz 8, 876(31)
1180 ; CHECK-NEXT:    lwz 9, 764(31)
1181 ; CHECK-NEXT:    lwz 10, 872(31)
1182 ; CHECK-NEXT:    slwi 10, 10, 2
1183 ; CHECK-NEXT:    add 9, 9, 10
1184 ; CHECK-NEXT:    mullw 8, 8, 9
1185 ; CHECK-NEXT:    slwi 8, 8, 4
1186 ; CHECK-NEXT:    evstddx 4, 6, 8
1187 ; CHECK-NEXT:    evlddx 4, 5, 3
1188 ; CHECK-NEXT:    evlddx 6, 7, 3
1189 ; CHECK-NEXT:    efdadd 4, 4, 6
1190 ; CHECK-NEXT:    lwz 6, 864(31)
1191 ; CHECK-NEXT:    lwz 8, 876(31)
1192 ; CHECK-NEXT:    lwz 9, 764(31)
1193 ; CHECK-NEXT:    lwz 10, 872(31)
1194 ; CHECK-NEXT:    slwi 10, 10, 2
1195 ; CHECK-NEXT:    add 9, 9, 10
1196 ; CHECK-NEXT:    mullw 8, 8, 9
1197 ; CHECK-NEXT:    slwi 8, 8, 4
1198 ; CHECK-NEXT:    add 6, 6, 8
1199 ; CHECK-NEXT:    evstddx 4, 6, 3
1200 ; CHECK-NEXT:    li 4, 472
1201 ; CHECK-NEXT:    evlddx 4, 31, 4
1202 ; CHECK-NEXT:    li 6, 456
1203 ; CHECK-NEXT:    evlddx 6, 31, 6
1204 ; CHECK-NEXT:    efdsub 4, 4, 6
1205 ; CHECK-NEXT:    lwz 6, 864(31)
1206 ; CHECK-NEXT:    lwz 8, 876(31)
1207 ; CHECK-NEXT:    lwz 9, 764(31)
1208 ; CHECK-NEXT:    lwz 10, 872(31)
1209 ; CHECK-NEXT:    mulli 10, 10, 7
1210 ; CHECK-NEXT:    add 9, 9, 10
1211 ; CHECK-NEXT:    mullw 8, 8, 9
1212 ; CHECK-NEXT:    slwi 8, 8, 4
1213 ; CHECK-NEXT:    evstddx 4, 6, 8
1214 ; CHECK-NEXT:    evlddx 4, 5, 3
1215 ; CHECK-NEXT:    evlddx 5, 7, 3
1216 ; CHECK-NEXT:    efdsub 4, 4, 5
1217 ; CHECK-NEXT:    lwz 5, 864(31)
1218 ; CHECK-NEXT:    lwz 6, 876(31)
1219 ; CHECK-NEXT:    lwz 7, 764(31)
1220 ; CHECK-NEXT:    lwz 8, 872(31)
1221 ; CHECK-NEXT:    mulli 8, 8, 7
1222 ; CHECK-NEXT:    add 7, 7, 8
1223 ; CHECK-NEXT:    mullw 6, 6, 7
1224 ; CHECK-NEXT:    slwi 6, 6, 4
1225 ; CHECK-NEXT:    add 5, 5, 6
1226 ; CHECK-NEXT:    evstddx 4, 5, 3
1227 ; CHECK-NEXT:    li 3, 1
1228 ; CHECK-NEXT:    stw 3, 452(31)
1229 ; CHECK-NEXT:    b .LBB1_3
1230 ; CHECK-NEXT:  .LBB1_3: # Parent Loop BB1_1 Depth=1
1231 ; CHECK-NEXT:    # => This Inner Loop Header: Depth=2
1232 ; CHECK-NEXT:    lwz 3, 452(31)
1233 ; CHECK-NEXT:    lwz 4, 876(31)
1234 ; CHECK-NEXT:    cmplw 3, 4
1235 ; CHECK-NEXT:    bge 0, .LBB1_6
1236 ; CHECK-NEXT:    b .LBB1_4
1237 ; CHECK-NEXT:  .LBB1_4:
1238 ; CHECK-NEXT:    lwz 3, 868(31)
1239 ; CHECK-NEXT:    lwz 4, 452(31)
1240 ; CHECK-NEXT:    lwz 5, 876(31)
1241 ; CHECK-NEXT:    lwz 6, 764(31)
1242 ; CHECK-NEXT:    mullw 5, 6, 5
1243 ; CHECK-NEXT:    mulli 5, 5, 11
1244 ; CHECK-NEXT:    add 4, 4, 5
1245 ; CHECK-NEXT:    slwi 4, 4, 4
1246 ; CHECK-NEXT:    lwzux 4, 3, 4
1247 ; CHECK-NEXT:    stw 4, 432(31)
1248 ; CHECK-NEXT:    lwz 4, 12(3)
1249 ; CHECK-NEXT:    stw 4, 444(31)
1250 ; CHECK-NEXT:    lwz 4, 8(3)
1251 ; CHECK-NEXT:    stw 4, 440(31)
1252 ; CHECK-NEXT:    lwz 3, 4(3)
1253 ; CHECK-NEXT:    stw 3, 436(31)
1254 ; CHECK-NEXT:    lwz 3, 868(31)
1255 ; CHECK-NEXT:    lwz 4, 452(31)
1256 ; CHECK-NEXT:    lwz 5, 876(31)
1257 ; CHECK-NEXT:    lwz 6, 764(31)
1258 ; CHECK-NEXT:    mulli 6, 6, 11
1259 ; CHECK-NEXT:    addi 7, 6, 1
1260 ; CHECK-NEXT:    mullw 7, 5, 7
1261 ; CHECK-NEXT:    add 7, 4, 7
1262 ; CHECK-NEXT:    slwi 7, 7, 4
1263 ; CHECK-NEXT:    evlddx 7, 3, 7
1264 ; CHECK-NEXT:    addi 6, 6, 10
1265 ; CHECK-NEXT:    mullw 5, 5, 6
1266 ; CHECK-NEXT:    add 4, 4, 5
1267 ; CHECK-NEXT:    slwi 4, 4, 4
1268 ; CHECK-NEXT:    evlddx 3, 3, 4
1269 ; CHECK-NEXT:    efdadd 3, 7, 3
1270 ; CHECK-NEXT:    li 4, 416
1271 ; CHECK-NEXT:    evstddx 3, 31, 4
1272 ; CHECK-NEXT:    lwz 4, 868(31)
1273 ; CHECK-NEXT:    lwz 5, 452(31)
1274 ; CHECK-NEXT:    lwz 6, 876(31)
1275 ; CHECK-NEXT:    lwz 3, 764(31)
1276 ; CHECK-NEXT:    mulli 7, 3, 11
1277 ; CHECK-NEXT:    addi 3, 7, 1
1278 ; CHECK-NEXT:    mullw 3, 6, 3
1279 ; CHECK-NEXT:    add 3, 5, 3
1280 ; CHECK-NEXT:    slwi 3, 3, 4
1281 ; CHECK-NEXT:    add 8, 4, 3
1282 ; CHECK-NEXT:    li 3, 8
1283 ; CHECK-NEXT:    evlddx 8, 8, 3
1284 ; CHECK-NEXT:    addi 7, 7, 10
1285 ; CHECK-NEXT:    mullw 6, 6, 7
1286 ; CHECK-NEXT:    add 5, 5, 6
1287 ; CHECK-NEXT:    slwi 5, 5, 4
1288 ; CHECK-NEXT:    add 4, 4, 5
1289 ; CHECK-NEXT:    evlddx 4, 4, 3
1290 ; CHECK-NEXT:    efdadd 4, 8, 4
1291 ; CHECK-NEXT:    addi 5, 31, 416
1292 ; CHECK-NEXT:    evstddx 4, 5, 3
1293 ; CHECK-NEXT:    lwz 4, 868(31)
1294 ; CHECK-NEXT:    lwz 6, 452(31)
1295 ; CHECK-NEXT:    lwz 7, 876(31)
1296 ; CHECK-NEXT:    lwz 8, 764(31)
1297 ; CHECK-NEXT:    mulli 8, 8, 11
1298 ; CHECK-NEXT:    addi 9, 8, 1
1299 ; CHECK-NEXT:    mullw 9, 7, 9
1300 ; CHECK-NEXT:    add 9, 6, 9
1301 ; CHECK-NEXT:    slwi 9, 9, 4
1302 ; CHECK-NEXT:    evlddx 9, 4, 9
1303 ; CHECK-NEXT:    addi 8, 8, 10
1304 ; CHECK-NEXT:    mullw 7, 7, 8
1305 ; CHECK-NEXT:    add 6, 6, 7
1306 ; CHECK-NEXT:    slwi 6, 6, 4
1307 ; CHECK-NEXT:    evlddx 4, 4, 6
1308 ; CHECK-NEXT:    efdsub 4, 9, 4
1309 ; CHECK-NEXT:    li 6, 272
1310 ; CHECK-NEXT:    evstddx 4, 31, 6
1311 ; CHECK-NEXT:    lwz 4, 868(31)
1312 ; CHECK-NEXT:    lwz 6, 452(31)
1313 ; CHECK-NEXT:    lwz 7, 876(31)
1314 ; CHECK-NEXT:    lwz 8, 764(31)
1315 ; CHECK-NEXT:    mulli 8, 8, 11
1316 ; CHECK-NEXT:    addi 9, 8, 1
1317 ; CHECK-NEXT:    mullw 9, 7, 9
1318 ; CHECK-NEXT:    add 9, 6, 9
1319 ; CHECK-NEXT:    slwi 9, 9, 4
1320 ; CHECK-NEXT:    add 9, 4, 9
1321 ; CHECK-NEXT:    evlddx 9, 9, 3
1322 ; CHECK-NEXT:    addi 8, 8, 10
1323 ; CHECK-NEXT:    mullw 7, 7, 8
1324 ; CHECK-NEXT:    add 6, 6, 7
1325 ; CHECK-NEXT:    slwi 6, 6, 4
1326 ; CHECK-NEXT:    add 4, 4, 6
1327 ; CHECK-NEXT:    evlddx 4, 4, 3
1328 ; CHECK-NEXT:    efdsub 6, 9, 4
1329 ; CHECK-NEXT:    addi 4, 31, 272
1330 ; CHECK-NEXT:    evstddx 6, 4, 3
1331 ; CHECK-NEXT:    lwz 6, 868(31)
1332 ; CHECK-NEXT:    lwz 7, 452(31)
1333 ; CHECK-NEXT:    lwz 8, 876(31)
1334 ; CHECK-NEXT:    lwz 9, 764(31)
1335 ; CHECK-NEXT:    mulli 9, 9, 11
1336 ; CHECK-NEXT:    addi 10, 9, 2
1337 ; CHECK-NEXT:    mullw 10, 8, 10
1338 ; CHECK-NEXT:    add 10, 7, 10
1339 ; CHECK-NEXT:    slwi 10, 10, 4
1340 ; CHECK-NEXT:    evlddx 10, 6, 10
1341 ; CHECK-NEXT:    addi 9, 9, 9
1342 ; CHECK-NEXT:    mullw 8, 8, 9
1343 ; CHECK-NEXT:    add 7, 7, 8
1344 ; CHECK-NEXT:    slwi 7, 7, 4
1345 ; CHECK-NEXT:    evlddx 6, 6, 7
1346 ; CHECK-NEXT:    efdadd 6, 10, 6
1347 ; CHECK-NEXT:    li 7, 400
1348 ; CHECK-NEXT:    evstddx 6, 31, 7
1349 ; CHECK-NEXT:    lwz 6, 868(31)
1350 ; CHECK-NEXT:    lwz 7, 452(31)
1351 ; CHECK-NEXT:    lwz 8, 876(31)
1352 ; CHECK-NEXT:    lwz 9, 764(31)
1353 ; CHECK-NEXT:    mulli 9, 9, 11
1354 ; CHECK-NEXT:    addi 10, 9, 2
1355 ; CHECK-NEXT:    mullw 10, 8, 10
1356 ; CHECK-NEXT:    add 10, 7, 10
1357 ; CHECK-NEXT:    slwi 10, 10, 4
1358 ; CHECK-NEXT:    add 10, 6, 10
1359 ; CHECK-NEXT:    evlddx 10, 10, 3
1360 ; CHECK-NEXT:    addi 9, 9, 9
1361 ; CHECK-NEXT:    mullw 8, 8, 9
1362 ; CHECK-NEXT:    add 7, 7, 8
1363 ; CHECK-NEXT:    slwi 7, 7, 4
1364 ; CHECK-NEXT:    add 6, 6, 7
1365 ; CHECK-NEXT:    evlddx 6, 6, 3
1366 ; CHECK-NEXT:    efdadd 6, 10, 6
1367 ; CHECK-NEXT:    addi 7, 31, 400
1368 ; CHECK-NEXT:    evstddx 6, 7, 3
1369 ; CHECK-NEXT:    lwz 6, 868(31)
1370 ; CHECK-NEXT:    lwz 8, 452(31)
1371 ; CHECK-NEXT:    lwz 9, 876(31)
1372 ; CHECK-NEXT:    lwz 10, 764(31)
1373 ; CHECK-NEXT:    mulli 10, 10, 11
1374 ; CHECK-NEXT:    addi 11, 10, 2
1375 ; CHECK-NEXT:    mullw 11, 9, 11
1376 ; CHECK-NEXT:    add 11, 8, 11
1377 ; CHECK-NEXT:    slwi 11, 11, 4
1378 ; CHECK-NEXT:    evlddx 11, 6, 11
1379 ; CHECK-NEXT:    addi 10, 10, 9
1380 ; CHECK-NEXT:    mullw 9, 9, 10
1381 ; CHECK-NEXT:    add 8, 8, 9
1382 ; CHECK-NEXT:    slwi 8, 8, 4
1383 ; CHECK-NEXT:    evlddx 6, 6, 8
1384 ; CHECK-NEXT:    efdsub 6, 11, 6
1385 ; CHECK-NEXT:    li 8, 288
1386 ; CHECK-NEXT:    evstddx 6, 31, 8
1387 ; CHECK-NEXT:    lwz 6, 868(31)
1388 ; CHECK-NEXT:    lwz 8, 452(31)
1389 ; CHECK-NEXT:    lwz 9, 876(31)
1390 ; CHECK-NEXT:    lwz 10, 764(31)
1391 ; CHECK-NEXT:    mulli 10, 10, 11
1392 ; CHECK-NEXT:    addi 11, 10, 2
1393 ; CHECK-NEXT:    mullw 11, 9, 11
1394 ; CHECK-NEXT:    add 11, 8, 11
1395 ; CHECK-NEXT:    slwi 11, 11, 4
1396 ; CHECK-NEXT:    add 11, 6, 11
1397 ; CHECK-NEXT:    evlddx 11, 11, 3
1398 ; CHECK-NEXT:    addi 10, 10, 9
1399 ; CHECK-NEXT:    mullw 9, 9, 10
1400 ; CHECK-NEXT:    add 8, 8, 9
1401 ; CHECK-NEXT:    slwi 8, 8, 4
1402 ; CHECK-NEXT:    add 6, 6, 8
1403 ; CHECK-NEXT:    evlddx 6, 6, 3
1404 ; CHECK-NEXT:    efdsub 8, 11, 6
1405 ; CHECK-NEXT:    addi 6, 31, 288
1406 ; CHECK-NEXT:    evstddx 8, 6, 3
1407 ; CHECK-NEXT:    lwz 8, 868(31)
1408 ; CHECK-NEXT:    lwz 9, 452(31)
1409 ; CHECK-NEXT:    lwz 10, 876(31)
1410 ; CHECK-NEXT:    lwz 11, 764(31)
1411 ; CHECK-NEXT:    mulli 11, 11, 11
1412 ; CHECK-NEXT:    addi 12, 11, 3
1413 ; CHECK-NEXT:    mullw 12, 10, 12
1414 ; CHECK-NEXT:    add 12, 9, 12
1415 ; CHECK-NEXT:    slwi 12, 12, 4
1416 ; CHECK-NEXT:    evlddx 12, 8, 12
1417 ; CHECK-NEXT:    addi 11, 11, 8
1418 ; CHECK-NEXT:    mullw 10, 10, 11
1419 ; CHECK-NEXT:    add 9, 9, 10
1420 ; CHECK-NEXT:    slwi 9, 9, 4
1421 ; CHECK-NEXT:    evlddx 8, 8, 9
1422 ; CHECK-NEXT:    efdadd 8, 12, 8
1423 ; CHECK-NEXT:    li 9, 384
1424 ; CHECK-NEXT:    evstddx 8, 31, 9
1425 ; CHECK-NEXT:    lwz 8, 868(31)
1426 ; CHECK-NEXT:    lwz 9, 452(31)
1427 ; CHECK-NEXT:    lwz 10, 876(31)
1428 ; CHECK-NEXT:    lwz 11, 764(31)
1429 ; CHECK-NEXT:    mulli 11, 11, 11
1430 ; CHECK-NEXT:    addi 12, 11, 3
1431 ; CHECK-NEXT:    mullw 12, 10, 12
1432 ; CHECK-NEXT:    add 12, 9, 12
1433 ; CHECK-NEXT:    slwi 12, 12, 4
1434 ; CHECK-NEXT:    add 12, 8, 12
1435 ; CHECK-NEXT:    evlddx 12, 12, 3
1436 ; CHECK-NEXT:    addi 11, 11, 8
1437 ; CHECK-NEXT:    mullw 10, 10, 11
1438 ; CHECK-NEXT:    add 9, 9, 10
1439 ; CHECK-NEXT:    slwi 9, 9, 4
1440 ; CHECK-NEXT:    add 8, 8, 9
1441 ; CHECK-NEXT:    evlddx 8, 8, 3
1442 ; CHECK-NEXT:    efdadd 8, 12, 8
1443 ; CHECK-NEXT:    addi 9, 31, 384
1444 ; CHECK-NEXT:    evstddx 8, 9, 3
1445 ; CHECK-NEXT:    lwz 8, 868(31)
1446 ; CHECK-NEXT:    lwz 10, 452(31)
1447 ; CHECK-NEXT:    lwz 11, 876(31)
1448 ; CHECK-NEXT:    lwz 12, 764(31)
1449 ; CHECK-NEXT:    mulli 12, 12, 11
1450 ; CHECK-NEXT:    addi 0, 12, 3
1451 ; CHECK-NEXT:    mullw 0, 11, 0
1452 ; CHECK-NEXT:    add 0, 10, 0
1453 ; CHECK-NEXT:    slwi 0, 0, 4
1454 ; CHECK-NEXT:    evlddx 0, 8, 0
1455 ; CHECK-NEXT:    addi 12, 12, 8
1456 ; CHECK-NEXT:    mullw 11, 11, 12
1457 ; CHECK-NEXT:    add 10, 10, 11
1458 ; CHECK-NEXT:    slwi 10, 10, 4
1459 ; CHECK-NEXT:    evlddx 8, 8, 10
1460 ; CHECK-NEXT:    efdsub 8, 0, 8
1461 ; CHECK-NEXT:    li 10, 304
1462 ; CHECK-NEXT:    evstddx 8, 31, 10
1463 ; CHECK-NEXT:    lwz 8, 868(31)
1464 ; CHECK-NEXT:    lwz 10, 452(31)
1465 ; CHECK-NEXT:    lwz 11, 876(31)
1466 ; CHECK-NEXT:    lwz 12, 764(31)
1467 ; CHECK-NEXT:    mulli 12, 12, 11
1468 ; CHECK-NEXT:    addi 0, 12, 3
1469 ; CHECK-NEXT:    mullw 0, 11, 0
1470 ; CHECK-NEXT:    add 0, 10, 0
1471 ; CHECK-NEXT:    slwi 0, 0, 4
1472 ; CHECK-NEXT:    add 30, 8, 0
1473 ; CHECK-NEXT:    evlddx 0, 30, 3
1474 ; CHECK-NEXT:    addi 12, 12, 8
1475 ; CHECK-NEXT:    mullw 11, 11, 12
1476 ; CHECK-NEXT:    add 10, 10, 11
1477 ; CHECK-NEXT:    slwi 10, 10, 4
1478 ; CHECK-NEXT:    add 8, 8, 10
1479 ; CHECK-NEXT:    evlddx 8, 8, 3
1480 ; CHECK-NEXT:    efdsub 10, 0, 8
1481 ; CHECK-NEXT:    addi 8, 31, 304
1482 ; CHECK-NEXT:    evstddx 10, 8, 3
1483 ; CHECK-NEXT:    lwz 10, 868(31)
1484 ; CHECK-NEXT:    lwz 11, 452(31)
1485 ; CHECK-NEXT:    lwz 12, 876(31)
1486 ; CHECK-NEXT:    lwz 0, 764(31)
1487 ; CHECK-NEXT:    mulli 30, 0, 11
1488 ; CHECK-NEXT:    addi 0, 30, 4
1489 ; CHECK-NEXT:    mullw 0, 12, 0
1490 ; CHECK-NEXT:    add 0, 11, 0
1491 ; CHECK-NEXT:    slwi 0, 0, 4
1492 ; CHECK-NEXT:    evlddx 0, 10, 0
1493 ; CHECK-NEXT:    addi 30, 30, 7
1494 ; CHECK-NEXT:    mullw 12, 12, 30
1495 ; CHECK-NEXT:    add 11, 11, 12
1496 ; CHECK-NEXT:    slwi 11, 11, 4
1497 ; CHECK-NEXT:    evlddx 10, 10, 11
1498 ; CHECK-NEXT:    efdadd 10, 0, 10
1499 ; CHECK-NEXT:    li 11, 368
1500 ; CHECK-NEXT:    evstddx 10, 31, 11
1501 ; CHECK-NEXT:    lwz 10, 868(31)
1502 ; CHECK-NEXT:    lwz 11, 452(31)
1503 ; CHECK-NEXT:    lwz 12, 876(31)
1504 ; CHECK-NEXT:    lwz 0, 764(31)
1505 ; CHECK-NEXT:    mulli 30, 0, 11
1506 ; CHECK-NEXT:    addi 0, 30, 4
1507 ; CHECK-NEXT:    mullw 0, 12, 0
1508 ; CHECK-NEXT:    add 0, 11, 0
1509 ; CHECK-NEXT:    slwi 0, 0, 4
1510 ; CHECK-NEXT:    add 29, 10, 0
1511 ; CHECK-NEXT:    evlddx 0, 29, 3
1512 ; CHECK-NEXT:    addi 30, 30, 7
1513 ; CHECK-NEXT:    mullw 12, 12, 30
1514 ; CHECK-NEXT:    add 11, 11, 12
1515 ; CHECK-NEXT:    slwi 11, 11, 4
1516 ; CHECK-NEXT:    add 10, 10, 11
1517 ; CHECK-NEXT:    evlddx 10, 10, 3
1518 ; CHECK-NEXT:    efdadd 10, 0, 10
1519 ; CHECK-NEXT:    addi 11, 31, 368
1520 ; CHECK-NEXT:    evstddx 10, 11, 3
1521 ; CHECK-NEXT:    lwz 10, 868(31)
1522 ; CHECK-NEXT:    lwz 12, 452(31)
1523 ; CHECK-NEXT:    lwz 0, 876(31)
1524 ; CHECK-NEXT:    lwz 30, 764(31)
1525 ; CHECK-NEXT:    mulli 30, 30, 11
1526 ; CHECK-NEXT:    addi 29, 30, 4
1527 ; CHECK-NEXT:    mullw 29, 0, 29
1528 ; CHECK-NEXT:    add 29, 12, 29
1529 ; CHECK-NEXT:    slwi 29, 29, 4
1530 ; CHECK-NEXT:    evlddx 29, 10, 29
1531 ; CHECK-NEXT:    addi 30, 30, 7
1532 ; CHECK-NEXT:    mullw 0, 0, 30
1533 ; CHECK-NEXT:    add 12, 12, 0
1534 ; CHECK-NEXT:    slwi 12, 12, 4
1535 ; CHECK-NEXT:    evlddx 10, 10, 12
1536 ; CHECK-NEXT:    efdsub 10, 29, 10
1537 ; CHECK-NEXT:    li 12, 320
1538 ; CHECK-NEXT:    evstddx 10, 31, 12
1539 ; CHECK-NEXT:    lwz 10, 868(31)
1540 ; CHECK-NEXT:    lwz 12, 452(31)
1541 ; CHECK-NEXT:    lwz 0, 876(31)
1542 ; CHECK-NEXT:    lwz 30, 764(31)
1543 ; CHECK-NEXT:    mulli 30, 30, 11
1544 ; CHECK-NEXT:    addi 29, 30, 4
1545 ; CHECK-NEXT:    mullw 29, 0, 29
1546 ; CHECK-NEXT:    add 29, 12, 29
1547 ; CHECK-NEXT:    slwi 29, 29, 4
1548 ; CHECK-NEXT:    add 29, 10, 29
1549 ; CHECK-NEXT:    evlddx 29, 29, 3
1550 ; CHECK-NEXT:    addi 30, 30, 7
1551 ; CHECK-NEXT:    mullw 0, 0, 30
1552 ; CHECK-NEXT:    add 12, 12, 0
1553 ; CHECK-NEXT:    slwi 12, 12, 4
1554 ; CHECK-NEXT:    add 10, 10, 12
1555 ; CHECK-NEXT:    evlddx 10, 10, 3
1556 ; CHECK-NEXT:    efdsub 12, 29, 10
1557 ; CHECK-NEXT:    addi 10, 31, 320
1558 ; CHECK-NEXT:    evstddx 12, 10, 3
1559 ; CHECK-NEXT:    lwz 12, 868(31)
1560 ; CHECK-NEXT:    lwz 0, 452(31)
1561 ; CHECK-NEXT:    lwz 30, 876(31)
1562 ; CHECK-NEXT:    lwz 29, 764(31)
1563 ; CHECK-NEXT:    mulli 29, 29, 11
1564 ; CHECK-NEXT:    addi 28, 29, 5
1565 ; CHECK-NEXT:    mullw 28, 30, 28
1566 ; CHECK-NEXT:    add 28, 0, 28
1567 ; CHECK-NEXT:    slwi 28, 28, 4
1568 ; CHECK-NEXT:    evlddx 28, 12, 28
1569 ; CHECK-NEXT:    addi 29, 29, 6
1570 ; CHECK-NEXT:    mullw 30, 30, 29
1571 ; CHECK-NEXT:    add 0, 0, 30
1572 ; CHECK-NEXT:    slwi 0, 0, 4
1573 ; CHECK-NEXT:    evlddx 12, 12, 0
1574 ; CHECK-NEXT:    efdadd 12, 28, 12
1575 ; CHECK-NEXT:    li 30, 352
1576 ; CHECK-NEXT:    evstddx 12, 31, 30
1577 ; CHECK-NEXT:    lwz 12, 868(31)
1578 ; CHECK-NEXT:    lwz 0, 452(31)
1579 ; CHECK-NEXT:    lwz 30, 876(31)
1580 ; CHECK-NEXT:    lwz 29, 764(31)
1581 ; CHECK-NEXT:    mulli 29, 29, 11
1582 ; CHECK-NEXT:    addi 28, 29, 5
1583 ; CHECK-NEXT:    mullw 28, 30, 28
1584 ; CHECK-NEXT:    add 28, 0, 28
1585 ; CHECK-NEXT:    slwi 28, 28, 4
1586 ; CHECK-NEXT:    add 28, 12, 28
1587 ; CHECK-NEXT:    evlddx 28, 28, 3
1588 ; CHECK-NEXT:    addi 29, 29, 6
1589 ; CHECK-NEXT:    mullw 30, 30, 29
1590 ; CHECK-NEXT:    add 0, 0, 30
1591 ; CHECK-NEXT:    slwi 0, 0, 4
1592 ; CHECK-NEXT:    add 12, 12, 0
1593 ; CHECK-NEXT:    evlddx 12, 12, 3
1594 ; CHECK-NEXT:    efdadd 12, 28, 12
1595 ; CHECK-NEXT:    addi 30, 31, 352
1596 ; CHECK-NEXT:    evstddx 12, 30, 3
1597 ; CHECK-NEXT:    lwz 12, 868(31)
1598 ; CHECK-NEXT:    lwz 0, 452(31)
1599 ; CHECK-NEXT:    lwz 29, 876(31)
1600 ; CHECK-NEXT:    lwz 28, 764(31)
1601 ; CHECK-NEXT:    mulli 28, 28, 11
1602 ; CHECK-NEXT:    addi 27, 28, 5
1603 ; CHECK-NEXT:    mullw 27, 29, 27
1604 ; CHECK-NEXT:    add 27, 0, 27
1605 ; CHECK-NEXT:    slwi 27, 27, 4
1606 ; CHECK-NEXT:    evlddx 27, 12, 27
1607 ; CHECK-NEXT:    addi 28, 28, 6
1608 ; CHECK-NEXT:    mullw 29, 29, 28
1609 ; CHECK-NEXT:    add 0, 0, 29
1610 ; CHECK-NEXT:    slwi 0, 0, 4
1611 ; CHECK-NEXT:    evlddx 12, 12, 0
1612 ; CHECK-NEXT:    efdsub 12, 27, 12
1613 ; CHECK-NEXT:    li 29, 336
1614 ; CHECK-NEXT:    evstddx 12, 31, 29
1615 ; CHECK-NEXT:    lwz 12, 868(31)
1616 ; CHECK-NEXT:    lwz 0, 452(31)
1617 ; CHECK-NEXT:    lwz 29, 876(31)
1618 ; CHECK-NEXT:    lwz 28, 764(31)
1619 ; CHECK-NEXT:    mulli 28, 28, 11
1620 ; CHECK-NEXT:    addi 27, 28, 5
1621 ; CHECK-NEXT:    mullw 27, 29, 27
1622 ; CHECK-NEXT:    add 27, 0, 27
1623 ; CHECK-NEXT:    slwi 27, 27, 4
1624 ; CHECK-NEXT:    add 27, 12, 27
1625 ; CHECK-NEXT:    evlddx 27, 27, 3
1626 ; CHECK-NEXT:    addi 28, 28, 6
1627 ; CHECK-NEXT:    mullw 29, 29, 28
1628 ; CHECK-NEXT:    add 0, 0, 29
1629 ; CHECK-NEXT:    slwi 0, 0, 4
1630 ; CHECK-NEXT:    add 12, 12, 0
1631 ; CHECK-NEXT:    evlddx 12, 12, 3
1632 ; CHECK-NEXT:    efdsub 0, 27, 12
1633 ; CHECK-NEXT:    addi 12, 31, 336
1634 ; CHECK-NEXT:    evstddx 0, 12, 3
1635 ; CHECK-NEXT:    li 29, 432
1636 ; CHECK-NEXT:    evlddx 0, 31, 29
1637 ; CHECK-NEXT:    li 29, 416
1638 ; CHECK-NEXT:    evlddx 29, 31, 29
1639 ; CHECK-NEXT:    efdadd 0, 0, 29
1640 ; CHECK-NEXT:    li 29, 400
1641 ; CHECK-NEXT:    evlddx 29, 31, 29
1642 ; CHECK-NEXT:    efdadd 0, 0, 29
1643 ; CHECK-NEXT:    li 29, 384
1644 ; CHECK-NEXT:    evlddx 29, 31, 29
1645 ; CHECK-NEXT:    efdadd 0, 0, 29
1646 ; CHECK-NEXT:    li 29, 368
1647 ; CHECK-NEXT:    evlddx 29, 31, 29
1648 ; CHECK-NEXT:    efdadd 0, 0, 29
1649 ; CHECK-NEXT:    li 29, 352
1650 ; CHECK-NEXT:    evlddx 29, 31, 29
1651 ; CHECK-NEXT:    efdadd 0, 0, 29
1652 ; CHECK-NEXT:    lwz 29, 864(31)
1653 ; CHECK-NEXT:    lwz 28, 452(31)
1654 ; CHECK-NEXT:    lwz 27, 876(31)
1655 ; CHECK-NEXT:    lwz 26, 764(31)
1656 ; CHECK-NEXT:    mullw 27, 27, 26
1657 ; CHECK-NEXT:    add 28, 28, 27
1658 ; CHECK-NEXT:    slwi 28, 28, 4
1659 ; CHECK-NEXT:    evstddx 0, 29, 28
1660 ; CHECK-NEXT:    addi 29, 31, 432
1661 ; CHECK-NEXT:    evlddx 0, 29, 3
1662 ; CHECK-NEXT:    evlddx 28, 5, 3
1663 ; CHECK-NEXT:    efdadd 0, 0, 28
1664 ; CHECK-NEXT:    evlddx 28, 7, 3
1665 ; CHECK-NEXT:    efdadd 0, 0, 28
1666 ; CHECK-NEXT:    evlddx 28, 9, 3
1667 ; CHECK-NEXT:    efdadd 0, 0, 28
1668 ; CHECK-NEXT:    evlddx 28, 11, 3
1669 ; CHECK-NEXT:    efdadd 0, 0, 28
1670 ; CHECK-NEXT:    evlddx 28, 30, 3
1671 ; CHECK-NEXT:    efdadd 0, 0, 28
1672 ; CHECK-NEXT:    lwz 28, 864(31)
1673 ; CHECK-NEXT:    lwz 27, 452(31)
1674 ; CHECK-NEXT:    lwz 26, 876(31)
1675 ; CHECK-NEXT:    lwz 25, 764(31)
1676 ; CHECK-NEXT:    mullw 26, 26, 25
1677 ; CHECK-NEXT:    add 27, 27, 26
1678 ; CHECK-NEXT:    slwi 27, 27, 4
1679 ; CHECK-NEXT:    add 28, 28, 27
1680 ; CHECK-NEXT:    evstddx 0, 28, 3
1681 ; CHECK-NEXT:    li 28, 432
1682 ; CHECK-NEXT:    evlddx 28, 31, 28
1683 ; CHECK-NEXT:    li 27, 416
1684 ; CHECK-NEXT:    evlddx 27, 31, 27
1685 ; CHECK-NEXT:    li 0, .LCPI1_5@l
1686 ; CHECK-NEXT:    lis 26, .LCPI1_5@ha
1687 ; CHECK-NEXT:    evlddx 0, 26, 0
1688 ; CHECK-NEXT:    efdmul 27, 27, 0
1689 ; CHECK-NEXT:    efdadd 27, 27, 28
1690 ; CHECK-NEXT:    li 28, 400
1691 ; CHECK-NEXT:    evlddx 26, 31, 28
1692 ; CHECK-NEXT:    li 28, .LCPI1_6@l
1693 ; CHECK-NEXT:    lis 25, .LCPI1_6@ha
1694 ; CHECK-NEXT:    evlddx 28, 25, 28
1695 ; CHECK-NEXT:    efdmul 26, 26, 28
1696 ; CHECK-NEXT:    efdadd 26, 26, 27
1697 ; CHECK-NEXT:    li 27, 384
1698 ; CHECK-NEXT:    evlddx 25, 31, 27
1699 ; CHECK-NEXT:    li 27, .LCPI1_7@l
1700 ; CHECK-NEXT:    lis 24, .LCPI1_7@ha
1701 ; CHECK-NEXT:    evlddx 27, 24, 27
1702 ; CHECK-NEXT:    efdmul 25, 25, 27
1703 ; CHECK-NEXT:    efdadd 26, 25, 26
1704 ; CHECK-NEXT:    li 25, 368
1705 ; CHECK-NEXT:    evlddx 24, 31, 25
1706 ; CHECK-NEXT:    li 25, .LCPI1_8@l
1707 ; CHECK-NEXT:    lis 23, .LCPI1_8@ha
1708 ; CHECK-NEXT:    evlddx 25, 23, 25
1709 ; CHECK-NEXT:    efdmul 24, 24, 25
1710 ; CHECK-NEXT:    efdadd 24, 24, 26
1711 ; CHECK-NEXT:    li 26, 352
1712 ; CHECK-NEXT:    evlddx 23, 31, 26
1713 ; CHECK-NEXT:    li 26, .LCPI1_9@l
1714 ; CHECK-NEXT:    lis 22, .LCPI1_9@ha
1715 ; CHECK-NEXT:    evlddx 26, 22, 26
1716 ; CHECK-NEXT:    efdmul 23, 23, 26
1717 ; CHECK-NEXT:    efdadd 24, 23, 24
1718 ; CHECK-NEXT:    evstdd 24, 224(31)
1719 ; CHECK-NEXT:    evlddx 24, 29, 3
1720 ; CHECK-NEXT:    evlddx 23, 5, 3
1721 ; CHECK-NEXT:    efdmul 23, 23, 0
1722 ; CHECK-NEXT:    efdadd 24, 23, 24
1723 ; CHECK-NEXT:    evlddx 23, 7, 3
1724 ; CHECK-NEXT:    efdmul 23, 23, 28
1725 ; CHECK-NEXT:    efdadd 24, 23, 24
1726 ; CHECK-NEXT:    evlddx 23, 9, 3
1727 ; CHECK-NEXT:    efdmul 23, 23, 27
1728 ; CHECK-NEXT:    efdadd 24, 23, 24
1729 ; CHECK-NEXT:    evlddx 23, 11, 3
1730 ; CHECK-NEXT:    efdmul 23, 23, 25
1731 ; CHECK-NEXT:    efdadd 24, 23, 24
1732 ; CHECK-NEXT:    evlddx 23, 30, 3
1733 ; CHECK-NEXT:    efdmul 23, 23, 26
1734 ; CHECK-NEXT:    efdadd 23, 23, 24
1735 ; CHECK-NEXT:    addi 24, 31, 224
1736 ; CHECK-NEXT:    evstddx 23, 24, 3
1737 ; CHECK-NEXT:    li 23, 832
1738 ; CHECK-NEXT:    evlddx 23, 31, 23
1739 ; CHECK-NEXT:    li 22, 272
1740 ; CHECK-NEXT:    evlddx 22, 31, 22
1741 ; CHECK-NEXT:    li 21, 816
1742 ; CHECK-NEXT:    evlddx 21, 31, 21
1743 ; CHECK-NEXT:    li 20, 288
1744 ; CHECK-NEXT:    evlddx 20, 31, 20
1745 ; CHECK-NEXT:    efdmul 21, 21, 20
1746 ; CHECK-NEXT:    efdmul 23, 23, 22
1747 ; CHECK-NEXT:    efdadd 23, 23, 21
1748 ; CHECK-NEXT:    li 22, 800
1749 ; CHECK-NEXT:    evlddx 22, 31, 22
1750 ; CHECK-NEXT:    li 21, 304
1751 ; CHECK-NEXT:    evlddx 21, 31, 21
1752 ; CHECK-NEXT:    efdmul 22, 22, 21
1753 ; CHECK-NEXT:    efdadd 23, 22, 23
1754 ; CHECK-NEXT:    li 22, 784
1755 ; CHECK-NEXT:    evlddx 22, 31, 22
1756 ; CHECK-NEXT:    li 21, 320
1757 ; CHECK-NEXT:    evlddx 21, 31, 21
1758 ; CHECK-NEXT:    efdmul 22, 22, 21
1759 ; CHECK-NEXT:    efdadd 23, 22, 23
1760 ; CHECK-NEXT:    li 22, 768
1761 ; CHECK-NEXT:    evlddx 22, 31, 22
1762 ; CHECK-NEXT:    li 21, 336
1763 ; CHECK-NEXT:    evlddx 21, 31, 21
1764 ; CHECK-NEXT:    efdmul 22, 22, 21
1765 ; CHECK-NEXT:    efdadd 23, 22, 23
1766 ; CHECK-NEXT:    addi 22, 31, 208
1767 ; CHECK-NEXT:    evstddx 23, 22, 3
1768 ; CHECK-NEXT:    li 23, 832
1769 ; CHECK-NEXT:    evlddx 23, 31, 23
1770 ; CHECK-NEXT:    evlddx 21, 4, 3
1771 ; CHECK-NEXT:    li 20, 816
1772 ; CHECK-NEXT:    evlddx 20, 31, 20
1773 ; CHECK-NEXT:    evlddx 19, 6, 3
1774 ; CHECK-NEXT:    efdmul 20, 20, 19
1775 ; CHECK-NEXT:    efdmul 23, 23, 21
1776 ; CHECK-NEXT:    efdadd 23, 23, 20
1777 ; CHECK-NEXT:    li 21, 800
1778 ; CHECK-NEXT:    evlddx 21, 31, 21
1779 ; CHECK-NEXT:    evlddx 20, 8, 3
1780 ; CHECK-NEXT:    efdmul 21, 21, 20
1781 ; CHECK-NEXT:    efdadd 23, 21, 23
1782 ; CHECK-NEXT:    li 21, 784
1783 ; CHECK-NEXT:    evlddx 21, 31, 21
1784 ; CHECK-NEXT:    evlddx 20, 10, 3
1785 ; CHECK-NEXT:    efdmul 21, 21, 20
1786 ; CHECK-NEXT:    efdadd 23, 21, 23
1787 ; CHECK-NEXT:    li 21, 768
1788 ; CHECK-NEXT:    evlddx 21, 31, 21
1789 ; CHECK-NEXT:    evlddx 20, 12, 3
1790 ; CHECK-NEXT:    efdmul 21, 21, 20
1791 ; CHECK-NEXT:    efdadd 23, 21, 23
1792 ; CHECK-NEXT:    efdneg 23, 23
1793 ; CHECK-NEXT:    evstdd 23, 208(31)
1794 ; CHECK-NEXT:    evldd 23, 224(31)
1795 ; CHECK-NEXT:    evldd 21, 208(31)
1796 ; CHECK-NEXT:    efdadd 23, 23, 21
1797 ; CHECK-NEXT:    li 21, 256
1798 ; CHECK-NEXT:    evstddx 23, 31, 21
1799 ; CHECK-NEXT:    evlddx 23, 24, 3
1800 ; CHECK-NEXT:    evlddx 21, 22, 3
1801 ; CHECK-NEXT:    efdadd 23, 23, 21
1802 ; CHECK-NEXT:    addi 21, 31, 256
1803 ; CHECK-NEXT:    evstddx 23, 21, 3
1804 ; CHECK-NEXT:    evldd 23, 224(31)
1805 ; CHECK-NEXT:    evldd 20, 208(31)
1806 ; CHECK-NEXT:    efdsub 23, 23, 20
1807 ; CHECK-NEXT:    evstdd 23, 240(31)
1808 ; CHECK-NEXT:    evlddx 24, 24, 3
1809 ; CHECK-NEXT:    evlddx 23, 22, 3
1810 ; CHECK-NEXT:    efdsub 23, 24, 23
1811 ; CHECK-NEXT:    addi 24, 31, 240
1812 ; CHECK-NEXT:    evstddx 23, 24, 3
1813 ; CHECK-NEXT:    lwz 23, 860(31)
1814 ; CHECK-NEXT:    lwz 22, 452(31)
1815 ; CHECK-NEXT:    slwi 20, 22, 4
1816 ; CHECK-NEXT:    lwz 19, 876(31)
1817 ; CHECK-NEXT:    add 23, 20, 23
1818 ; CHECK-NEXT:    li 20, -16
1819 ; CHECK-NEXT:    evlddx 18, 23, 20
1820 ; CHECK-NEXT:    li 17, 256
1821 ; CHECK-NEXT:    evlddx 17, 31, 17
1822 ; CHECK-NEXT:    lwz 16, 856(31)
1823 ; CHECK-NEXT:    efdcfsi 16, 16
1824 ; CHECK-NEXT:    li 15, -8
1825 ; CHECK-NEXT:    evlddx 23, 23, 15
1826 ; CHECK-NEXT:    efdmul 23, 16, 23
1827 ; CHECK-NEXT:    evlddx 16, 21, 3
1828 ; CHECK-NEXT:    efdmul 23, 23, 16
1829 ; CHECK-NEXT:    efdmul 18, 18, 17
1830 ; CHECK-NEXT:    efdsub 23, 18, 23
1831 ; CHECK-NEXT:    lwz 18, 864(31)
1832 ; CHECK-NEXT:    lwz 17, 764(31)
1833 ; CHECK-NEXT:    lwz 16, 872(31)
1834 ; CHECK-NEXT:    add 17, 17, 16
1835 ; CHECK-NEXT:    mullw 19, 19, 17
1836 ; CHECK-NEXT:    add 22, 22, 19
1837 ; CHECK-NEXT:    slwi 22, 22, 4
1838 ; CHECK-NEXT:    evstddx 23, 18, 22
1839 ; CHECK-NEXT:    lwz 23, 860(31)
1840 ; CHECK-NEXT:    lwz 22, 452(31)
1841 ; CHECK-NEXT:    slwi 19, 22, 4
1842 ; CHECK-NEXT:    lwz 18, 876(31)
1843 ; CHECK-NEXT:    add 23, 19, 23
1844 ; CHECK-NEXT:    evlddx 20, 23, 20
1845 ; CHECK-NEXT:    evlddx 21, 21, 3
1846 ; CHECK-NEXT:    lwz 19, 856(31)
1847 ; CHECK-NEXT:    efdcfsi 19, 19
1848 ; CHECK-NEXT:    evlddx 23, 23, 15
1849 ; CHECK-NEXT:    efdmul 23, 19, 23
1850 ; CHECK-NEXT:    li 19, 256
1851 ; CHECK-NEXT:    evlddx 19, 31, 19
1852 ; CHECK-NEXT:    efdmul 23, 23, 19
1853 ; CHECK-NEXT:    efdmul 21, 20, 21
1854 ; CHECK-NEXT:    efdadd 23, 21, 23
1855 ; CHECK-NEXT:    lwz 21, 864(31)
1856 ; CHECK-NEXT:    lwz 20, 764(31)
1857 ; CHECK-NEXT:    lwz 19, 872(31)
1858 ; CHECK-NEXT:    add 20, 20, 19
1859 ; CHECK-NEXT:    mullw 20, 18, 20
1860 ; CHECK-NEXT:    add 22, 22, 20
1861 ; CHECK-NEXT:    slwi 22, 22, 4
1862 ; CHECK-NEXT:    add 22, 21, 22
1863 ; CHECK-NEXT:    evstddx 23, 22, 3
1864 ; CHECK-NEXT:    lwz 23, 860(31)
1865 ; CHECK-NEXT:    lwz 22, 452(31)
1866 ; CHECK-NEXT:    lwz 21, 876(31)
1867 ; CHECK-NEXT:    mulli 20, 21, 9
1868 ; CHECK-NEXT:    add 20, 20, 22
1869 ; CHECK-NEXT:    slwi 20, 20, 4
1870 ; CHECK-NEXT:    add 23, 20, 23
1871 ; CHECK-NEXT:    li 20, -160
1872 ; CHECK-NEXT:    evlddx 19, 23, 20
1873 ; CHECK-NEXT:    evldd 18, 240(31)
1874 ; CHECK-NEXT:    lwz 17, 856(31)
1875 ; CHECK-NEXT:    efdcfsi 17, 17
1876 ; CHECK-NEXT:    li 16, -152
1877 ; CHECK-NEXT:    evlddx 23, 23, 16
1878 ; CHECK-NEXT:    efdmul 23, 17, 23
1879 ; CHECK-NEXT:    evlddx 17, 24, 3
1880 ; CHECK-NEXT:    efdmul 23, 23, 17
1881 ; CHECK-NEXT:    efdmul 19, 19, 18
1882 ; CHECK-NEXT:    efdsub 23, 19, 23
1883 ; CHECK-NEXT:    lwz 19, 864(31)
1884 ; CHECK-NEXT:    lwz 18, 764(31)
1885 ; CHECK-NEXT:    lwz 17, 872(31)
1886 ; CHECK-NEXT:    mulli 17, 17, 10
1887 ; CHECK-NEXT:    add 18, 18, 17
1888 ; CHECK-NEXT:    mullw 21, 21, 18
1889 ; CHECK-NEXT:    add 22, 22, 21
1890 ; CHECK-NEXT:    slwi 22, 22, 4
1891 ; CHECK-NEXT:    evstddx 23, 19, 22
1892 ; CHECK-NEXT:    lwz 23, 860(31)
1893 ; CHECK-NEXT:    lwz 22, 452(31)
1894 ; CHECK-NEXT:    lwz 21, 876(31)
1895 ; CHECK-NEXT:    mulli 19, 21, 9
1896 ; CHECK-NEXT:    add 19, 19, 22
1897 ; CHECK-NEXT:    slwi 19, 19, 4
1898 ; CHECK-NEXT:    add 23, 19, 23
1899 ; CHECK-NEXT:    evlddx 20, 23, 20
1900 ; CHECK-NEXT:    evlddx 24, 24, 3
1901 ; CHECK-NEXT:    lwz 19, 856(31)
1902 ; CHECK-NEXT:    efdcfsi 19, 19
1903 ; CHECK-NEXT:    evlddx 23, 23, 16
1904 ; CHECK-NEXT:    efdmul 23, 19, 23
1905 ; CHECK-NEXT:    evldd 19, 240(31)
1906 ; CHECK-NEXT:    efdmul 23, 23, 19
1907 ; CHECK-NEXT:    efdmul 24, 20, 24
1908 ; CHECK-NEXT:    efdadd 24, 24, 23
1909 ; CHECK-NEXT:    lwz 23, 864(31)
1910 ; CHECK-NEXT:    lwz 20, 764(31)
1911 ; CHECK-NEXT:    lwz 19, 872(31)
1912 ; CHECK-NEXT:    mulli 19, 19, 10
1913 ; CHECK-NEXT:    add 20, 20, 19
1914 ; CHECK-NEXT:    mullw 21, 21, 20
1915 ; CHECK-NEXT:    add 22, 22, 21
1916 ; CHECK-NEXT:    slwi 22, 22, 4
1917 ; CHECK-NEXT:    add 23, 23, 22
1918 ; CHECK-NEXT:    evstddx 24, 23, 3
1919 ; CHECK-NEXT:    li 24, 432
1920 ; CHECK-NEXT:    evlddx 24, 31, 24
1921 ; CHECK-NEXT:    li 23, 416
1922 ; CHECK-NEXT:    evlddx 23, 31, 23
1923 ; CHECK-NEXT:    efdmul 23, 23, 28
1924 ; CHECK-NEXT:    efdadd 24, 23, 24
1925 ; CHECK-NEXT:    li 23, 400
1926 ; CHECK-NEXT:    evlddx 23, 31, 23
1927 ; CHECK-NEXT:    efdmul 23, 23, 25
1928 ; CHECK-NEXT:    efdadd 24, 23, 24
1929 ; CHECK-NEXT:    li 23, 384
1930 ; CHECK-NEXT:    evlddx 23, 31, 23
1931 ; CHECK-NEXT:    efdmul 23, 23, 26
1932 ; CHECK-NEXT:    efdadd 24, 23, 24
1933 ; CHECK-NEXT:    li 23, 368
1934 ; CHECK-NEXT:    evlddx 23, 31, 23
1935 ; CHECK-NEXT:    efdmul 23, 23, 27
1936 ; CHECK-NEXT:    efdadd 24, 23, 24
1937 ; CHECK-NEXT:    li 23, 352
1938 ; CHECK-NEXT:    evlddx 23, 31, 23
1939 ; CHECK-NEXT:    efdmul 23, 23, 0
1940 ; CHECK-NEXT:    efdadd 24, 23, 24
1941 ; CHECK-NEXT:    evstdd 24, 160(31)
1942 ; CHECK-NEXT:    evlddx 24, 29, 3
1943 ; CHECK-NEXT:    evlddx 23, 5, 3
1944 ; CHECK-NEXT:    efdmul 23, 23, 28
1945 ; CHECK-NEXT:    efdadd 24, 23, 24
1946 ; CHECK-NEXT:    evlddx 23, 7, 3
1947 ; CHECK-NEXT:    efdmul 23, 23, 25
1948 ; CHECK-NEXT:    efdadd 24, 23, 24
1949 ; CHECK-NEXT:    evlddx 23, 9, 3
1950 ; CHECK-NEXT:    efdmul 23, 23, 26
1951 ; CHECK-NEXT:    efdadd 24, 23, 24
1952 ; CHECK-NEXT:    evlddx 23, 11, 3
1953 ; CHECK-NEXT:    efdmul 23, 23, 27
1954 ; CHECK-NEXT:    efdadd 24, 23, 24
1955 ; CHECK-NEXT:    evlddx 23, 30, 3
1956 ; CHECK-NEXT:    efdmul 23, 23, 0
1957 ; CHECK-NEXT:    efdadd 23, 23, 24
1958 ; CHECK-NEXT:    addi 24, 31, 160
1959 ; CHECK-NEXT:    evstddx 23, 24, 3
1960 ; CHECK-NEXT:    li 23, 816
1961 ; CHECK-NEXT:    evlddx 23, 31, 23
1962 ; CHECK-NEXT:    li 22, 272
1963 ; CHECK-NEXT:    evlddx 22, 31, 22
1964 ; CHECK-NEXT:    li 21, 784
1965 ; CHECK-NEXT:    evlddx 21, 31, 21
1966 ; CHECK-NEXT:    li 20, 288
1967 ; CHECK-NEXT:    evlddx 20, 31, 20
1968 ; CHECK-NEXT:    efdmul 21, 21, 20
1969 ; CHECK-NEXT:    efdmul 23, 23, 22
1970 ; CHECK-NEXT:    efdadd 23, 23, 21
1971 ; CHECK-NEXT:    li 22, 768
1972 ; CHECK-NEXT:    evlddx 22, 31, 22
1973 ; CHECK-NEXT:    li 21, 304
1974 ; CHECK-NEXT:    evlddx 21, 31, 21
1975 ; CHECK-NEXT:    efdmul 22, 22, 21
1976 ; CHECK-NEXT:    efdsub 23, 23, 22
1977 ; CHECK-NEXT:    li 22, 800
1978 ; CHECK-NEXT:    evlddx 22, 31, 22
1979 ; CHECK-NEXT:    li 21, 320
1980 ; CHECK-NEXT:    evlddx 21, 31, 21
1981 ; CHECK-NEXT:    efdmul 22, 22, 21
1982 ; CHECK-NEXT:    efdsub 23, 23, 22
1983 ; CHECK-NEXT:    li 22, 832
1984 ; CHECK-NEXT:    evlddx 22, 31, 22
1985 ; CHECK-NEXT:    li 21, 336
1986 ; CHECK-NEXT:    evlddx 21, 31, 21
1987 ; CHECK-NEXT:    efdmul 22, 22, 21
1988 ; CHECK-NEXT:    efdsub 23, 23, 22
1989 ; CHECK-NEXT:    addi 22, 31, 144
1990 ; CHECK-NEXT:    evstddx 23, 22, 3
1991 ; CHECK-NEXT:    li 23, 816
1992 ; CHECK-NEXT:    evlddx 23, 31, 23
1993 ; CHECK-NEXT:    evlddx 21, 4, 3
1994 ; CHECK-NEXT:    li 20, 784
1995 ; CHECK-NEXT:    evlddx 20, 31, 20
1996 ; CHECK-NEXT:    evlddx 19, 6, 3
1997 ; CHECK-NEXT:    efdmul 20, 20, 19
1998 ; CHECK-NEXT:    efdmul 23, 23, 21
1999 ; CHECK-NEXT:    efdadd 23, 23, 20
2000 ; CHECK-NEXT:    li 21, 768
2001 ; CHECK-NEXT:    evlddx 21, 31, 21
2002 ; CHECK-NEXT:    evlddx 20, 8, 3
2003 ; CHECK-NEXT:    efdmul 21, 21, 20
2004 ; CHECK-NEXT:    efdsub 23, 23, 21
2005 ; CHECK-NEXT:    li 21, 800
2006 ; CHECK-NEXT:    evlddx 21, 31, 21
2007 ; CHECK-NEXT:    evlddx 20, 10, 3
2008 ; CHECK-NEXT:    efdmul 21, 21, 20
2009 ; CHECK-NEXT:    efdsub 23, 23, 21
2010 ; CHECK-NEXT:    li 21, 832
2011 ; CHECK-NEXT:    evlddx 21, 31, 21
2012 ; CHECK-NEXT:    evlddx 20, 12, 3
2013 ; CHECK-NEXT:    efdmul 21, 21, 20
2014 ; CHECK-NEXT:    efdsub 23, 23, 21
2015 ; CHECK-NEXT:    efdneg 23, 23
2016 ; CHECK-NEXT:    evstdd 23, 144(31)
2017 ; CHECK-NEXT:    evldd 23, 160(31)
2018 ; CHECK-NEXT:    evldd 21, 144(31)
2019 ; CHECK-NEXT:    efdadd 23, 23, 21
2020 ; CHECK-NEXT:    evstdd 23, 192(31)
2021 ; CHECK-NEXT:    evlddx 23, 24, 3
2022 ; CHECK-NEXT:    evlddx 21, 22, 3
2023 ; CHECK-NEXT:    efdadd 23, 23, 21
2024 ; CHECK-NEXT:    addi 21, 31, 192
2025 ; CHECK-NEXT:    evstddx 23, 21, 3
2026 ; CHECK-NEXT:    evldd 23, 160(31)
2027 ; CHECK-NEXT:    evldd 20, 144(31)
2028 ; CHECK-NEXT:    efdsub 23, 23, 20
2029 ; CHECK-NEXT:    evstdd 23, 176(31)
2030 ; CHECK-NEXT:    evlddx 24, 24, 3
2031 ; CHECK-NEXT:    evlddx 23, 22, 3
2032 ; CHECK-NEXT:    efdsub 23, 24, 23
2033 ; CHECK-NEXT:    addi 24, 31, 176
2034 ; CHECK-NEXT:    evstddx 23, 24, 3
2035 ; CHECK-NEXT:    lwz 23, 860(31)
2036 ; CHECK-NEXT:    lwz 22, 452(31)
2037 ; CHECK-NEXT:    lwz 20, 876(31)
2038 ; CHECK-NEXT:    add 19, 20, 22
2039 ; CHECK-NEXT:    slwi 19, 19, 4
2040 ; CHECK-NEXT:    add 23, 19, 23
2041 ; CHECK-NEXT:    li 19, -32
2042 ; CHECK-NEXT:    evlddx 18, 23, 19
2043 ; CHECK-NEXT:    evldd 17, 192(31)
2044 ; CHECK-NEXT:    lwz 16, 856(31)
2045 ; CHECK-NEXT:    efdcfsi 16, 16
2046 ; CHECK-NEXT:    li 15, -24
2047 ; CHECK-NEXT:    evlddx 23, 23, 15
2048 ; CHECK-NEXT:    efdmul 23, 16, 23
2049 ; CHECK-NEXT:    evlddx 16, 21, 3
2050 ; CHECK-NEXT:    efdmul 23, 23, 16
2051 ; CHECK-NEXT:    efdmul 18, 18, 17
2052 ; CHECK-NEXT:    efdsub 23, 18, 23
2053 ; CHECK-NEXT:    lwz 18, 864(31)
2054 ; CHECK-NEXT:    lwz 17, 764(31)
2055 ; CHECK-NEXT:    lwz 16, 872(31)
2056 ; CHECK-NEXT:    slwi 16, 16, 1
2057 ; CHECK-NEXT:    add 17, 17, 16
2058 ; CHECK-NEXT:    mullw 20, 20, 17
2059 ; CHECK-NEXT:    add 22, 22, 20
2060 ; CHECK-NEXT:    slwi 22, 22, 4
2061 ; CHECK-NEXT:    evstddx 23, 18, 22
2062 ; CHECK-NEXT:    lwz 23, 860(31)
2063 ; CHECK-NEXT:    lwz 22, 452(31)
2064 ; CHECK-NEXT:    lwz 20, 876(31)
2065 ; CHECK-NEXT:    add 18, 20, 22
2066 ; CHECK-NEXT:    slwi 18, 18, 4
2067 ; CHECK-NEXT:    add 23, 18, 23
2068 ; CHECK-NEXT:    evlddx 19, 23, 19
2069 ; CHECK-NEXT:    evlddx 21, 21, 3
2070 ; CHECK-NEXT:    lwz 18, 856(31)
2071 ; CHECK-NEXT:    efdcfsi 18, 18
2072 ; CHECK-NEXT:    evlddx 23, 23, 15
2073 ; CHECK-NEXT:    efdmul 23, 18, 23
2074 ; CHECK-NEXT:    evldd 18, 192(31)
2075 ; CHECK-NEXT:    efdmul 23, 23, 18
2076 ; CHECK-NEXT:    efdmul 21, 19, 21
2077 ; CHECK-NEXT:    efdadd 23, 21, 23
2078 ; CHECK-NEXT:    lwz 21, 864(31)
2079 ; CHECK-NEXT:    lwz 19, 764(31)
2080 ; CHECK-NEXT:    lwz 18, 872(31)
2081 ; CHECK-NEXT:    slwi 18, 18, 1
2082 ; CHECK-NEXT:    add 19, 19, 18
2083 ; CHECK-NEXT:    mullw 20, 20, 19
2084 ; CHECK-NEXT:    add 22, 22, 20
2085 ; CHECK-NEXT:    slwi 22, 22, 4
2086 ; CHECK-NEXT:    add 22, 21, 22
2087 ; CHECK-NEXT:    evstddx 23, 22, 3
2088 ; CHECK-NEXT:    lwz 23, 860(31)
2089 ; CHECK-NEXT:    lwz 22, 452(31)
2090 ; CHECK-NEXT:    lwz 21, 876(31)
2091 ; CHECK-NEXT:    slwi 20, 21, 3
2092 ; CHECK-NEXT:    add 20, 20, 22
2093 ; CHECK-NEXT:    slwi 20, 20, 4
2094 ; CHECK-NEXT:    add 23, 20, 23
2095 ; CHECK-NEXT:    li 20, -144
2096 ; CHECK-NEXT:    evlddx 19, 23, 20
2097 ; CHECK-NEXT:    evldd 18, 176(31)
2098 ; CHECK-NEXT:    lwz 17, 856(31)
2099 ; CHECK-NEXT:    efdcfsi 17, 17
2100 ; CHECK-NEXT:    li 16, -136
2101 ; CHECK-NEXT:    evlddx 23, 23, 16
2102 ; CHECK-NEXT:    efdmul 23, 17, 23
2103 ; CHECK-NEXT:    evlddx 17, 24, 3
2104 ; CHECK-NEXT:    efdmul 23, 23, 17
2105 ; CHECK-NEXT:    efdmul 19, 19, 18
2106 ; CHECK-NEXT:    efdsub 23, 19, 23
2107 ; CHECK-NEXT:    lwz 19, 864(31)
2108 ; CHECK-NEXT:    lwz 18, 764(31)
2109 ; CHECK-NEXT:    lwz 17, 872(31)
2110 ; CHECK-NEXT:    mulli 17, 17, 9
2111 ; CHECK-NEXT:    add 18, 18, 17
2112 ; CHECK-NEXT:    mullw 21, 21, 18
2113 ; CHECK-NEXT:    add 22, 22, 21
2114 ; CHECK-NEXT:    slwi 22, 22, 4
2115 ; CHECK-NEXT:    evstddx 23, 19, 22
2116 ; CHECK-NEXT:    lwz 23, 860(31)
2117 ; CHECK-NEXT:    lwz 22, 452(31)
2118 ; CHECK-NEXT:    lwz 21, 876(31)
2119 ; CHECK-NEXT:    slwi 19, 21, 3
2120 ; CHECK-NEXT:    add 19, 19, 22
2121 ; CHECK-NEXT:    slwi 19, 19, 4
2122 ; CHECK-NEXT:    add 23, 19, 23
2123 ; CHECK-NEXT:    evlddx 20, 23, 20
2124 ; CHECK-NEXT:    evlddx 24, 24, 3
2125 ; CHECK-NEXT:    lwz 19, 856(31)
2126 ; CHECK-NEXT:    efdcfsi 19, 19
2127 ; CHECK-NEXT:    evlddx 23, 23, 16
2128 ; CHECK-NEXT:    efdmul 23, 19, 23
2129 ; CHECK-NEXT:    evldd 19, 176(31)
2130 ; CHECK-NEXT:    efdmul 23, 23, 19
2131 ; CHECK-NEXT:    efdmul 24, 20, 24
2132 ; CHECK-NEXT:    efdadd 24, 24, 23
2133 ; CHECK-NEXT:    lwz 23, 864(31)
2134 ; CHECK-NEXT:    lwz 20, 764(31)
2135 ; CHECK-NEXT:    lwz 19, 872(31)
2136 ; CHECK-NEXT:    mulli 19, 19, 9
2137 ; CHECK-NEXT:    add 20, 20, 19
2138 ; CHECK-NEXT:    mullw 21, 21, 20
2139 ; CHECK-NEXT:    add 22, 22, 21
2140 ; CHECK-NEXT:    slwi 22, 22, 4
2141 ; CHECK-NEXT:    add 23, 23, 22
2142 ; CHECK-NEXT:    evstddx 24, 23, 3
2143 ; CHECK-NEXT:    li 24, 432
2144 ; CHECK-NEXT:    evlddx 24, 31, 24
2145 ; CHECK-NEXT:    li 23, 416
2146 ; CHECK-NEXT:    evlddx 23, 31, 23
2147 ; CHECK-NEXT:    efdmul 23, 23, 27
2148 ; CHECK-NEXT:    efdadd 24, 23, 24
2149 ; CHECK-NEXT:    li 23, 400
2150 ; CHECK-NEXT:    evlddx 23, 31, 23
2151 ; CHECK-NEXT:    efdmul 23, 23, 26
2152 ; CHECK-NEXT:    efdadd 24, 23, 24
2153 ; CHECK-NEXT:    li 23, 384
2154 ; CHECK-NEXT:    evlddx 23, 31, 23
2155 ; CHECK-NEXT:    efdmul 23, 23, 28
2156 ; CHECK-NEXT:    efdadd 24, 23, 24
2157 ; CHECK-NEXT:    li 23, 368
2158 ; CHECK-NEXT:    evlddx 23, 31, 23
2159 ; CHECK-NEXT:    efdmul 23, 23, 0
2160 ; CHECK-NEXT:    efdadd 24, 23, 24
2161 ; CHECK-NEXT:    li 23, 352
2162 ; CHECK-NEXT:    evlddx 23, 31, 23
2163 ; CHECK-NEXT:    efdmul 23, 23, 25
2164 ; CHECK-NEXT:    efdadd 24, 23, 24
2165 ; CHECK-NEXT:    evstdd 24, 96(31)
2166 ; CHECK-NEXT:    evlddx 24, 29, 3
2167 ; CHECK-NEXT:    evlddx 23, 5, 3
2168 ; CHECK-NEXT:    efdmul 23, 23, 27
2169 ; CHECK-NEXT:    efdadd 24, 23, 24
2170 ; CHECK-NEXT:    evlddx 23, 7, 3
2171 ; CHECK-NEXT:    efdmul 23, 23, 26
2172 ; CHECK-NEXT:    efdadd 24, 23, 24
2173 ; CHECK-NEXT:    evlddx 23, 9, 3
2174 ; CHECK-NEXT:    efdmul 23, 23, 28
2175 ; CHECK-NEXT:    efdadd 24, 23, 24
2176 ; CHECK-NEXT:    evlddx 23, 11, 3
2177 ; CHECK-NEXT:    efdmul 23, 23, 0
2178 ; CHECK-NEXT:    efdadd 24, 23, 24
2179 ; CHECK-NEXT:    evlddx 23, 30, 3
2180 ; CHECK-NEXT:    efdmul 23, 23, 25
2181 ; CHECK-NEXT:    efdadd 23, 23, 24
2182 ; CHECK-NEXT:    addi 24, 31, 96
2183 ; CHECK-NEXT:    evstddx 23, 24, 3
2184 ; CHECK-NEXT:    li 23, 800
2185 ; CHECK-NEXT:    evlddx 23, 31, 23
2186 ; CHECK-NEXT:    li 22, 272
2187 ; CHECK-NEXT:    evlddx 22, 31, 22
2188 ; CHECK-NEXT:    li 21, 768
2189 ; CHECK-NEXT:    evlddx 21, 31, 21
2190 ; CHECK-NEXT:    li 20, 288
2191 ; CHECK-NEXT:    evlddx 20, 31, 20
2192 ; CHECK-NEXT:    efdmul 21, 21, 20
2193 ; CHECK-NEXT:    efdmul 23, 23, 22
2194 ; CHECK-NEXT:    efdsub 23, 23, 21
2195 ; CHECK-NEXT:    li 22, 816
2196 ; CHECK-NEXT:    evlddx 22, 31, 22
2197 ; CHECK-NEXT:    li 21, 304
2198 ; CHECK-NEXT:    evlddx 21, 31, 21
2199 ; CHECK-NEXT:    efdmul 22, 22, 21
2200 ; CHECK-NEXT:    efdsub 23, 23, 22
2201 ; CHECK-NEXT:    li 22, 832
2202 ; CHECK-NEXT:    evlddx 22, 31, 22
2203 ; CHECK-NEXT:    li 21, 320
2204 ; CHECK-NEXT:    evlddx 21, 31, 21
2205 ; CHECK-NEXT:    efdmul 22, 22, 21
2206 ; CHECK-NEXT:    efdadd 23, 22, 23
2207 ; CHECK-NEXT:    li 22, 784
2208 ; CHECK-NEXT:    evlddx 22, 31, 22
2209 ; CHECK-NEXT:    li 21, 336
2210 ; CHECK-NEXT:    evlddx 21, 31, 21
2211 ; CHECK-NEXT:    efdmul 22, 22, 21
2212 ; CHECK-NEXT:    efdadd 23, 22, 23
2213 ; CHECK-NEXT:    addi 22, 31, 80
2214 ; CHECK-NEXT:    evstddx 23, 22, 3
2215 ; CHECK-NEXT:    li 23, 800
2216 ; CHECK-NEXT:    evlddx 23, 31, 23
2217 ; CHECK-NEXT:    evlddx 21, 4, 3
2218 ; CHECK-NEXT:    li 20, 768
2219 ; CHECK-NEXT:    evlddx 20, 31, 20
2220 ; CHECK-NEXT:    evlddx 19, 6, 3
2221 ; CHECK-NEXT:    efdmul 20, 20, 19
2222 ; CHECK-NEXT:    efdmul 23, 23, 21
2223 ; CHECK-NEXT:    efdsub 23, 23, 20
2224 ; CHECK-NEXT:    li 21, 816
2225 ; CHECK-NEXT:    evlddx 21, 31, 21
2226 ; CHECK-NEXT:    evlddx 20, 8, 3
2227 ; CHECK-NEXT:    efdmul 21, 21, 20
2228 ; CHECK-NEXT:    efdsub 23, 23, 21
2229 ; CHECK-NEXT:    li 21, 832
2230 ; CHECK-NEXT:    evlddx 21, 31, 21
2231 ; CHECK-NEXT:    evlddx 20, 10, 3
2232 ; CHECK-NEXT:    efdmul 21, 21, 20
2233 ; CHECK-NEXT:    efdadd 23, 21, 23
2234 ; CHECK-NEXT:    li 21, 784
2235 ; CHECK-NEXT:    evlddx 21, 31, 21
2236 ; CHECK-NEXT:    evlddx 20, 12, 3
2237 ; CHECK-NEXT:    efdmul 21, 21, 20
2238 ; CHECK-NEXT:    efdadd 23, 21, 23
2239 ; CHECK-NEXT:    efdneg 23, 23
2240 ; CHECK-NEXT:    evstdd 23, 80(31)
2241 ; CHECK-NEXT:    evldd 23, 96(31)
2242 ; CHECK-NEXT:    evldd 21, 80(31)
2243 ; CHECK-NEXT:    efdadd 23, 23, 21
2244 ; CHECK-NEXT:    evstdd 23, 128(31)
2245 ; CHECK-NEXT:    evlddx 23, 24, 3
2246 ; CHECK-NEXT:    evlddx 21, 22, 3
2247 ; CHECK-NEXT:    efdadd 23, 23, 21
2248 ; CHECK-NEXT:    addi 21, 31, 128
2249 ; CHECK-NEXT:    evstddx 23, 21, 3
2250 ; CHECK-NEXT:    evldd 23, 96(31)
2251 ; CHECK-NEXT:    evldd 20, 80(31)
2252 ; CHECK-NEXT:    efdsub 23, 23, 20
2253 ; CHECK-NEXT:    evstdd 23, 112(31)
2254 ; CHECK-NEXT:    evlddx 24, 24, 3
2255 ; CHECK-NEXT:    evlddx 23, 22, 3
2256 ; CHECK-NEXT:    efdsub 23, 24, 23
2257 ; CHECK-NEXT:    addi 24, 31, 112
2258 ; CHECK-NEXT:    evstddx 23, 24, 3
2259 ; CHECK-NEXT:    lwz 23, 860(31)
2260 ; CHECK-NEXT:    lwz 22, 452(31)
2261 ; CHECK-NEXT:    lwz 20, 876(31)
2262 ; CHECK-NEXT:    slwi 19, 20, 1
2263 ; CHECK-NEXT:    add 19, 19, 22
2264 ; CHECK-NEXT:    slwi 19, 19, 4
2265 ; CHECK-NEXT:    add 23, 19, 23
2266 ; CHECK-NEXT:    li 19, -48
2267 ; CHECK-NEXT:    evlddx 18, 23, 19
2268 ; CHECK-NEXT:    evldd 17, 128(31)
2269 ; CHECK-NEXT:    lwz 16, 856(31)
2270 ; CHECK-NEXT:    efdcfsi 16, 16
2271 ; CHECK-NEXT:    li 15, -40
2272 ; CHECK-NEXT:    evlddx 23, 23, 15
2273 ; CHECK-NEXT:    efdmul 23, 16, 23
2274 ; CHECK-NEXT:    evlddx 16, 21, 3
2275 ; CHECK-NEXT:    efdmul 23, 23, 16
2276 ; CHECK-NEXT:    efdmul 18, 18, 17
2277 ; CHECK-NEXT:    efdsub 23, 18, 23
2278 ; CHECK-NEXT:    lwz 18, 864(31)
2279 ; CHECK-NEXT:    lwz 17, 764(31)
2280 ; CHECK-NEXT:    lwz 16, 872(31)
2281 ; CHECK-NEXT:    mulli 16, 16, 3
2282 ; CHECK-NEXT:    add 17, 17, 16
2283 ; CHECK-NEXT:    mullw 20, 20, 17
2284 ; CHECK-NEXT:    add 22, 22, 20
2285 ; CHECK-NEXT:    slwi 22, 22, 4
2286 ; CHECK-NEXT:    evstddx 23, 18, 22
2287 ; CHECK-NEXT:    lwz 23, 860(31)
2288 ; CHECK-NEXT:    lwz 22, 452(31)
2289 ; CHECK-NEXT:    lwz 20, 876(31)
2290 ; CHECK-NEXT:    slwi 18, 20, 1
2291 ; CHECK-NEXT:    add 18, 18, 22
2292 ; CHECK-NEXT:    slwi 18, 18, 4
2293 ; CHECK-NEXT:    add 23, 18, 23
2294 ; CHECK-NEXT:    evlddx 19, 23, 19
2295 ; CHECK-NEXT:    evlddx 21, 21, 3
2296 ; CHECK-NEXT:    lwz 18, 856(31)
2297 ; CHECK-NEXT:    efdcfsi 18, 18
2298 ; CHECK-NEXT:    evlddx 23, 23, 15
2299 ; CHECK-NEXT:    efdmul 23, 18, 23
2300 ; CHECK-NEXT:    evldd 18, 128(31)
2301 ; CHECK-NEXT:    efdmul 23, 23, 18
2302 ; CHECK-NEXT:    efdmul 21, 19, 21
2303 ; CHECK-NEXT:    efdadd 23, 21, 23
2304 ; CHECK-NEXT:    lwz 21, 864(31)
2305 ; CHECK-NEXT:    lwz 19, 764(31)
2306 ; CHECK-NEXT:    lwz 18, 872(31)
2307 ; CHECK-NEXT:    mulli 18, 18, 3
2308 ; CHECK-NEXT:    add 19, 19, 18
2309 ; CHECK-NEXT:    mullw 20, 20, 19
2310 ; CHECK-NEXT:    add 22, 22, 20
2311 ; CHECK-NEXT:    slwi 22, 22, 4
2312 ; CHECK-NEXT:    add 22, 21, 22
2313 ; CHECK-NEXT:    evstddx 23, 22, 3
2314 ; CHECK-NEXT:    lwz 23, 860(31)
2315 ; CHECK-NEXT:    lwz 22, 452(31)
2316 ; CHECK-NEXT:    lwz 21, 876(31)
2317 ; CHECK-NEXT:    mulli 20, 21, 7
2318 ; CHECK-NEXT:    add 20, 20, 22
2319 ; CHECK-NEXT:    slwi 20, 20, 4
2320 ; CHECK-NEXT:    add 23, 20, 23
2321 ; CHECK-NEXT:    li 20, -128
2322 ; CHECK-NEXT:    evlddx 19, 23, 20
2323 ; CHECK-NEXT:    evldd 18, 112(31)
2324 ; CHECK-NEXT:    lwz 17, 856(31)
2325 ; CHECK-NEXT:    efdcfsi 17, 17
2326 ; CHECK-NEXT:    li 16, -120
2327 ; CHECK-NEXT:    evlddx 23, 23, 16
2328 ; CHECK-NEXT:    efdmul 23, 17, 23
2329 ; CHECK-NEXT:    evlddx 17, 24, 3
2330 ; CHECK-NEXT:    efdmul 23, 23, 17
2331 ; CHECK-NEXT:    efdmul 19, 19, 18
2332 ; CHECK-NEXT:    efdsub 23, 19, 23
2333 ; CHECK-NEXT:    lwz 19, 864(31)
2334 ; CHECK-NEXT:    lwz 18, 764(31)
2335 ; CHECK-NEXT:    lwz 17, 872(31)
2336 ; CHECK-NEXT:    slwi 17, 17, 3
2337 ; CHECK-NEXT:    add 18, 18, 17
2338 ; CHECK-NEXT:    mullw 21, 21, 18
2339 ; CHECK-NEXT:    add 22, 22, 21
2340 ; CHECK-NEXT:    slwi 22, 22, 4
2341 ; CHECK-NEXT:    evstddx 23, 19, 22
2342 ; CHECK-NEXT:    lwz 23, 860(31)
2343 ; CHECK-NEXT:    lwz 22, 452(31)
2344 ; CHECK-NEXT:    lwz 21, 876(31)
2345 ; CHECK-NEXT:    mulli 19, 21, 7
2346 ; CHECK-NEXT:    add 19, 19, 22
2347 ; CHECK-NEXT:    slwi 19, 19, 4
2348 ; CHECK-NEXT:    add 23, 19, 23
2349 ; CHECK-NEXT:    evlddx 20, 23, 20
2350 ; CHECK-NEXT:    evlddx 24, 24, 3
2351 ; CHECK-NEXT:    lwz 19, 856(31)
2352 ; CHECK-NEXT:    efdcfsi 19, 19
2353 ; CHECK-NEXT:    evlddx 23, 23, 16
2354 ; CHECK-NEXT:    efdmul 23, 19, 23
2355 ; CHECK-NEXT:    evldd 19, 112(31)
2356 ; CHECK-NEXT:    efdmul 23, 23, 19
2357 ; CHECK-NEXT:    efdmul 24, 20, 24
2358 ; CHECK-NEXT:    efdadd 24, 24, 23
2359 ; CHECK-NEXT:    lwz 23, 864(31)
2360 ; CHECK-NEXT:    lwz 20, 764(31)
2361 ; CHECK-NEXT:    lwz 19, 872(31)
2362 ; CHECK-NEXT:    slwi 19, 19, 3
2363 ; CHECK-NEXT:    add 20, 20, 19
2364 ; CHECK-NEXT:    mullw 21, 21, 20
2365 ; CHECK-NEXT:    add 22, 22, 21
2366 ; CHECK-NEXT:    slwi 22, 22, 4
2367 ; CHECK-NEXT:    add 23, 23, 22
2368 ; CHECK-NEXT:    evstddx 24, 23, 3
2369 ; CHECK-NEXT:    li 24, 432
2370 ; CHECK-NEXT:    evlddx 24, 31, 24
2371 ; CHECK-NEXT:    li 23, 416
2372 ; CHECK-NEXT:    evlddx 23, 31, 23
2373 ; CHECK-NEXT:    efdmul 23, 23, 25
2374 ; CHECK-NEXT:    efdadd 24, 23, 24
2375 ; CHECK-NEXT:    li 23, 400
2376 ; CHECK-NEXT:    evlddx 23, 31, 23
2377 ; CHECK-NEXT:    efdmul 23, 23, 27
2378 ; CHECK-NEXT:    efdadd 24, 23, 24
2379 ; CHECK-NEXT:    li 23, 384
2380 ; CHECK-NEXT:    evlddx 23, 31, 23
2381 ; CHECK-NEXT:    efdmul 23, 23, 0
2382 ; CHECK-NEXT:    efdadd 24, 23, 24
2383 ; CHECK-NEXT:    li 23, 368
2384 ; CHECK-NEXT:    evlddx 23, 31, 23
2385 ; CHECK-NEXT:    efdmul 23, 23, 26
2386 ; CHECK-NEXT:    efdadd 24, 23, 24
2387 ; CHECK-NEXT:    li 23, 352
2388 ; CHECK-NEXT:    evlddx 23, 31, 23
2389 ; CHECK-NEXT:    efdmul 23, 23, 28
2390 ; CHECK-NEXT:    efdadd 24, 23, 24
2391 ; CHECK-NEXT:    evstdd 24, 32(31)
2392 ; CHECK-NEXT:    evlddx 29, 29, 3
2393 ; CHECK-NEXT:    evlddx 5, 5, 3
2394 ; CHECK-NEXT:    efdmul 5, 5, 25
2395 ; CHECK-NEXT:    efdadd 5, 5, 29
2396 ; CHECK-NEXT:    evlddx 7, 7, 3
2397 ; CHECK-NEXT:    efdmul 7, 7, 27
2398 ; CHECK-NEXT:    efdadd 5, 7, 5
2399 ; CHECK-NEXT:    evlddx 7, 9, 3
2400 ; CHECK-NEXT:    efdmul 7, 7, 0
2401 ; CHECK-NEXT:    efdadd 5, 7, 5
2402 ; CHECK-NEXT:    evlddx 7, 11, 3
2403 ; CHECK-NEXT:    efdmul 7, 7, 26
2404 ; CHECK-NEXT:    efdadd 5, 7, 5
2405 ; CHECK-NEXT:    evlddx 7, 30, 3
2406 ; CHECK-NEXT:    efdmul 7, 7, 28
2407 ; CHECK-NEXT:    efdadd 7, 7, 5
2408 ; CHECK-NEXT:    addi 5, 31, 32
2409 ; CHECK-NEXT:    evstddx 7, 5, 3
2410 ; CHECK-NEXT:    li 7, 784
2411 ; CHECK-NEXT:    evlddx 7, 31, 7
2412 ; CHECK-NEXT:    li 9, 272
2413 ; CHECK-NEXT:    evlddx 9, 31, 9
2414 ; CHECK-NEXT:    li 11, 800
2415 ; CHECK-NEXT:    evlddx 11, 31, 11
2416 ; CHECK-NEXT:    li 30, 288
2417 ; CHECK-NEXT:    evlddx 0, 31, 30
2418 ; CHECK-NEXT:    efdmul 11, 11, 0
2419 ; CHECK-NEXT:    efdmul 7, 7, 9
2420 ; CHECK-NEXT:    efdsub 7, 7, 11
2421 ; CHECK-NEXT:    li 9, 832
2422 ; CHECK-NEXT:    evlddx 9, 31, 9
2423 ; CHECK-NEXT:    li 11, 304
2424 ; CHECK-NEXT:    evlddx 11, 31, 11
2425 ; CHECK-NEXT:    efdmul 9, 9, 11
2426 ; CHECK-NEXT:    efdadd 7, 9, 7
2427 ; CHECK-NEXT:    li 9, 768
2428 ; CHECK-NEXT:    evlddx 9, 31, 9
2429 ; CHECK-NEXT:    li 11, 320
2430 ; CHECK-NEXT:    evlddx 11, 31, 11
2431 ; CHECK-NEXT:    efdmul 9, 9, 11
2432 ; CHECK-NEXT:    efdadd 7, 9, 7
2433 ; CHECK-NEXT:    li 9, 816
2434 ; CHECK-NEXT:    evlddx 9, 31, 9
2435 ; CHECK-NEXT:    li 11, 336
2436 ; CHECK-NEXT:    evlddx 11, 31, 11
2437 ; CHECK-NEXT:    efdmul 9, 9, 11
2438 ; CHECK-NEXT:    efdsub 7, 7, 9
2439 ; CHECK-NEXT:    addi 9, 31, 16
2440 ; CHECK-NEXT:    evstddx 7, 9, 3
2441 ; CHECK-NEXT:    li 7, 784
2442 ; CHECK-NEXT:    evlddx 7, 31, 7
2443 ; CHECK-NEXT:    evlddx 4, 4, 3
2444 ; CHECK-NEXT:    li 11, 800
2445 ; CHECK-NEXT:    evlddx 11, 31, 11
2446 ; CHECK-NEXT:    evlddx 6, 6, 3
2447 ; CHECK-NEXT:    efdmul 6, 11, 6
2448 ; CHECK-NEXT:    efdmul 4, 7, 4
2449 ; CHECK-NEXT:    efdsub 4, 4, 6
2450 ; CHECK-NEXT:    li 6, 832
2451 ; CHECK-NEXT:    evlddx 6, 31, 6
2452 ; CHECK-NEXT:    evlddx 7, 8, 3
2453 ; CHECK-NEXT:    efdmul 6, 6, 7
2454 ; CHECK-NEXT:    efdadd 4, 6, 4
2455 ; CHECK-NEXT:    li 6, 768
2456 ; CHECK-NEXT:    evlddx 6, 31, 6
2457 ; CHECK-NEXT:    evlddx 7, 10, 3
2458 ; CHECK-NEXT:    efdmul 6, 6, 7
2459 ; CHECK-NEXT:    efdadd 4, 6, 4
2460 ; CHECK-NEXT:    li 6, 816
2461 ; CHECK-NEXT:    evlddx 6, 31, 6
2462 ; CHECK-NEXT:    evlddx 7, 12, 3
2463 ; CHECK-NEXT:    efdmul 6, 6, 7
2464 ; CHECK-NEXT:    efdsub 4, 4, 6
2465 ; CHECK-NEXT:    efdneg 4, 4
2466 ; CHECK-NEXT:    evstdd 4, 16(31)
2467 ; CHECK-NEXT:    evldd 4, 32(31)
2468 ; CHECK-NEXT:    evldd 6, 16(31)
2469 ; CHECK-NEXT:    efdadd 4, 4, 6
2470 ; CHECK-NEXT:    evstdd 4, 64(31)
2471 ; CHECK-NEXT:    evlddx 4, 5, 3
2472 ; CHECK-NEXT:    evlddx 6, 9, 3
2473 ; CHECK-NEXT:    efdadd 4, 4, 6
2474 ; CHECK-NEXT:    addi 6, 31, 64
2475 ; CHECK-NEXT:    evstddx 4, 6, 3
2476 ; CHECK-NEXT:    evldd 4, 32(31)
2477 ; CHECK-NEXT:    evldd 7, 16(31)
2478 ; CHECK-NEXT:    efdsub 4, 4, 7
2479 ; CHECK-NEXT:    evstdd 4, 48(31)
2480 ; CHECK-NEXT:    evlddx 4, 5, 3
2481 ; CHECK-NEXT:    evlddx 5, 9, 3
2482 ; CHECK-NEXT:    efdsub 5, 4, 5
2483 ; CHECK-NEXT:    addi 4, 31, 48
2484 ; CHECK-NEXT:    evstddx 5, 4, 3
2485 ; CHECK-NEXT:    lwz 5, 860(31)
2486 ; CHECK-NEXT:    lwz 7, 452(31)
2487 ; CHECK-NEXT:    lwz 8, 876(31)
2488 ; CHECK-NEXT:    mulli 9, 8, 3
2489 ; CHECK-NEXT:    add 9, 9, 7
2490 ; CHECK-NEXT:    slwi 9, 9, 4
2491 ; CHECK-NEXT:    add 5, 9, 5
2492 ; CHECK-NEXT:    li 9, -64
2493 ; CHECK-NEXT:    evlddx 10, 5, 9
2494 ; CHECK-NEXT:    evldd 11, 64(31)
2495 ; CHECK-NEXT:    lwz 12, 856(31)
2496 ; CHECK-NEXT:    efdcfsi 12, 12
2497 ; CHECK-NEXT:    li 0, -56
2498 ; CHECK-NEXT:    evlddx 5, 5, 0
2499 ; CHECK-NEXT:    efdmul 5, 12, 5
2500 ; CHECK-NEXT:    evlddx 12, 6, 3
2501 ; CHECK-NEXT:    efdmul 5, 5, 12
2502 ; CHECK-NEXT:    efdmul 10, 10, 11
2503 ; CHECK-NEXT:    efdsub 5, 10, 5
2504 ; CHECK-NEXT:    lwz 10, 864(31)
2505 ; CHECK-NEXT:    lwz 11, 764(31)
2506 ; CHECK-NEXT:    lwz 12, 872(31)
2507 ; CHECK-NEXT:    slwi 12, 12, 2
2508 ; CHECK-NEXT:    add 11, 11, 12
2509 ; CHECK-NEXT:    mullw 8, 8, 11
2510 ; CHECK-NEXT:    add 7, 7, 8
2511 ; CHECK-NEXT:    slwi 7, 7, 4
2512 ; CHECK-NEXT:    evstddx 5, 10, 7
2513 ; CHECK-NEXT:    lwz 5, 860(31)
2514 ; CHECK-NEXT:    lwz 7, 452(31)
2515 ; CHECK-NEXT:    lwz 8, 876(31)
2516 ; CHECK-NEXT:    mulli 10, 8, 3
2517 ; CHECK-NEXT:    add 10, 10, 7
2518 ; CHECK-NEXT:    slwi 10, 10, 4
2519 ; CHECK-NEXT:    add 5, 10, 5
2520 ; CHECK-NEXT:    evlddx 9, 5, 9
2521 ; CHECK-NEXT:    evlddx 6, 6, 3
2522 ; CHECK-NEXT:    lwz 10, 856(31)
2523 ; CHECK-NEXT:    efdcfsi 10, 10
2524 ; CHECK-NEXT:    evlddx 5, 5, 0
2525 ; CHECK-NEXT:    efdmul 5, 10, 5
2526 ; CHECK-NEXT:    evldd 10, 64(31)
2527 ; CHECK-NEXT:    efdmul 5, 5, 10
2528 ; CHECK-NEXT:    efdmul 6, 9, 6
2529 ; CHECK-NEXT:    efdadd 5, 6, 5
2530 ; CHECK-NEXT:    lwz 6, 864(31)
2531 ; CHECK-NEXT:    lwz 9, 764(31)
2532 ; CHECK-NEXT:    lwz 10, 872(31)
2533 ; CHECK-NEXT:    slwi 10, 10, 2
2534 ; CHECK-NEXT:    add 9, 9, 10
2535 ; CHECK-NEXT:    mullw 8, 8, 9
2536 ; CHECK-NEXT:    add 7, 7, 8
2537 ; CHECK-NEXT:    slwi 7, 7, 4
2538 ; CHECK-NEXT:    add 6, 6, 7
2539 ; CHECK-NEXT:    evstddx 5, 6, 3
2540 ; CHECK-NEXT:    lwz 5, 860(31)
2541 ; CHECK-NEXT:    lwz 6, 452(31)
2542 ; CHECK-NEXT:    lwz 7, 876(31)
2543 ; CHECK-NEXT:    mulli 8, 7, 6
2544 ; CHECK-NEXT:    add 8, 8, 6
2545 ; CHECK-NEXT:    slwi 8, 8, 4
2546 ; CHECK-NEXT:    add 5, 8, 5
2547 ; CHECK-NEXT:    li 8, -112
2548 ; CHECK-NEXT:    evlddx 9, 5, 8
2549 ; CHECK-NEXT:    evldd 10, 48(31)
2550 ; CHECK-NEXT:    lwz 11, 856(31)
2551 ; CHECK-NEXT:    efdcfsi 11, 11
2552 ; CHECK-NEXT:    li 12, -104
2553 ; CHECK-NEXT:    evlddx 5, 5, 12
2554 ; CHECK-NEXT:    efdmul 5, 11, 5
2555 ; CHECK-NEXT:    evlddx 11, 4, 3
2556 ; CHECK-NEXT:    efdmul 5, 5, 11
2557 ; CHECK-NEXT:    efdmul 9, 9, 10
2558 ; CHECK-NEXT:    efdsub 5, 9, 5
2559 ; CHECK-NEXT:    lwz 9, 864(31)
2560 ; CHECK-NEXT:    lwz 10, 764(31)
2561 ; CHECK-NEXT:    lwz 11, 872(31)
2562 ; CHECK-NEXT:    mulli 11, 11, 7
2563 ; CHECK-NEXT:    add 10, 10, 11
2564 ; CHECK-NEXT:    mullw 7, 7, 10
2565 ; CHECK-NEXT:    add 6, 6, 7
2566 ; CHECK-NEXT:    slwi 6, 6, 4
2567 ; CHECK-NEXT:    evstddx 5, 9, 6
2568 ; CHECK-NEXT:    lwz 5, 860(31)
2569 ; CHECK-NEXT:    lwz 6, 452(31)
2570 ; CHECK-NEXT:    lwz 7, 876(31)
2571 ; CHECK-NEXT:    mulli 9, 7, 6
2572 ; CHECK-NEXT:    add 9, 9, 6
2573 ; CHECK-NEXT:    slwi 9, 9, 4
2574 ; CHECK-NEXT:    add 5, 9, 5
2575 ; CHECK-NEXT:    evlddx 8, 5, 8
2576 ; CHECK-NEXT:    evlddx 4, 4, 3
2577 ; CHECK-NEXT:    lwz 9, 856(31)
2578 ; CHECK-NEXT:    efdcfsi 9, 9
2579 ; CHECK-NEXT:    evlddx 5, 5, 12
2580 ; CHECK-NEXT:    efdmul 5, 9, 5
2581 ; CHECK-NEXT:    evldd 9, 48(31)
2582 ; CHECK-NEXT:    efdmul 5, 5, 9
2583 ; CHECK-NEXT:    efdmul 4, 8, 4
2584 ; CHECK-NEXT:    efdadd 4, 4, 5
2585 ; CHECK-NEXT:    lwz 5, 864(31)
2586 ; CHECK-NEXT:    lwz 8, 764(31)
2587 ; CHECK-NEXT:    lwz 9, 872(31)
2588 ; CHECK-NEXT:    mulli 9, 9, 7
2589 ; CHECK-NEXT:    add 8, 8, 9
2590 ; CHECK-NEXT:    mullw 7, 7, 8
2591 ; CHECK-NEXT:    add 6, 6, 7
2592 ; CHECK-NEXT:    slwi 6, 6, 4
2593 ; CHECK-NEXT:    add 5, 5, 6
2594 ; CHECK-NEXT:    evstddx 4, 5, 3
2595 ; CHECK-NEXT:    b .LBB1_5
2596 ; CHECK-NEXT:  .LBB1_5:
2597 ; CHECK-NEXT:    lwz 3, 452(31)
2598 ; CHECK-NEXT:    addi 3, 3, 1
2599 ; CHECK-NEXT:    stw 3, 452(31)
2600 ; CHECK-NEXT:    b .LBB1_3
2601 ; CHECK-NEXT:  .LBB1_6:
2602 ; CHECK-NEXT:    b .LBB1_7
2603 ; CHECK-NEXT:  .LBB1_7:
2604 ; CHECK-NEXT:    lwz 3, 764(31)
2605 ; CHECK-NEXT:    addi 3, 3, 1
2606 ; CHECK-NEXT:    stw 3, 764(31)
2607 ; CHECK-NEXT:    b .LBB1_1
2608 ; CHECK-NEXT:  .LBB1_8:
2609 ; CHECK-NEXT:    lwz 30, 1080(31) # 4-byte Folded Reload
2610 ; CHECK-NEXT:    li 3, 984
2611 ; CHECK-NEXT:    evlddx 29, 31, 3 # 8-byte Folded Reload
2612 ; CHECK-NEXT:    li 3, 976
2613 ; CHECK-NEXT:    evlddx 28, 31, 3 # 8-byte Folded Reload
2614 ; CHECK-NEXT:    li 3, 968
2615 ; CHECK-NEXT:    evlddx 27, 31, 3 # 8-byte Folded Reload
2616 ; CHECK-NEXT:    li 3, 960
2617 ; CHECK-NEXT:    evlddx 26, 31, 3 # 8-byte Folded Reload
2618 ; CHECK-NEXT:    li 3, 952
2619 ; CHECK-NEXT:    evlddx 25, 31, 3 # 8-byte Folded Reload
2620 ; CHECK-NEXT:    li 3, 944
2621 ; CHECK-NEXT:    evlddx 24, 31, 3 # 8-byte Folded Reload
2622 ; CHECK-NEXT:    li 3, 936
2623 ; CHECK-NEXT:    evlddx 23, 31, 3 # 8-byte Folded Reload
2624 ; CHECK-NEXT:    li 3, 928
2625 ; CHECK-NEXT:    evlddx 22, 31, 3 # 8-byte Folded Reload
2626 ; CHECK-NEXT:    li 3, 920
2627 ; CHECK-NEXT:    evlddx 21, 31, 3 # 8-byte Folded Reload
2628 ; CHECK-NEXT:    li 3, 912
2629 ; CHECK-NEXT:    evlddx 20, 31, 3 # 8-byte Folded Reload
2630 ; CHECK-NEXT:    li 3, 904
2631 ; CHECK-NEXT:    evlddx 19, 31, 3 # 8-byte Folded Reload
2632 ; CHECK-NEXT:    li 3, 896
2633 ; CHECK-NEXT:    evlddx 18, 31, 3 # 8-byte Folded Reload
2634 ; CHECK-NEXT:    li 3, 888
2635 ; CHECK-NEXT:    evlddx 17, 31, 3 # 8-byte Folded Reload
2636 ; CHECK-NEXT:    li 3, 880
2637 ; CHECK-NEXT:    evlddx 16, 31, 3 # 8-byte Folded Reload
2638 ; CHECK-NEXT:    lwz 15, 1020(31) # 4-byte Folded Reload
2639 ; CHECK-NEXT:    lwz 31, 1084(1)
2640 ; CHECK-NEXT:    addi 1, 1, 1088
2641 ; CHECK-NEXT:    blr
2642   %7 = alloca i32, align 4
2643   %8 = alloca i32, align 4
2644   %9 = alloca ptr, align 4
2645   %10 = alloca ptr, align 4
2646   %11 = alloca ptr, align 4
2647   %12 = alloca i32, align 4
2648   %13 = alloca i32, align 4
2649   %14 = alloca double, align 8
2650   %15 = alloca double, align 8
2651   %16 = alloca double, align 8
2652   %17 = alloca double, align 8
2653   %18 = alloca double, align 8
2654   %19 = alloca double, align 8
2655   %20 = alloca double, align 8
2656   %21 = alloca double, align 8
2657   %22 = alloca double, align 8
2658   %23 = alloca double, align 8
2659   %24 = alloca i32, align 4
2660   %25 = alloca %struct.cmplx, align 8
2661   %26 = alloca %struct.cmplx, align 8
2662   %27 = alloca %struct.cmplx, align 8
2663   %28 = alloca %struct.cmplx, align 8
2664   %29 = alloca %struct.cmplx, align 8
2665   %30 = alloca %struct.cmplx, align 8
2666   %31 = alloca %struct.cmplx, align 8
2667   %32 = alloca %struct.cmplx, align 8
2668   %33 = alloca %struct.cmplx, align 8
2669   %34 = alloca %struct.cmplx, align 8
2670   %35 = alloca %struct.cmplx, align 8
2671   %36 = alloca %struct.cmplx, align 8
2672   %37 = alloca %struct.cmplx, align 8
2673   %38 = alloca %struct.cmplx, align 8
2674   %39 = alloca %struct.cmplx, align 8
2675   %40 = alloca %struct.cmplx, align 8
2676   %41 = alloca %struct.cmplx, align 8
2677   %42 = alloca %struct.cmplx, align 8
2678   %43 = alloca %struct.cmplx, align 8
2679   %44 = alloca i32, align 4
2680   %45 = alloca %struct.cmplx, align 8
2681   %46 = alloca %struct.cmplx, align 8
2682   %47 = alloca %struct.cmplx, align 8
2683   %48 = alloca %struct.cmplx, align 8
2684   %49 = alloca %struct.cmplx, align 8
2685   %50 = alloca %struct.cmplx, align 8
2686   %51 = alloca %struct.cmplx, align 8
2687   %52 = alloca %struct.cmplx, align 8
2688   %53 = alloca %struct.cmplx, align 8
2689   %54 = alloca %struct.cmplx, align 8
2690   %55 = alloca %struct.cmplx, align 8
2691   %56 = alloca %struct.cmplx, align 8
2692   %57 = alloca %struct.cmplx, align 8
2693   %58 = alloca %struct.cmplx, align 8
2694   %59 = alloca %struct.cmplx, align 8
2695   %60 = alloca %struct.cmplx, align 8
2696   %61 = alloca %struct.cmplx, align 8
2697   %62 = alloca %struct.cmplx, align 8
2698   %63 = alloca %struct.cmplx, align 8
2699   %64 = alloca %struct.cmplx, align 8
2700   %65 = alloca %struct.cmplx, align 8
2701   %66 = alloca %struct.cmplx, align 8
2702   %67 = alloca %struct.cmplx, align 8
2703   %68 = alloca %struct.cmplx, align 8
2704   %69 = alloca %struct.cmplx, align 8
2705   %70 = alloca %struct.cmplx, align 8
2706   %71 = alloca %struct.cmplx, align 8
2707   store i32 %0, ptr %7, align 4
2708   store i32 %1, ptr %8, align 4
2709   store ptr %2, ptr %9, align 4
2710   store ptr %3, ptr %10, align 4
2711   store ptr %4, ptr %11, align 4
2712   store i32 %5, ptr %12, align 4
2713   store i32 11, ptr %13, align 4
2714   store double 0x3FEAEB8C8764F0BA, ptr %14, align 8
2715   %72 = load i32, ptr %12, align 4
2716   %73 = sitofp i32 %72 to double
2717   %74 = fmul double %73, 0x3FE14CEDF8BB580B
2718   store double %74, ptr %15, align 8
2719   store double 0x3FDA9628D9C712B6, ptr %16, align 8
2720   %75 = load i32, ptr %12, align 4
2721   %76 = sitofp i32 %75 to double
2722   %77 = fmul double %76, 0x3FED1BB48EEE2C13
2723   store double %77, ptr %17, align 8
2724   store double 0xBFC2375F640F44DB, ptr %18, align 8
2725   %78 = load i32, ptr %12, align 4
2726   %79 = sitofp i32 %78 to double
2727   %80 = fmul double %79, 0x3FEFAC9E043842EF
2728   store double %80, ptr %19, align 8
2729   store double 0xBFE4F49E7F775887, ptr %20, align 8
2730   %81 = load i32, ptr %12, align 4
2731   %82 = sitofp i32 %81 to double
2732   %83 = fmul double %82, 0x3FE82F19BB3A28A1
2733   store double %83, ptr %21, align 8
2734   store double 0xBFEEB42A9BCD5057, ptr %22, align 8
2735   %84 = load i32, ptr %12, align 4
2736   %85 = sitofp i32 %84 to double
2737   %86 = fmul double %85, 0x3FD207E7FD768DBF
2738   store double %86, ptr %23, align 8
2739   store i32 0, ptr %24, align 4
2740   br label %87
2742 87:                                               ; preds = %2792, %6
2743   %88 = load i32, ptr %24, align 4
2744   %89 = load i32, ptr %8, align 4
2745   %90 = icmp ult i32 %88, %89
2746   br i1 %90, label %91, label %2795
2748 91:                                               ; preds = %87
2749   %92 = load ptr, ptr %9, align 4
2750   %93 = load i32, ptr %7, align 4
2751   %94 = load i32, ptr %24, align 4
2752   %95 = mul i32 11, %94
2753   %96 = add i32 0, %95
2754   %97 = mul i32 %93, %96
2755   %98 = add i32 0, %97
2756   %99 = getelementptr inbounds %struct.cmplx, ptr %92, i32 %98
2757   call void @llvm.memcpy.p0.p0.i32(ptr align 8 %25, ptr align 8 %99, i32 16, i1 false)
2758   %100 = load ptr, ptr %9, align 4
2759   %101 = load i32, ptr %7, align 4
2760   %102 = load i32, ptr %24, align 4
2761   %103 = mul i32 11, %102
2762   %104 = add i32 1, %103
2763   %105 = mul i32 %101, %104
2764   %106 = add i32 0, %105
2765   %107 = getelementptr inbounds %struct.cmplx, ptr %100, i32 %106
2766   %108 = getelementptr inbounds %struct.cmplx, ptr %107, i32 0, i32 0
2767   %109 = load double, ptr %108, align 8
2768   %110 = load ptr, ptr %9, align 4
2769   %111 = load i32, ptr %7, align 4
2770   %112 = load i32, ptr %24, align 4
2771   %113 = mul i32 11, %112
2772   %114 = add i32 10, %113
2773   %115 = mul i32 %111, %114
2774   %116 = add i32 0, %115
2775   %117 = getelementptr inbounds %struct.cmplx, ptr %110, i32 %116
2776   %118 = getelementptr inbounds %struct.cmplx, ptr %117, i32 0, i32 0
2777   %119 = load double, ptr %118, align 8
2778   %120 = fadd double %109, %119
2779   %121 = getelementptr inbounds %struct.cmplx, ptr %26, i32 0, i32 0
2780   store double %120, ptr %121, align 8
2781   %122 = load ptr, ptr %9, align 4
2782   %123 = load i32, ptr %7, align 4
2783   %124 = load i32, ptr %24, align 4
2784   %125 = mul i32 11, %124
2785   %126 = add i32 1, %125
2786   %127 = mul i32 %123, %126
2787   %128 = add i32 0, %127
2788   %129 = getelementptr inbounds %struct.cmplx, ptr %122, i32 %128
2789   %130 = getelementptr inbounds %struct.cmplx, ptr %129, i32 0, i32 1
2790   %131 = load double, ptr %130, align 8
2791   %132 = load ptr, ptr %9, align 4
2792   %133 = load i32, ptr %7, align 4
2793   %134 = load i32, ptr %24, align 4
2794   %135 = mul i32 11, %134
2795   %136 = add i32 10, %135
2796   %137 = mul i32 %133, %136
2797   %138 = add i32 0, %137
2798   %139 = getelementptr inbounds %struct.cmplx, ptr %132, i32 %138
2799   %140 = getelementptr inbounds %struct.cmplx, ptr %139, i32 0, i32 1
2800   %141 = load double, ptr %140, align 8
2801   %142 = fadd double %131, %141
2802   %143 = getelementptr inbounds %struct.cmplx, ptr %26, i32 0, i32 1
2803   store double %142, ptr %143, align 8
2804   %144 = load ptr, ptr %9, align 4
2805   %145 = load i32, ptr %7, align 4
2806   %146 = load i32, ptr %24, align 4
2807   %147 = mul i32 11, %146
2808   %148 = add i32 1, %147
2809   %149 = mul i32 %145, %148
2810   %150 = add i32 0, %149
2811   %151 = getelementptr inbounds %struct.cmplx, ptr %144, i32 %150
2812   %152 = getelementptr inbounds %struct.cmplx, ptr %151, i32 0, i32 0
2813   %153 = load double, ptr %152, align 8
2814   %154 = load ptr, ptr %9, align 4
2815   %155 = load i32, ptr %7, align 4
2816   %156 = load i32, ptr %24, align 4
2817   %157 = mul i32 11, %156
2818   %158 = add i32 10, %157
2819   %159 = mul i32 %155, %158
2820   %160 = add i32 0, %159
2821   %161 = getelementptr inbounds %struct.cmplx, ptr %154, i32 %160
2822   %162 = getelementptr inbounds %struct.cmplx, ptr %161, i32 0, i32 0
2823   %163 = load double, ptr %162, align 8
2824   %164 = fsub double %153, %163
2825   %165 = getelementptr inbounds %struct.cmplx, ptr %35, i32 0, i32 0
2826   store double %164, ptr %165, align 8
2827   %166 = load ptr, ptr %9, align 4
2828   %167 = load i32, ptr %7, align 4
2829   %168 = load i32, ptr %24, align 4
2830   %169 = mul i32 11, %168
2831   %170 = add i32 1, %169
2832   %171 = mul i32 %167, %170
2833   %172 = add i32 0, %171
2834   %173 = getelementptr inbounds %struct.cmplx, ptr %166, i32 %172
2835   %174 = getelementptr inbounds %struct.cmplx, ptr %173, i32 0, i32 1
2836   %175 = load double, ptr %174, align 8
2837   %176 = load ptr, ptr %9, align 4
2838   %177 = load i32, ptr %7, align 4
2839   %178 = load i32, ptr %24, align 4
2840   %179 = mul i32 11, %178
2841   %180 = add i32 10, %179
2842   %181 = mul i32 %177, %180
2843   %182 = add i32 0, %181
2844   %183 = getelementptr inbounds %struct.cmplx, ptr %176, i32 %182
2845   %184 = getelementptr inbounds %struct.cmplx, ptr %183, i32 0, i32 1
2846   %185 = load double, ptr %184, align 8
2847   %186 = fsub double %175, %185
2848   %187 = getelementptr inbounds %struct.cmplx, ptr %35, i32 0, i32 1
2849   store double %186, ptr %187, align 8
2850   %188 = load ptr, ptr %9, align 4
2851   %189 = load i32, ptr %7, align 4
2852   %190 = load i32, ptr %24, align 4
2853   %191 = mul i32 11, %190
2854   %192 = add i32 2, %191
2855   %193 = mul i32 %189, %192
2856   %194 = add i32 0, %193
2857   %195 = getelementptr inbounds %struct.cmplx, ptr %188, i32 %194
2858   %196 = getelementptr inbounds %struct.cmplx, ptr %195, i32 0, i32 0
2859   %197 = load double, ptr %196, align 8
2860   %198 = load ptr, ptr %9, align 4
2861   %199 = load i32, ptr %7, align 4
2862   %200 = load i32, ptr %24, align 4
2863   %201 = mul i32 11, %200
2864   %202 = add i32 9, %201
2865   %203 = mul i32 %199, %202
2866   %204 = add i32 0, %203
2867   %205 = getelementptr inbounds %struct.cmplx, ptr %198, i32 %204
2868   %206 = getelementptr inbounds %struct.cmplx, ptr %205, i32 0, i32 0
2869   %207 = load double, ptr %206, align 8
2870   %208 = fadd double %197, %207
2871   %209 = getelementptr inbounds %struct.cmplx, ptr %27, i32 0, i32 0
2872   store double %208, ptr %209, align 8
2873   %210 = load ptr, ptr %9, align 4
2874   %211 = load i32, ptr %7, align 4
2875   %212 = load i32, ptr %24, align 4
2876   %213 = mul i32 11, %212
2877   %214 = add i32 2, %213
2878   %215 = mul i32 %211, %214
2879   %216 = add i32 0, %215
2880   %217 = getelementptr inbounds %struct.cmplx, ptr %210, i32 %216
2881   %218 = getelementptr inbounds %struct.cmplx, ptr %217, i32 0, i32 1
2882   %219 = load double, ptr %218, align 8
2883   %220 = load ptr, ptr %9, align 4
2884   %221 = load i32, ptr %7, align 4
2885   %222 = load i32, ptr %24, align 4
2886   %223 = mul i32 11, %222
2887   %224 = add i32 9, %223
2888   %225 = mul i32 %221, %224
2889   %226 = add i32 0, %225
2890   %227 = getelementptr inbounds %struct.cmplx, ptr %220, i32 %226
2891   %228 = getelementptr inbounds %struct.cmplx, ptr %227, i32 0, i32 1
2892   %229 = load double, ptr %228, align 8
2893   %230 = fadd double %219, %229
2894   %231 = getelementptr inbounds %struct.cmplx, ptr %27, i32 0, i32 1
2895   store double %230, ptr %231, align 8
2896   %232 = load ptr, ptr %9, align 4
2897   %233 = load i32, ptr %7, align 4
2898   %234 = load i32, ptr %24, align 4
2899   %235 = mul i32 11, %234
2900   %236 = add i32 2, %235
2901   %237 = mul i32 %233, %236
2902   %238 = add i32 0, %237
2903   %239 = getelementptr inbounds %struct.cmplx, ptr %232, i32 %238
2904   %240 = getelementptr inbounds %struct.cmplx, ptr %239, i32 0, i32 0
2905   %241 = load double, ptr %240, align 8
2906   %242 = load ptr, ptr %9, align 4
2907   %243 = load i32, ptr %7, align 4
2908   %244 = load i32, ptr %24, align 4
2909   %245 = mul i32 11, %244
2910   %246 = add i32 9, %245
2911   %247 = mul i32 %243, %246
2912   %248 = add i32 0, %247
2913   %249 = getelementptr inbounds %struct.cmplx, ptr %242, i32 %248
2914   %250 = getelementptr inbounds %struct.cmplx, ptr %249, i32 0, i32 0
2915   %251 = load double, ptr %250, align 8
2916   %252 = fsub double %241, %251
2917   %253 = getelementptr inbounds %struct.cmplx, ptr %34, i32 0, i32 0
2918   store double %252, ptr %253, align 8
2919   %254 = load ptr, ptr %9, align 4
2920   %255 = load i32, ptr %7, align 4
2921   %256 = load i32, ptr %24, align 4
2922   %257 = mul i32 11, %256
2923   %258 = add i32 2, %257
2924   %259 = mul i32 %255, %258
2925   %260 = add i32 0, %259
2926   %261 = getelementptr inbounds %struct.cmplx, ptr %254, i32 %260
2927   %262 = getelementptr inbounds %struct.cmplx, ptr %261, i32 0, i32 1
2928   %263 = load double, ptr %262, align 8
2929   %264 = load ptr, ptr %9, align 4
2930   %265 = load i32, ptr %7, align 4
2931   %266 = load i32, ptr %24, align 4
2932   %267 = mul i32 11, %266
2933   %268 = add i32 9, %267
2934   %269 = mul i32 %265, %268
2935   %270 = add i32 0, %269
2936   %271 = getelementptr inbounds %struct.cmplx, ptr %264, i32 %270
2937   %272 = getelementptr inbounds %struct.cmplx, ptr %271, i32 0, i32 1
2938   %273 = load double, ptr %272, align 8
2939   %274 = fsub double %263, %273
2940   %275 = getelementptr inbounds %struct.cmplx, ptr %34, i32 0, i32 1
2941   store double %274, ptr %275, align 8
2942   %276 = load ptr, ptr %9, align 4
2943   %277 = load i32, ptr %7, align 4
2944   %278 = load i32, ptr %24, align 4
2945   %279 = mul i32 11, %278
2946   %280 = add i32 3, %279
2947   %281 = mul i32 %277, %280
2948   %282 = add i32 0, %281
2949   %283 = getelementptr inbounds %struct.cmplx, ptr %276, i32 %282
2950   %284 = getelementptr inbounds %struct.cmplx, ptr %283, i32 0, i32 0
2951   %285 = load double, ptr %284, align 8
2952   %286 = load ptr, ptr %9, align 4
2953   %287 = load i32, ptr %7, align 4
2954   %288 = load i32, ptr %24, align 4
2955   %289 = mul i32 11, %288
2956   %290 = add i32 8, %289
2957   %291 = mul i32 %287, %290
2958   %292 = add i32 0, %291
2959   %293 = getelementptr inbounds %struct.cmplx, ptr %286, i32 %292
2960   %294 = getelementptr inbounds %struct.cmplx, ptr %293, i32 0, i32 0
2961   %295 = load double, ptr %294, align 8
2962   %296 = fadd double %285, %295
2963   %297 = getelementptr inbounds %struct.cmplx, ptr %28, i32 0, i32 0
2964   store double %296, ptr %297, align 8
2965   %298 = load ptr, ptr %9, align 4
2966   %299 = load i32, ptr %7, align 4
2967   %300 = load i32, ptr %24, align 4
2968   %301 = mul i32 11, %300
2969   %302 = add i32 3, %301
2970   %303 = mul i32 %299, %302
2971   %304 = add i32 0, %303
2972   %305 = getelementptr inbounds %struct.cmplx, ptr %298, i32 %304
2973   %306 = getelementptr inbounds %struct.cmplx, ptr %305, i32 0, i32 1
2974   %307 = load double, ptr %306, align 8
2975   %308 = load ptr, ptr %9, align 4
2976   %309 = load i32, ptr %7, align 4
2977   %310 = load i32, ptr %24, align 4
2978   %311 = mul i32 11, %310
2979   %312 = add i32 8, %311
2980   %313 = mul i32 %309, %312
2981   %314 = add i32 0, %313
2982   %315 = getelementptr inbounds %struct.cmplx, ptr %308, i32 %314
2983   %316 = getelementptr inbounds %struct.cmplx, ptr %315, i32 0, i32 1
2984   %317 = load double, ptr %316, align 8
2985   %318 = fadd double %307, %317
2986   %319 = getelementptr inbounds %struct.cmplx, ptr %28, i32 0, i32 1
2987   store double %318, ptr %319, align 8
2988   %320 = load ptr, ptr %9, align 4
2989   %321 = load i32, ptr %7, align 4
2990   %322 = load i32, ptr %24, align 4
2991   %323 = mul i32 11, %322
2992   %324 = add i32 3, %323
2993   %325 = mul i32 %321, %324
2994   %326 = add i32 0, %325
2995   %327 = getelementptr inbounds %struct.cmplx, ptr %320, i32 %326
2996   %328 = getelementptr inbounds %struct.cmplx, ptr %327, i32 0, i32 0
2997   %329 = load double, ptr %328, align 8
2998   %330 = load ptr, ptr %9, align 4
2999   %331 = load i32, ptr %7, align 4
3000   %332 = load i32, ptr %24, align 4
3001   %333 = mul i32 11, %332
3002   %334 = add i32 8, %333
3003   %335 = mul i32 %331, %334
3004   %336 = add i32 0, %335
3005   %337 = getelementptr inbounds %struct.cmplx, ptr %330, i32 %336
3006   %338 = getelementptr inbounds %struct.cmplx, ptr %337, i32 0, i32 0
3007   %339 = load double, ptr %338, align 8
3008   %340 = fsub double %329, %339
3009   %341 = getelementptr inbounds %struct.cmplx, ptr %33, i32 0, i32 0
3010   store double %340, ptr %341, align 8
3011   %342 = load ptr, ptr %9, align 4
3012   %343 = load i32, ptr %7, align 4
3013   %344 = load i32, ptr %24, align 4
3014   %345 = mul i32 11, %344
3015   %346 = add i32 3, %345
3016   %347 = mul i32 %343, %346
3017   %348 = add i32 0, %347
3018   %349 = getelementptr inbounds %struct.cmplx, ptr %342, i32 %348
3019   %350 = getelementptr inbounds %struct.cmplx, ptr %349, i32 0, i32 1
3020   %351 = load double, ptr %350, align 8
3021   %352 = load ptr, ptr %9, align 4
3022   %353 = load i32, ptr %7, align 4
3023   %354 = load i32, ptr %24, align 4
3024   %355 = mul i32 11, %354
3025   %356 = add i32 8, %355
3026   %357 = mul i32 %353, %356
3027   %358 = add i32 0, %357
3028   %359 = getelementptr inbounds %struct.cmplx, ptr %352, i32 %358
3029   %360 = getelementptr inbounds %struct.cmplx, ptr %359, i32 0, i32 1
3030   %361 = load double, ptr %360, align 8
3031   %362 = fsub double %351, %361
3032   %363 = getelementptr inbounds %struct.cmplx, ptr %33, i32 0, i32 1
3033   store double %362, ptr %363, align 8
3034   %364 = load ptr, ptr %9, align 4
3035   %365 = load i32, ptr %7, align 4
3036   %366 = load i32, ptr %24, align 4
3037   %367 = mul i32 11, %366
3038   %368 = add i32 4, %367
3039   %369 = mul i32 %365, %368
3040   %370 = add i32 0, %369
3041   %371 = getelementptr inbounds %struct.cmplx, ptr %364, i32 %370
3042   %372 = getelementptr inbounds %struct.cmplx, ptr %371, i32 0, i32 0
3043   %373 = load double, ptr %372, align 8
3044   %374 = load ptr, ptr %9, align 4
3045   %375 = load i32, ptr %7, align 4
3046   %376 = load i32, ptr %24, align 4
3047   %377 = mul i32 11, %376
3048   %378 = add i32 7, %377
3049   %379 = mul i32 %375, %378
3050   %380 = add i32 0, %379
3051   %381 = getelementptr inbounds %struct.cmplx, ptr %374, i32 %380
3052   %382 = getelementptr inbounds %struct.cmplx, ptr %381, i32 0, i32 0
3053   %383 = load double, ptr %382, align 8
3054   %384 = fadd double %373, %383
3055   %385 = getelementptr inbounds %struct.cmplx, ptr %29, i32 0, i32 0
3056   store double %384, ptr %385, align 8
3057   %386 = load ptr, ptr %9, align 4
3058   %387 = load i32, ptr %7, align 4
3059   %388 = load i32, ptr %24, align 4
3060   %389 = mul i32 11, %388
3061   %390 = add i32 4, %389
3062   %391 = mul i32 %387, %390
3063   %392 = add i32 0, %391
3064   %393 = getelementptr inbounds %struct.cmplx, ptr %386, i32 %392
3065   %394 = getelementptr inbounds %struct.cmplx, ptr %393, i32 0, i32 1
3066   %395 = load double, ptr %394, align 8
3067   %396 = load ptr, ptr %9, align 4
3068   %397 = load i32, ptr %7, align 4
3069   %398 = load i32, ptr %24, align 4
3070   %399 = mul i32 11, %398
3071   %400 = add i32 7, %399
3072   %401 = mul i32 %397, %400
3073   %402 = add i32 0, %401
3074   %403 = getelementptr inbounds %struct.cmplx, ptr %396, i32 %402
3075   %404 = getelementptr inbounds %struct.cmplx, ptr %403, i32 0, i32 1
3076   %405 = load double, ptr %404, align 8
3077   %406 = fadd double %395, %405
3078   %407 = getelementptr inbounds %struct.cmplx, ptr %29, i32 0, i32 1
3079   store double %406, ptr %407, align 8
3080   %408 = load ptr, ptr %9, align 4
3081   %409 = load i32, ptr %7, align 4
3082   %410 = load i32, ptr %24, align 4
3083   %411 = mul i32 11, %410
3084   %412 = add i32 4, %411
3085   %413 = mul i32 %409, %412
3086   %414 = add i32 0, %413
3087   %415 = getelementptr inbounds %struct.cmplx, ptr %408, i32 %414
3088   %416 = getelementptr inbounds %struct.cmplx, ptr %415, i32 0, i32 0
3089   %417 = load double, ptr %416, align 8
3090   %418 = load ptr, ptr %9, align 4
3091   %419 = load i32, ptr %7, align 4
3092   %420 = load i32, ptr %24, align 4
3093   %421 = mul i32 11, %420
3094   %422 = add i32 7, %421
3095   %423 = mul i32 %419, %422
3096   %424 = add i32 0, %423
3097   %425 = getelementptr inbounds %struct.cmplx, ptr %418, i32 %424
3098   %426 = getelementptr inbounds %struct.cmplx, ptr %425, i32 0, i32 0
3099   %427 = load double, ptr %426, align 8
3100   %428 = fsub double %417, %427
3101   %429 = getelementptr inbounds %struct.cmplx, ptr %32, i32 0, i32 0
3102   store double %428, ptr %429, align 8
3103   %430 = load ptr, ptr %9, align 4
3104   %431 = load i32, ptr %7, align 4
3105   %432 = load i32, ptr %24, align 4
3106   %433 = mul i32 11, %432
3107   %434 = add i32 4, %433
3108   %435 = mul i32 %431, %434
3109   %436 = add i32 0, %435
3110   %437 = getelementptr inbounds %struct.cmplx, ptr %430, i32 %436
3111   %438 = getelementptr inbounds %struct.cmplx, ptr %437, i32 0, i32 1
3112   %439 = load double, ptr %438, align 8
3113   %440 = load ptr, ptr %9, align 4
3114   %441 = load i32, ptr %7, align 4
3115   %442 = load i32, ptr %24, align 4
3116   %443 = mul i32 11, %442
3117   %444 = add i32 7, %443
3118   %445 = mul i32 %441, %444
3119   %446 = add i32 0, %445
3120   %447 = getelementptr inbounds %struct.cmplx, ptr %440, i32 %446
3121   %448 = getelementptr inbounds %struct.cmplx, ptr %447, i32 0, i32 1
3122   %449 = load double, ptr %448, align 8
3123   %450 = fsub double %439, %449
3124   %451 = getelementptr inbounds %struct.cmplx, ptr %32, i32 0, i32 1
3125   store double %450, ptr %451, align 8
3126   %452 = load ptr, ptr %9, align 4
3127   %453 = load i32, ptr %7, align 4
3128   %454 = load i32, ptr %24, align 4
3129   %455 = mul i32 11, %454
3130   %456 = add i32 5, %455
3131   %457 = mul i32 %453, %456
3132   %458 = add i32 0, %457
3133   %459 = getelementptr inbounds %struct.cmplx, ptr %452, i32 %458
3134   %460 = getelementptr inbounds %struct.cmplx, ptr %459, i32 0, i32 0
3135   %461 = load double, ptr %460, align 8
3136   %462 = load ptr, ptr %9, align 4
3137   %463 = load i32, ptr %7, align 4
3138   %464 = load i32, ptr %24, align 4
3139   %465 = mul i32 11, %464
3140   %466 = add i32 6, %465
3141   %467 = mul i32 %463, %466
3142   %468 = add i32 0, %467
3143   %469 = getelementptr inbounds %struct.cmplx, ptr %462, i32 %468
3144   %470 = getelementptr inbounds %struct.cmplx, ptr %469, i32 0, i32 0
3145   %471 = load double, ptr %470, align 8
3146   %472 = fadd double %461, %471
3147   %473 = getelementptr inbounds %struct.cmplx, ptr %30, i32 0, i32 0
3148   store double %472, ptr %473, align 8
3149   %474 = load ptr, ptr %9, align 4
3150   %475 = load i32, ptr %7, align 4
3151   %476 = load i32, ptr %24, align 4
3152   %477 = mul i32 11, %476
3153   %478 = add i32 5, %477
3154   %479 = mul i32 %475, %478
3155   %480 = add i32 0, %479
3156   %481 = getelementptr inbounds %struct.cmplx, ptr %474, i32 %480
3157   %482 = getelementptr inbounds %struct.cmplx, ptr %481, i32 0, i32 1
3158   %483 = load double, ptr %482, align 8
3159   %484 = load ptr, ptr %9, align 4
3160   %485 = load i32, ptr %7, align 4
3161   %486 = load i32, ptr %24, align 4
3162   %487 = mul i32 11, %486
3163   %488 = add i32 6, %487
3164   %489 = mul i32 %485, %488
3165   %490 = add i32 0, %489
3166   %491 = getelementptr inbounds %struct.cmplx, ptr %484, i32 %490
3167   %492 = getelementptr inbounds %struct.cmplx, ptr %491, i32 0, i32 1
3168   %493 = load double, ptr %492, align 8
3169   %494 = fadd double %483, %493
3170   %495 = getelementptr inbounds %struct.cmplx, ptr %30, i32 0, i32 1
3171   store double %494, ptr %495, align 8
3172   %496 = load ptr, ptr %9, align 4
3173   %497 = load i32, ptr %7, align 4
3174   %498 = load i32, ptr %24, align 4
3175   %499 = mul i32 11, %498
3176   %500 = add i32 5, %499
3177   %501 = mul i32 %497, %500
3178   %502 = add i32 0, %501
3179   %503 = getelementptr inbounds %struct.cmplx, ptr %496, i32 %502
3180   %504 = getelementptr inbounds %struct.cmplx, ptr %503, i32 0, i32 0
3181   %505 = load double, ptr %504, align 8
3182   %506 = load ptr, ptr %9, align 4
3183   %507 = load i32, ptr %7, align 4
3184   %508 = load i32, ptr %24, align 4
3185   %509 = mul i32 11, %508
3186   %510 = add i32 6, %509
3187   %511 = mul i32 %507, %510
3188   %512 = add i32 0, %511
3189   %513 = getelementptr inbounds %struct.cmplx, ptr %506, i32 %512
3190   %514 = getelementptr inbounds %struct.cmplx, ptr %513, i32 0, i32 0
3191   %515 = load double, ptr %514, align 8
3192   %516 = fsub double %505, %515
3193   %517 = getelementptr inbounds %struct.cmplx, ptr %31, i32 0, i32 0
3194   store double %516, ptr %517, align 8
3195   %518 = load ptr, ptr %9, align 4
3196   %519 = load i32, ptr %7, align 4
3197   %520 = load i32, ptr %24, align 4
3198   %521 = mul i32 11, %520
3199   %522 = add i32 5, %521
3200   %523 = mul i32 %519, %522
3201   %524 = add i32 0, %523
3202   %525 = getelementptr inbounds %struct.cmplx, ptr %518, i32 %524
3203   %526 = getelementptr inbounds %struct.cmplx, ptr %525, i32 0, i32 1
3204   %527 = load double, ptr %526, align 8
3205   %528 = load ptr, ptr %9, align 4
3206   %529 = load i32, ptr %7, align 4
3207   %530 = load i32, ptr %24, align 4
3208   %531 = mul i32 11, %530
3209   %532 = add i32 6, %531
3210   %533 = mul i32 %529, %532
3211   %534 = add i32 0, %533
3212   %535 = getelementptr inbounds %struct.cmplx, ptr %528, i32 %534
3213   %536 = getelementptr inbounds %struct.cmplx, ptr %535, i32 0, i32 1
3214   %537 = load double, ptr %536, align 8
3215   %538 = fsub double %527, %537
3216   %539 = getelementptr inbounds %struct.cmplx, ptr %31, i32 0, i32 1
3217   store double %538, ptr %539, align 8
3218   %540 = getelementptr inbounds %struct.cmplx, ptr %25, i32 0, i32 0
3219   %541 = load double, ptr %540, align 8
3220   %542 = getelementptr inbounds %struct.cmplx, ptr %26, i32 0, i32 0
3221   %543 = load double, ptr %542, align 8
3222   %544 = fadd double %541, %543
3223   %545 = getelementptr inbounds %struct.cmplx, ptr %27, i32 0, i32 0
3224   %546 = load double, ptr %545, align 8
3225   %547 = fadd double %544, %546
3226   %548 = getelementptr inbounds %struct.cmplx, ptr %28, i32 0, i32 0
3227   %549 = load double, ptr %548, align 8
3228   %550 = fadd double %547, %549
3229   %551 = getelementptr inbounds %struct.cmplx, ptr %29, i32 0, i32 0
3230   %552 = load double, ptr %551, align 8
3231   %553 = fadd double %550, %552
3232   %554 = getelementptr inbounds %struct.cmplx, ptr %30, i32 0, i32 0
3233   %555 = load double, ptr %554, align 8
3234   %556 = fadd double %553, %555
3235   %557 = load ptr, ptr %10, align 4
3236   %558 = load i32, ptr %7, align 4
3237   %559 = load i32, ptr %24, align 4
3238   %560 = load i32, ptr %8, align 4
3239   %561 = mul i32 %560, 0
3240   %562 = add i32 %559, %561
3241   %563 = mul i32 %558, %562
3242   %564 = add i32 0, %563
3243   %565 = getelementptr inbounds %struct.cmplx, ptr %557, i32 %564
3244   %566 = getelementptr inbounds %struct.cmplx, ptr %565, i32 0, i32 0
3245   store double %556, ptr %566, align 8
3246   %567 = getelementptr inbounds %struct.cmplx, ptr %25, i32 0, i32 1
3247   %568 = load double, ptr %567, align 8
3248   %569 = getelementptr inbounds %struct.cmplx, ptr %26, i32 0, i32 1
3249   %570 = load double, ptr %569, align 8
3250   %571 = fadd double %568, %570
3251   %572 = getelementptr inbounds %struct.cmplx, ptr %27, i32 0, i32 1
3252   %573 = load double, ptr %572, align 8
3253   %574 = fadd double %571, %573
3254   %575 = getelementptr inbounds %struct.cmplx, ptr %28, i32 0, i32 1
3255   %576 = load double, ptr %575, align 8
3256   %577 = fadd double %574, %576
3257   %578 = getelementptr inbounds %struct.cmplx, ptr %29, i32 0, i32 1
3258   %579 = load double, ptr %578, align 8
3259   %580 = fadd double %577, %579
3260   %581 = getelementptr inbounds %struct.cmplx, ptr %30, i32 0, i32 1
3261   %582 = load double, ptr %581, align 8
3262   %583 = fadd double %580, %582
3263   %584 = load ptr, ptr %10, align 4
3264   %585 = load i32, ptr %7, align 4
3265   %586 = load i32, ptr %24, align 4
3266   %587 = load i32, ptr %8, align 4
3267   %588 = mul i32 %587, 0
3268   %589 = add i32 %586, %588
3269   %590 = mul i32 %585, %589
3270   %591 = add i32 0, %590
3271   %592 = getelementptr inbounds %struct.cmplx, ptr %584, i32 %591
3272   %593 = getelementptr inbounds %struct.cmplx, ptr %592, i32 0, i32 1
3273   store double %583, ptr %593, align 8
3274   %594 = getelementptr inbounds %struct.cmplx, ptr %25, i32 0, i32 0
3275   %595 = load double, ptr %594, align 8
3276   %596 = getelementptr inbounds %struct.cmplx, ptr %26, i32 0, i32 0
3277   %597 = load double, ptr %596, align 8
3278   %598 = call double @llvm.fmuladd.f64(double 0x3FEAEB8C8764F0BA, double %597, double %595)
3279   %599 = getelementptr inbounds %struct.cmplx, ptr %27, i32 0, i32 0
3280   %600 = load double, ptr %599, align 8
3281   %601 = call double @llvm.fmuladd.f64(double 0x3FDA9628D9C712B6, double %600, double %598)
3282   %602 = getelementptr inbounds %struct.cmplx, ptr %28, i32 0, i32 0
3283   %603 = load double, ptr %602, align 8
3284   %604 = call double @llvm.fmuladd.f64(double 0xBFC2375F640F44DB, double %603, double %601)
3285   %605 = getelementptr inbounds %struct.cmplx, ptr %29, i32 0, i32 0
3286   %606 = load double, ptr %605, align 8
3287   %607 = call double @llvm.fmuladd.f64(double 0xBFE4F49E7F775887, double %606, double %604)
3288   %608 = getelementptr inbounds %struct.cmplx, ptr %30, i32 0, i32 0
3289   %609 = load double, ptr %608, align 8
3290   %610 = call double @llvm.fmuladd.f64(double 0xBFEEB42A9BCD5057, double %609, double %607)
3291   %611 = getelementptr inbounds %struct.cmplx, ptr %36, i32 0, i32 0
3292   store double %610, ptr %611, align 8
3293   %612 = getelementptr inbounds %struct.cmplx, ptr %25, i32 0, i32 1
3294   %613 = load double, ptr %612, align 8
3295   %614 = getelementptr inbounds %struct.cmplx, ptr %26, i32 0, i32 1
3296   %615 = load double, ptr %614, align 8
3297   %616 = call double @llvm.fmuladd.f64(double 0x3FEAEB8C8764F0BA, double %615, double %613)
3298   %617 = getelementptr inbounds %struct.cmplx, ptr %27, i32 0, i32 1
3299   %618 = load double, ptr %617, align 8
3300   %619 = call double @llvm.fmuladd.f64(double 0x3FDA9628D9C712B6, double %618, double %616)
3301   %620 = getelementptr inbounds %struct.cmplx, ptr %28, i32 0, i32 1
3302   %621 = load double, ptr %620, align 8
3303   %622 = call double @llvm.fmuladd.f64(double 0xBFC2375F640F44DB, double %621, double %619)
3304   %623 = getelementptr inbounds %struct.cmplx, ptr %29, i32 0, i32 1
3305   %624 = load double, ptr %623, align 8
3306   %625 = call double @llvm.fmuladd.f64(double 0xBFE4F49E7F775887, double %624, double %622)
3307   %626 = getelementptr inbounds %struct.cmplx, ptr %30, i32 0, i32 1
3308   %627 = load double, ptr %626, align 8
3309   %628 = call double @llvm.fmuladd.f64(double 0xBFEEB42A9BCD5057, double %627, double %625)
3310   %629 = getelementptr inbounds %struct.cmplx, ptr %36, i32 0, i32 1
3311   store double %628, ptr %629, align 8
3312   %630 = load double, ptr %15, align 8
3313   %631 = getelementptr inbounds %struct.cmplx, ptr %35, i32 0, i32 0
3314   %632 = load double, ptr %631, align 8
3315   %633 = load double, ptr %17, align 8
3316   %634 = getelementptr inbounds %struct.cmplx, ptr %34, i32 0, i32 0
3317   %635 = load double, ptr %634, align 8
3318   %636 = fmul double %633, %635
3319   %637 = call double @llvm.fmuladd.f64(double %630, double %632, double %636)
3320   %638 = load double, ptr %19, align 8
3321   %639 = getelementptr inbounds %struct.cmplx, ptr %33, i32 0, i32 0
3322   %640 = load double, ptr %639, align 8
3323   %641 = call double @llvm.fmuladd.f64(double %638, double %640, double %637)
3324   %642 = load double, ptr %21, align 8
3325   %643 = getelementptr inbounds %struct.cmplx, ptr %32, i32 0, i32 0
3326   %644 = load double, ptr %643, align 8
3327   %645 = call double @llvm.fmuladd.f64(double %642, double %644, double %641)
3328   %646 = load double, ptr %23, align 8
3329   %647 = getelementptr inbounds %struct.cmplx, ptr %31, i32 0, i32 0
3330   %648 = load double, ptr %647, align 8
3331   %649 = call double @llvm.fmuladd.f64(double %646, double %648, double %645)
3332   %650 = getelementptr inbounds %struct.cmplx, ptr %37, i32 0, i32 1
3333   store double %649, ptr %650, align 8
3334   %651 = load double, ptr %15, align 8
3335   %652 = getelementptr inbounds %struct.cmplx, ptr %35, i32 0, i32 1
3336   %653 = load double, ptr %652, align 8
3337   %654 = load double, ptr %17, align 8
3338   %655 = getelementptr inbounds %struct.cmplx, ptr %34, i32 0, i32 1
3339   %656 = load double, ptr %655, align 8
3340   %657 = fmul double %654, %656
3341   %658 = call double @llvm.fmuladd.f64(double %651, double %653, double %657)
3342   %659 = load double, ptr %19, align 8
3343   %660 = getelementptr inbounds %struct.cmplx, ptr %33, i32 0, i32 1
3344   %661 = load double, ptr %660, align 8
3345   %662 = call double @llvm.fmuladd.f64(double %659, double %661, double %658)
3346   %663 = load double, ptr %21, align 8
3347   %664 = getelementptr inbounds %struct.cmplx, ptr %32, i32 0, i32 1
3348   %665 = load double, ptr %664, align 8
3349   %666 = call double @llvm.fmuladd.f64(double %663, double %665, double %662)
3350   %667 = load double, ptr %23, align 8
3351   %668 = getelementptr inbounds %struct.cmplx, ptr %31, i32 0, i32 1
3352   %669 = load double, ptr %668, align 8
3353   %670 = call double @llvm.fmuladd.f64(double %667, double %669, double %666)
3354   %671 = fneg double %670
3355   %672 = getelementptr inbounds %struct.cmplx, ptr %37, i32 0, i32 0
3356   store double %671, ptr %672, align 8
3357   %673 = getelementptr inbounds %struct.cmplx, ptr %36, i32 0, i32 0
3358   %674 = load double, ptr %673, align 8
3359   %675 = getelementptr inbounds %struct.cmplx, ptr %37, i32 0, i32 0
3360   %676 = load double, ptr %675, align 8
3361   %677 = fadd double %674, %676
3362   %678 = load ptr, ptr %10, align 4
3363   %679 = load i32, ptr %7, align 4
3364   %680 = load i32, ptr %24, align 4
3365   %681 = load i32, ptr %8, align 4
3366   %682 = mul i32 %681, 1
3367   %683 = add i32 %680, %682
3368   %684 = mul i32 %679, %683
3369   %685 = add i32 0, %684
3370   %686 = getelementptr inbounds %struct.cmplx, ptr %678, i32 %685
3371   %687 = getelementptr inbounds %struct.cmplx, ptr %686, i32 0, i32 0
3372   store double %677, ptr %687, align 8
3373   %688 = getelementptr inbounds %struct.cmplx, ptr %36, i32 0, i32 1
3374   %689 = load double, ptr %688, align 8
3375   %690 = getelementptr inbounds %struct.cmplx, ptr %37, i32 0, i32 1
3376   %691 = load double, ptr %690, align 8
3377   %692 = fadd double %689, %691
3378   %693 = load ptr, ptr %10, align 4
3379   %694 = load i32, ptr %7, align 4
3380   %695 = load i32, ptr %24, align 4
3381   %696 = load i32, ptr %8, align 4
3382   %697 = mul i32 %696, 1
3383   %698 = add i32 %695, %697
3384   %699 = mul i32 %694, %698
3385   %700 = add i32 0, %699
3386   %701 = getelementptr inbounds %struct.cmplx, ptr %693, i32 %700
3387   %702 = getelementptr inbounds %struct.cmplx, ptr %701, i32 0, i32 1
3388   store double %692, ptr %702, align 8
3389   %703 = getelementptr inbounds %struct.cmplx, ptr %36, i32 0, i32 0
3390   %704 = load double, ptr %703, align 8
3391   %705 = getelementptr inbounds %struct.cmplx, ptr %37, i32 0, i32 0
3392   %706 = load double, ptr %705, align 8
3393   %707 = fsub double %704, %706
3394   %708 = load ptr, ptr %10, align 4
3395   %709 = load i32, ptr %7, align 4
3396   %710 = load i32, ptr %24, align 4
3397   %711 = load i32, ptr %8, align 4
3398   %712 = mul i32 %711, 10
3399   %713 = add i32 %710, %712
3400   %714 = mul i32 %709, %713
3401   %715 = add i32 0, %714
3402   %716 = getelementptr inbounds %struct.cmplx, ptr %708, i32 %715
3403   %717 = getelementptr inbounds %struct.cmplx, ptr %716, i32 0, i32 0
3404   store double %707, ptr %717, align 8
3405   %718 = getelementptr inbounds %struct.cmplx, ptr %36, i32 0, i32 1
3406   %719 = load double, ptr %718, align 8
3407   %720 = getelementptr inbounds %struct.cmplx, ptr %37, i32 0, i32 1
3408   %721 = load double, ptr %720, align 8
3409   %722 = fsub double %719, %721
3410   %723 = load ptr, ptr %10, align 4
3411   %724 = load i32, ptr %7, align 4
3412   %725 = load i32, ptr %24, align 4
3413   %726 = load i32, ptr %8, align 4
3414   %727 = mul i32 %726, 10
3415   %728 = add i32 %725, %727
3416   %729 = mul i32 %724, %728
3417   %730 = add i32 0, %729
3418   %731 = getelementptr inbounds %struct.cmplx, ptr %723, i32 %730
3419   %732 = getelementptr inbounds %struct.cmplx, ptr %731, i32 0, i32 1
3420   store double %722, ptr %732, align 8
3421   %733 = getelementptr inbounds %struct.cmplx, ptr %25, i32 0, i32 0
3422   %734 = load double, ptr %733, align 8
3423   %735 = getelementptr inbounds %struct.cmplx, ptr %26, i32 0, i32 0
3424   %736 = load double, ptr %735, align 8
3425   %737 = call double @llvm.fmuladd.f64(double 0x3FDA9628D9C712B6, double %736, double %734)
3426   %738 = getelementptr inbounds %struct.cmplx, ptr %27, i32 0, i32 0
3427   %739 = load double, ptr %738, align 8
3428   %740 = call double @llvm.fmuladd.f64(double 0xBFE4F49E7F775887, double %739, double %737)
3429   %741 = getelementptr inbounds %struct.cmplx, ptr %28, i32 0, i32 0
3430   %742 = load double, ptr %741, align 8
3431   %743 = call double @llvm.fmuladd.f64(double 0xBFEEB42A9BCD5057, double %742, double %740)
3432   %744 = getelementptr inbounds %struct.cmplx, ptr %29, i32 0, i32 0
3433   %745 = load double, ptr %744, align 8
3434   %746 = call double @llvm.fmuladd.f64(double 0xBFC2375F640F44DB, double %745, double %743)
3435   %747 = getelementptr inbounds %struct.cmplx, ptr %30, i32 0, i32 0
3436   %748 = load double, ptr %747, align 8
3437   %749 = call double @llvm.fmuladd.f64(double 0x3FEAEB8C8764F0BA, double %748, double %746)
3438   %750 = getelementptr inbounds %struct.cmplx, ptr %38, i32 0, i32 0
3439   store double %749, ptr %750, align 8
3440   %751 = getelementptr inbounds %struct.cmplx, ptr %25, i32 0, i32 1
3441   %752 = load double, ptr %751, align 8
3442   %753 = getelementptr inbounds %struct.cmplx, ptr %26, i32 0, i32 1
3443   %754 = load double, ptr %753, align 8
3444   %755 = call double @llvm.fmuladd.f64(double 0x3FDA9628D9C712B6, double %754, double %752)
3445   %756 = getelementptr inbounds %struct.cmplx, ptr %27, i32 0, i32 1
3446   %757 = load double, ptr %756, align 8
3447   %758 = call double @llvm.fmuladd.f64(double 0xBFE4F49E7F775887, double %757, double %755)
3448   %759 = getelementptr inbounds %struct.cmplx, ptr %28, i32 0, i32 1
3449   %760 = load double, ptr %759, align 8
3450   %761 = call double @llvm.fmuladd.f64(double 0xBFEEB42A9BCD5057, double %760, double %758)
3451   %762 = getelementptr inbounds %struct.cmplx, ptr %29, i32 0, i32 1
3452   %763 = load double, ptr %762, align 8
3453   %764 = call double @llvm.fmuladd.f64(double 0xBFC2375F640F44DB, double %763, double %761)
3454   %765 = getelementptr inbounds %struct.cmplx, ptr %30, i32 0, i32 1
3455   %766 = load double, ptr %765, align 8
3456   %767 = call double @llvm.fmuladd.f64(double 0x3FEAEB8C8764F0BA, double %766, double %764)
3457   %768 = getelementptr inbounds %struct.cmplx, ptr %38, i32 0, i32 1
3458   store double %767, ptr %768, align 8
3459   %769 = load double, ptr %17, align 8
3460   %770 = getelementptr inbounds %struct.cmplx, ptr %35, i32 0, i32 0
3461   %771 = load double, ptr %770, align 8
3462   %772 = load double, ptr %21, align 8
3463   %773 = getelementptr inbounds %struct.cmplx, ptr %34, i32 0, i32 0
3464   %774 = load double, ptr %773, align 8
3465   %775 = fmul double %772, %774
3466   %776 = call double @llvm.fmuladd.f64(double %769, double %771, double %775)
3467   %777 = load double, ptr %23, align 8
3468   %778 = getelementptr inbounds %struct.cmplx, ptr %33, i32 0, i32 0
3469   %779 = load double, ptr %778, align 8
3470   %780 = fneg double %777
3471   %781 = call double @llvm.fmuladd.f64(double %780, double %779, double %776)
3472   %782 = load double, ptr %19, align 8
3473   %783 = getelementptr inbounds %struct.cmplx, ptr %32, i32 0, i32 0
3474   %784 = load double, ptr %783, align 8
3475   %785 = fneg double %782
3476   %786 = call double @llvm.fmuladd.f64(double %785, double %784, double %781)
3477   %787 = load double, ptr %15, align 8
3478   %788 = getelementptr inbounds %struct.cmplx, ptr %31, i32 0, i32 0
3479   %789 = load double, ptr %788, align 8
3480   %790 = fneg double %787
3481   %791 = call double @llvm.fmuladd.f64(double %790, double %789, double %786)
3482   %792 = getelementptr inbounds %struct.cmplx, ptr %39, i32 0, i32 1
3483   store double %791, ptr %792, align 8
3484   %793 = load double, ptr %17, align 8
3485   %794 = getelementptr inbounds %struct.cmplx, ptr %35, i32 0, i32 1
3486   %795 = load double, ptr %794, align 8
3487   %796 = load double, ptr %21, align 8
3488   %797 = getelementptr inbounds %struct.cmplx, ptr %34, i32 0, i32 1
3489   %798 = load double, ptr %797, align 8
3490   %799 = fmul double %796, %798
3491   %800 = call double @llvm.fmuladd.f64(double %793, double %795, double %799)
3492   %801 = load double, ptr %23, align 8
3493   %802 = getelementptr inbounds %struct.cmplx, ptr %33, i32 0, i32 1
3494   %803 = load double, ptr %802, align 8
3495   %804 = fneg double %801
3496   %805 = call double @llvm.fmuladd.f64(double %804, double %803, double %800)
3497   %806 = load double, ptr %19, align 8
3498   %807 = getelementptr inbounds %struct.cmplx, ptr %32, i32 0, i32 1
3499   %808 = load double, ptr %807, align 8
3500   %809 = fneg double %806
3501   %810 = call double @llvm.fmuladd.f64(double %809, double %808, double %805)
3502   %811 = load double, ptr %15, align 8
3503   %812 = getelementptr inbounds %struct.cmplx, ptr %31, i32 0, i32 1
3504   %813 = load double, ptr %812, align 8
3505   %814 = fneg double %811
3506   %815 = call double @llvm.fmuladd.f64(double %814, double %813, double %810)
3507   %816 = fneg double %815
3508   %817 = getelementptr inbounds %struct.cmplx, ptr %39, i32 0, i32 0
3509   store double %816, ptr %817, align 8
3510   %818 = getelementptr inbounds %struct.cmplx, ptr %38, i32 0, i32 0
3511   %819 = load double, ptr %818, align 8
3512   %820 = getelementptr inbounds %struct.cmplx, ptr %39, i32 0, i32 0
3513   %821 = load double, ptr %820, align 8
3514   %822 = fadd double %819, %821
3515   %823 = load ptr, ptr %10, align 4
3516   %824 = load i32, ptr %7, align 4
3517   %825 = load i32, ptr %24, align 4
3518   %826 = load i32, ptr %8, align 4
3519   %827 = mul i32 %826, 2
3520   %828 = add i32 %825, %827
3521   %829 = mul i32 %824, %828
3522   %830 = add i32 0, %829
3523   %831 = getelementptr inbounds %struct.cmplx, ptr %823, i32 %830
3524   %832 = getelementptr inbounds %struct.cmplx, ptr %831, i32 0, i32 0
3525   store double %822, ptr %832, align 8
3526   %833 = getelementptr inbounds %struct.cmplx, ptr %38, i32 0, i32 1
3527   %834 = load double, ptr %833, align 8
3528   %835 = getelementptr inbounds %struct.cmplx, ptr %39, i32 0, i32 1
3529   %836 = load double, ptr %835, align 8
3530   %837 = fadd double %834, %836
3531   %838 = load ptr, ptr %10, align 4
3532   %839 = load i32, ptr %7, align 4
3533   %840 = load i32, ptr %24, align 4
3534   %841 = load i32, ptr %8, align 4
3535   %842 = mul i32 %841, 2
3536   %843 = add i32 %840, %842
3537   %844 = mul i32 %839, %843
3538   %845 = add i32 0, %844
3539   %846 = getelementptr inbounds %struct.cmplx, ptr %838, i32 %845
3540   %847 = getelementptr inbounds %struct.cmplx, ptr %846, i32 0, i32 1
3541   store double %837, ptr %847, align 8
3542   %848 = getelementptr inbounds %struct.cmplx, ptr %38, i32 0, i32 0
3543   %849 = load double, ptr %848, align 8
3544   %850 = getelementptr inbounds %struct.cmplx, ptr %39, i32 0, i32 0
3545   %851 = load double, ptr %850, align 8
3546   %852 = fsub double %849, %851
3547   %853 = load ptr, ptr %10, align 4
3548   %854 = load i32, ptr %7, align 4
3549   %855 = load i32, ptr %24, align 4
3550   %856 = load i32, ptr %8, align 4
3551   %857 = mul i32 %856, 9
3552   %858 = add i32 %855, %857
3553   %859 = mul i32 %854, %858
3554   %860 = add i32 0, %859
3555   %861 = getelementptr inbounds %struct.cmplx, ptr %853, i32 %860
3556   %862 = getelementptr inbounds %struct.cmplx, ptr %861, i32 0, i32 0
3557   store double %852, ptr %862, align 8
3558   %863 = getelementptr inbounds %struct.cmplx, ptr %38, i32 0, i32 1
3559   %864 = load double, ptr %863, align 8
3560   %865 = getelementptr inbounds %struct.cmplx, ptr %39, i32 0, i32 1
3561   %866 = load double, ptr %865, align 8
3562   %867 = fsub double %864, %866
3563   %868 = load ptr, ptr %10, align 4
3564   %869 = load i32, ptr %7, align 4
3565   %870 = load i32, ptr %24, align 4
3566   %871 = load i32, ptr %8, align 4
3567   %872 = mul i32 %871, 9
3568   %873 = add i32 %870, %872
3569   %874 = mul i32 %869, %873
3570   %875 = add i32 0, %874
3571   %876 = getelementptr inbounds %struct.cmplx, ptr %868, i32 %875
3572   %877 = getelementptr inbounds %struct.cmplx, ptr %876, i32 0, i32 1
3573   store double %867, ptr %877, align 8
3574   %878 = getelementptr inbounds %struct.cmplx, ptr %25, i32 0, i32 0
3575   %879 = load double, ptr %878, align 8
3576   %880 = getelementptr inbounds %struct.cmplx, ptr %26, i32 0, i32 0
3577   %881 = load double, ptr %880, align 8
3578   %882 = call double @llvm.fmuladd.f64(double 0xBFC2375F640F44DB, double %881, double %879)
3579   %883 = getelementptr inbounds %struct.cmplx, ptr %27, i32 0, i32 0
3580   %884 = load double, ptr %883, align 8
3581   %885 = call double @llvm.fmuladd.f64(double 0xBFEEB42A9BCD5057, double %884, double %882)
3582   %886 = getelementptr inbounds %struct.cmplx, ptr %28, i32 0, i32 0
3583   %887 = load double, ptr %886, align 8
3584   %888 = call double @llvm.fmuladd.f64(double 0x3FDA9628D9C712B6, double %887, double %885)
3585   %889 = getelementptr inbounds %struct.cmplx, ptr %29, i32 0, i32 0
3586   %890 = load double, ptr %889, align 8
3587   %891 = call double @llvm.fmuladd.f64(double 0x3FEAEB8C8764F0BA, double %890, double %888)
3588   %892 = getelementptr inbounds %struct.cmplx, ptr %30, i32 0, i32 0
3589   %893 = load double, ptr %892, align 8
3590   %894 = call double @llvm.fmuladd.f64(double 0xBFE4F49E7F775887, double %893, double %891)
3591   %895 = getelementptr inbounds %struct.cmplx, ptr %40, i32 0, i32 0
3592   store double %894, ptr %895, align 8
3593   %896 = getelementptr inbounds %struct.cmplx, ptr %25, i32 0, i32 1
3594   %897 = load double, ptr %896, align 8
3595   %898 = getelementptr inbounds %struct.cmplx, ptr %26, i32 0, i32 1
3596   %899 = load double, ptr %898, align 8
3597   %900 = call double @llvm.fmuladd.f64(double 0xBFC2375F640F44DB, double %899, double %897)
3598   %901 = getelementptr inbounds %struct.cmplx, ptr %27, i32 0, i32 1
3599   %902 = load double, ptr %901, align 8
3600   %903 = call double @llvm.fmuladd.f64(double 0xBFEEB42A9BCD5057, double %902, double %900)
3601   %904 = getelementptr inbounds %struct.cmplx, ptr %28, i32 0, i32 1
3602   %905 = load double, ptr %904, align 8
3603   %906 = call double @llvm.fmuladd.f64(double 0x3FDA9628D9C712B6, double %905, double %903)
3604   %907 = getelementptr inbounds %struct.cmplx, ptr %29, i32 0, i32 1
3605   %908 = load double, ptr %907, align 8
3606   %909 = call double @llvm.fmuladd.f64(double 0x3FEAEB8C8764F0BA, double %908, double %906)
3607   %910 = getelementptr inbounds %struct.cmplx, ptr %30, i32 0, i32 1
3608   %911 = load double, ptr %910, align 8
3609   %912 = call double @llvm.fmuladd.f64(double 0xBFE4F49E7F775887, double %911, double %909)
3610   %913 = getelementptr inbounds %struct.cmplx, ptr %40, i32 0, i32 1
3611   store double %912, ptr %913, align 8
3612   %914 = load double, ptr %19, align 8
3613   %915 = getelementptr inbounds %struct.cmplx, ptr %35, i32 0, i32 0
3614   %916 = load double, ptr %915, align 8
3615   %917 = load double, ptr %23, align 8
3616   %918 = getelementptr inbounds %struct.cmplx, ptr %34, i32 0, i32 0
3617   %919 = load double, ptr %918, align 8
3618   %920 = fmul double %917, %919
3619   %921 = fneg double %920
3620   %922 = call double @llvm.fmuladd.f64(double %914, double %916, double %921)
3621   %923 = load double, ptr %17, align 8
3622   %924 = getelementptr inbounds %struct.cmplx, ptr %33, i32 0, i32 0
3623   %925 = load double, ptr %924, align 8
3624   %926 = fneg double %923
3625   %927 = call double @llvm.fmuladd.f64(double %926, double %925, double %922)
3626   %928 = load double, ptr %15, align 8
3627   %929 = getelementptr inbounds %struct.cmplx, ptr %32, i32 0, i32 0
3628   %930 = load double, ptr %929, align 8
3629   %931 = call double @llvm.fmuladd.f64(double %928, double %930, double %927)
3630   %932 = load double, ptr %21, align 8
3631   %933 = getelementptr inbounds %struct.cmplx, ptr %31, i32 0, i32 0
3632   %934 = load double, ptr %933, align 8
3633   %935 = call double @llvm.fmuladd.f64(double %932, double %934, double %931)
3634   %936 = getelementptr inbounds %struct.cmplx, ptr %41, i32 0, i32 1
3635   store double %935, ptr %936, align 8
3636   %937 = load double, ptr %19, align 8
3637   %938 = getelementptr inbounds %struct.cmplx, ptr %35, i32 0, i32 1
3638   %939 = load double, ptr %938, align 8
3639   %940 = load double, ptr %23, align 8
3640   %941 = getelementptr inbounds %struct.cmplx, ptr %34, i32 0, i32 1
3641   %942 = load double, ptr %941, align 8
3642   %943 = fmul double %940, %942
3643   %944 = fneg double %943
3644   %945 = call double @llvm.fmuladd.f64(double %937, double %939, double %944)
3645   %946 = load double, ptr %17, align 8
3646   %947 = getelementptr inbounds %struct.cmplx, ptr %33, i32 0, i32 1
3647   %948 = load double, ptr %947, align 8
3648   %949 = fneg double %946
3649   %950 = call double @llvm.fmuladd.f64(double %949, double %948, double %945)
3650   %951 = load double, ptr %15, align 8
3651   %952 = getelementptr inbounds %struct.cmplx, ptr %32, i32 0, i32 1
3652   %953 = load double, ptr %952, align 8
3653   %954 = call double @llvm.fmuladd.f64(double %951, double %953, double %950)
3654   %955 = load double, ptr %21, align 8
3655   %956 = getelementptr inbounds %struct.cmplx, ptr %31, i32 0, i32 1
3656   %957 = load double, ptr %956, align 8
3657   %958 = call double @llvm.fmuladd.f64(double %955, double %957, double %954)
3658   %959 = fneg double %958
3659   %960 = getelementptr inbounds %struct.cmplx, ptr %41, i32 0, i32 0
3660   store double %959, ptr %960, align 8
3661   %961 = getelementptr inbounds %struct.cmplx, ptr %40, i32 0, i32 0
3662   %962 = load double, ptr %961, align 8
3663   %963 = getelementptr inbounds %struct.cmplx, ptr %41, i32 0, i32 0
3664   %964 = load double, ptr %963, align 8
3665   %965 = fadd double %962, %964
3666   %966 = load ptr, ptr %10, align 4
3667   %967 = load i32, ptr %7, align 4
3668   %968 = load i32, ptr %24, align 4
3669   %969 = load i32, ptr %8, align 4
3670   %970 = mul i32 %969, 3
3671   %971 = add i32 %968, %970
3672   %972 = mul i32 %967, %971
3673   %973 = add i32 0, %972
3674   %974 = getelementptr inbounds %struct.cmplx, ptr %966, i32 %973
3675   %975 = getelementptr inbounds %struct.cmplx, ptr %974, i32 0, i32 0
3676   store double %965, ptr %975, align 8
3677   %976 = getelementptr inbounds %struct.cmplx, ptr %40, i32 0, i32 1
3678   %977 = load double, ptr %976, align 8
3679   %978 = getelementptr inbounds %struct.cmplx, ptr %41, i32 0, i32 1
3680   %979 = load double, ptr %978, align 8
3681   %980 = fadd double %977, %979
3682   %981 = load ptr, ptr %10, align 4
3683   %982 = load i32, ptr %7, align 4
3684   %983 = load i32, ptr %24, align 4
3685   %984 = load i32, ptr %8, align 4
3686   %985 = mul i32 %984, 3
3687   %986 = add i32 %983, %985
3688   %987 = mul i32 %982, %986
3689   %988 = add i32 0, %987
3690   %989 = getelementptr inbounds %struct.cmplx, ptr %981, i32 %988
3691   %990 = getelementptr inbounds %struct.cmplx, ptr %989, i32 0, i32 1
3692   store double %980, ptr %990, align 8
3693   %991 = getelementptr inbounds %struct.cmplx, ptr %40, i32 0, i32 0
3694   %992 = load double, ptr %991, align 8
3695   %993 = getelementptr inbounds %struct.cmplx, ptr %41, i32 0, i32 0
3696   %994 = load double, ptr %993, align 8
3697   %995 = fsub double %992, %994
3698   %996 = load ptr, ptr %10, align 4
3699   %997 = load i32, ptr %7, align 4
3700   %998 = load i32, ptr %24, align 4
3701   %999 = load i32, ptr %8, align 4
3702   %1000 = mul i32 %999, 8
3703   %1001 = add i32 %998, %1000
3704   %1002 = mul i32 %997, %1001
3705   %1003 = add i32 0, %1002
3706   %1004 = getelementptr inbounds %struct.cmplx, ptr %996, i32 %1003
3707   %1005 = getelementptr inbounds %struct.cmplx, ptr %1004, i32 0, i32 0
3708   store double %995, ptr %1005, align 8
3709   %1006 = getelementptr inbounds %struct.cmplx, ptr %40, i32 0, i32 1
3710   %1007 = load double, ptr %1006, align 8
3711   %1008 = getelementptr inbounds %struct.cmplx, ptr %41, i32 0, i32 1
3712   %1009 = load double, ptr %1008, align 8
3713   %1010 = fsub double %1007, %1009
3714   %1011 = load ptr, ptr %10, align 4
3715   %1012 = load i32, ptr %7, align 4
3716   %1013 = load i32, ptr %24, align 4
3717   %1014 = load i32, ptr %8, align 4
3718   %1015 = mul i32 %1014, 8
3719   %1016 = add i32 %1013, %1015
3720   %1017 = mul i32 %1012, %1016
3721   %1018 = add i32 0, %1017
3722   %1019 = getelementptr inbounds %struct.cmplx, ptr %1011, i32 %1018
3723   %1020 = getelementptr inbounds %struct.cmplx, ptr %1019, i32 0, i32 1
3724   store double %1010, ptr %1020, align 8
3725   %1021 = getelementptr inbounds %struct.cmplx, ptr %25, i32 0, i32 0
3726   %1022 = load double, ptr %1021, align 8
3727   %1023 = getelementptr inbounds %struct.cmplx, ptr %26, i32 0, i32 0
3728   %1024 = load double, ptr %1023, align 8
3729   %1025 = call double @llvm.fmuladd.f64(double 0xBFE4F49E7F775887, double %1024, double %1022)
3730   %1026 = getelementptr inbounds %struct.cmplx, ptr %27, i32 0, i32 0
3731   %1027 = load double, ptr %1026, align 8
3732   %1028 = call double @llvm.fmuladd.f64(double 0xBFC2375F640F44DB, double %1027, double %1025)
3733   %1029 = getelementptr inbounds %struct.cmplx, ptr %28, i32 0, i32 0
3734   %1030 = load double, ptr %1029, align 8
3735   %1031 = call double @llvm.fmuladd.f64(double 0x3FEAEB8C8764F0BA, double %1030, double %1028)
3736   %1032 = getelementptr inbounds %struct.cmplx, ptr %29, i32 0, i32 0
3737   %1033 = load double, ptr %1032, align 8
3738   %1034 = call double @llvm.fmuladd.f64(double 0xBFEEB42A9BCD5057, double %1033, double %1031)
3739   %1035 = getelementptr inbounds %struct.cmplx, ptr %30, i32 0, i32 0
3740   %1036 = load double, ptr %1035, align 8
3741   %1037 = call double @llvm.fmuladd.f64(double 0x3FDA9628D9C712B6, double %1036, double %1034)
3742   %1038 = getelementptr inbounds %struct.cmplx, ptr %42, i32 0, i32 0
3743   store double %1037, ptr %1038, align 8
3744   %1039 = getelementptr inbounds %struct.cmplx, ptr %25, i32 0, i32 1
3745   %1040 = load double, ptr %1039, align 8
3746   %1041 = getelementptr inbounds %struct.cmplx, ptr %26, i32 0, i32 1
3747   %1042 = load double, ptr %1041, align 8
3748   %1043 = call double @llvm.fmuladd.f64(double 0xBFE4F49E7F775887, double %1042, double %1040)
3749   %1044 = getelementptr inbounds %struct.cmplx, ptr %27, i32 0, i32 1
3750   %1045 = load double, ptr %1044, align 8
3751   %1046 = call double @llvm.fmuladd.f64(double 0xBFC2375F640F44DB, double %1045, double %1043)
3752   %1047 = getelementptr inbounds %struct.cmplx, ptr %28, i32 0, i32 1
3753   %1048 = load double, ptr %1047, align 8
3754   %1049 = call double @llvm.fmuladd.f64(double 0x3FEAEB8C8764F0BA, double %1048, double %1046)
3755   %1050 = getelementptr inbounds %struct.cmplx, ptr %29, i32 0, i32 1
3756   %1051 = load double, ptr %1050, align 8
3757   %1052 = call double @llvm.fmuladd.f64(double 0xBFEEB42A9BCD5057, double %1051, double %1049)
3758   %1053 = getelementptr inbounds %struct.cmplx, ptr %30, i32 0, i32 1
3759   %1054 = load double, ptr %1053, align 8
3760   %1055 = call double @llvm.fmuladd.f64(double 0x3FDA9628D9C712B6, double %1054, double %1052)
3761   %1056 = getelementptr inbounds %struct.cmplx, ptr %42, i32 0, i32 1
3762   store double %1055, ptr %1056, align 8
3763   %1057 = load double, ptr %21, align 8
3764   %1058 = getelementptr inbounds %struct.cmplx, ptr %35, i32 0, i32 0
3765   %1059 = load double, ptr %1058, align 8
3766   %1060 = load double, ptr %19, align 8
3767   %1061 = getelementptr inbounds %struct.cmplx, ptr %34, i32 0, i32 0
3768   %1062 = load double, ptr %1061, align 8
3769   %1063 = fmul double %1060, %1062
3770   %1064 = fneg double %1063
3771   %1065 = call double @llvm.fmuladd.f64(double %1057, double %1059, double %1064)
3772   %1066 = load double, ptr %15, align 8
3773   %1067 = getelementptr inbounds %struct.cmplx, ptr %33, i32 0, i32 0
3774   %1068 = load double, ptr %1067, align 8
3775   %1069 = call double @llvm.fmuladd.f64(double %1066, double %1068, double %1065)
3776   %1070 = load double, ptr %23, align 8
3777   %1071 = getelementptr inbounds %struct.cmplx, ptr %32, i32 0, i32 0
3778   %1072 = load double, ptr %1071, align 8
3779   %1073 = call double @llvm.fmuladd.f64(double %1070, double %1072, double %1069)
3780   %1074 = load double, ptr %17, align 8
3781   %1075 = getelementptr inbounds %struct.cmplx, ptr %31, i32 0, i32 0
3782   %1076 = load double, ptr %1075, align 8
3783   %1077 = fneg double %1074
3784   %1078 = call double @llvm.fmuladd.f64(double %1077, double %1076, double %1073)
3785   %1079 = getelementptr inbounds %struct.cmplx, ptr %43, i32 0, i32 1
3786   store double %1078, ptr %1079, align 8
3787   %1080 = load double, ptr %21, align 8
3788   %1081 = getelementptr inbounds %struct.cmplx, ptr %35, i32 0, i32 1
3789   %1082 = load double, ptr %1081, align 8
3790   %1083 = load double, ptr %19, align 8
3791   %1084 = getelementptr inbounds %struct.cmplx, ptr %34, i32 0, i32 1
3792   %1085 = load double, ptr %1084, align 8
3793   %1086 = fmul double %1083, %1085
3794   %1087 = fneg double %1086
3795   %1088 = call double @llvm.fmuladd.f64(double %1080, double %1082, double %1087)
3796   %1089 = load double, ptr %15, align 8
3797   %1090 = getelementptr inbounds %struct.cmplx, ptr %33, i32 0, i32 1
3798   %1091 = load double, ptr %1090, align 8
3799   %1092 = call double @llvm.fmuladd.f64(double %1089, double %1091, double %1088)
3800   %1093 = load double, ptr %23, align 8
3801   %1094 = getelementptr inbounds %struct.cmplx, ptr %32, i32 0, i32 1
3802   %1095 = load double, ptr %1094, align 8
3803   %1096 = call double @llvm.fmuladd.f64(double %1093, double %1095, double %1092)
3804   %1097 = load double, ptr %17, align 8
3805   %1098 = getelementptr inbounds %struct.cmplx, ptr %31, i32 0, i32 1
3806   %1099 = load double, ptr %1098, align 8
3807   %1100 = fneg double %1097
3808   %1101 = call double @llvm.fmuladd.f64(double %1100, double %1099, double %1096)
3809   %1102 = fneg double %1101
3810   %1103 = getelementptr inbounds %struct.cmplx, ptr %43, i32 0, i32 0
3811   store double %1102, ptr %1103, align 8
3812   %1104 = getelementptr inbounds %struct.cmplx, ptr %42, i32 0, i32 0
3813   %1105 = load double, ptr %1104, align 8
3814   %1106 = getelementptr inbounds %struct.cmplx, ptr %43, i32 0, i32 0
3815   %1107 = load double, ptr %1106, align 8
3816   %1108 = fadd double %1105, %1107
3817   %1109 = load ptr, ptr %10, align 4
3818   %1110 = load i32, ptr %7, align 4
3819   %1111 = load i32, ptr %24, align 4
3820   %1112 = load i32, ptr %8, align 4
3821   %1113 = mul i32 %1112, 4
3822   %1114 = add i32 %1111, %1113
3823   %1115 = mul i32 %1110, %1114
3824   %1116 = add i32 0, %1115
3825   %1117 = getelementptr inbounds %struct.cmplx, ptr %1109, i32 %1116
3826   %1118 = getelementptr inbounds %struct.cmplx, ptr %1117, i32 0, i32 0
3827   store double %1108, ptr %1118, align 8
3828   %1119 = getelementptr inbounds %struct.cmplx, ptr %42, i32 0, i32 1
3829   %1120 = load double, ptr %1119, align 8
3830   %1121 = getelementptr inbounds %struct.cmplx, ptr %43, i32 0, i32 1
3831   %1122 = load double, ptr %1121, align 8
3832   %1123 = fadd double %1120, %1122
3833   %1124 = load ptr, ptr %10, align 4
3834   %1125 = load i32, ptr %7, align 4
3835   %1126 = load i32, ptr %24, align 4
3836   %1127 = load i32, ptr %8, align 4
3837   %1128 = mul i32 %1127, 4
3838   %1129 = add i32 %1126, %1128
3839   %1130 = mul i32 %1125, %1129
3840   %1131 = add i32 0, %1130
3841   %1132 = getelementptr inbounds %struct.cmplx, ptr %1124, i32 %1131
3842   %1133 = getelementptr inbounds %struct.cmplx, ptr %1132, i32 0, i32 1
3843   store double %1123, ptr %1133, align 8
3844   %1134 = getelementptr inbounds %struct.cmplx, ptr %42, i32 0, i32 0
3845   %1135 = load double, ptr %1134, align 8
3846   %1136 = getelementptr inbounds %struct.cmplx, ptr %43, i32 0, i32 0
3847   %1137 = load double, ptr %1136, align 8
3848   %1138 = fsub double %1135, %1137
3849   %1139 = load ptr, ptr %10, align 4
3850   %1140 = load i32, ptr %7, align 4
3851   %1141 = load i32, ptr %24, align 4
3852   %1142 = load i32, ptr %8, align 4
3853   %1143 = mul i32 %1142, 7
3854   %1144 = add i32 %1141, %1143
3855   %1145 = mul i32 %1140, %1144
3856   %1146 = add i32 0, %1145
3857   %1147 = getelementptr inbounds %struct.cmplx, ptr %1139, i32 %1146
3858   %1148 = getelementptr inbounds %struct.cmplx, ptr %1147, i32 0, i32 0
3859   store double %1138, ptr %1148, align 8
3860   %1149 = getelementptr inbounds %struct.cmplx, ptr %42, i32 0, i32 1
3861   %1150 = load double, ptr %1149, align 8
3862   %1151 = getelementptr inbounds %struct.cmplx, ptr %43, i32 0, i32 1
3863   %1152 = load double, ptr %1151, align 8
3864   %1153 = fsub double %1150, %1152
3865   %1154 = load ptr, ptr %10, align 4
3866   %1155 = load i32, ptr %7, align 4
3867   %1156 = load i32, ptr %24, align 4
3868   %1157 = load i32, ptr %8, align 4
3869   %1158 = mul i32 %1157, 7
3870   %1159 = add i32 %1156, %1158
3871   %1160 = mul i32 %1155, %1159
3872   %1161 = add i32 0, %1160
3873   %1162 = getelementptr inbounds %struct.cmplx, ptr %1154, i32 %1161
3874   %1163 = getelementptr inbounds %struct.cmplx, ptr %1162, i32 0, i32 1
3875   store double %1153, ptr %1163, align 8
3876   store i32 1, ptr %44, align 4
3877   br label %1164
3879 1164:                                             ; preds = %2788, %91
3880   %1165 = load i32, ptr %44, align 4
3881   %1166 = load i32, ptr %7, align 4
3882   %1167 = icmp ult i32 %1165, %1166
3883   br i1 %1167, label %1168, label %2791
3885 1168:                                             ; preds = %1164
3886   %1169 = load ptr, ptr %9, align 4
3887   %1170 = load i32, ptr %44, align 4
3888   %1171 = load i32, ptr %7, align 4
3889   %1172 = load i32, ptr %24, align 4
3890   %1173 = mul i32 11, %1172
3891   %1174 = add i32 0, %1173
3892   %1175 = mul i32 %1171, %1174
3893   %1176 = add i32 %1170, %1175
3894   %1177 = getelementptr inbounds %struct.cmplx, ptr %1169, i32 %1176
3895   call void @llvm.memcpy.p0.p0.i32(ptr align 8 %45, ptr align 8 %1177, i32 16, i1 false)
3896   %1178 = load ptr, ptr %9, align 4
3897   %1179 = load i32, ptr %44, align 4
3898   %1180 = load i32, ptr %7, align 4
3899   %1181 = load i32, ptr %24, align 4
3900   %1182 = mul i32 11, %1181
3901   %1183 = add i32 1, %1182
3902   %1184 = mul i32 %1180, %1183
3903   %1185 = add i32 %1179, %1184
3904   %1186 = getelementptr inbounds %struct.cmplx, ptr %1178, i32 %1185
3905   %1187 = getelementptr inbounds %struct.cmplx, ptr %1186, i32 0, i32 0
3906   %1188 = load double, ptr %1187, align 8
3907   %1189 = load ptr, ptr %9, align 4
3908   %1190 = load i32, ptr %44, align 4
3909   %1191 = load i32, ptr %7, align 4
3910   %1192 = load i32, ptr %24, align 4
3911   %1193 = mul i32 11, %1192
3912   %1194 = add i32 10, %1193
3913   %1195 = mul i32 %1191, %1194
3914   %1196 = add i32 %1190, %1195
3915   %1197 = getelementptr inbounds %struct.cmplx, ptr %1189, i32 %1196
3916   %1198 = getelementptr inbounds %struct.cmplx, ptr %1197, i32 0, i32 0
3917   %1199 = load double, ptr %1198, align 8
3918   %1200 = fadd double %1188, %1199
3919   %1201 = getelementptr inbounds %struct.cmplx, ptr %46, i32 0, i32 0
3920   store double %1200, ptr %1201, align 8
3921   %1202 = load ptr, ptr %9, align 4
3922   %1203 = load i32, ptr %44, align 4
3923   %1204 = load i32, ptr %7, align 4
3924   %1205 = load i32, ptr %24, align 4
3925   %1206 = mul i32 11, %1205
3926   %1207 = add i32 1, %1206
3927   %1208 = mul i32 %1204, %1207
3928   %1209 = add i32 %1203, %1208
3929   %1210 = getelementptr inbounds %struct.cmplx, ptr %1202, i32 %1209
3930   %1211 = getelementptr inbounds %struct.cmplx, ptr %1210, i32 0, i32 1
3931   %1212 = load double, ptr %1211, align 8
3932   %1213 = load ptr, ptr %9, align 4
3933   %1214 = load i32, ptr %44, align 4
3934   %1215 = load i32, ptr %7, align 4
3935   %1216 = load i32, ptr %24, align 4
3936   %1217 = mul i32 11, %1216
3937   %1218 = add i32 10, %1217
3938   %1219 = mul i32 %1215, %1218
3939   %1220 = add i32 %1214, %1219
3940   %1221 = getelementptr inbounds %struct.cmplx, ptr %1213, i32 %1220
3941   %1222 = getelementptr inbounds %struct.cmplx, ptr %1221, i32 0, i32 1
3942   %1223 = load double, ptr %1222, align 8
3943   %1224 = fadd double %1212, %1223
3944   %1225 = getelementptr inbounds %struct.cmplx, ptr %46, i32 0, i32 1
3945   store double %1224, ptr %1225, align 8
3946   %1226 = load ptr, ptr %9, align 4
3947   %1227 = load i32, ptr %44, align 4
3948   %1228 = load i32, ptr %7, align 4
3949   %1229 = load i32, ptr %24, align 4
3950   %1230 = mul i32 11, %1229
3951   %1231 = add i32 1, %1230
3952   %1232 = mul i32 %1228, %1231
3953   %1233 = add i32 %1227, %1232
3954   %1234 = getelementptr inbounds %struct.cmplx, ptr %1226, i32 %1233
3955   %1235 = getelementptr inbounds %struct.cmplx, ptr %1234, i32 0, i32 0
3956   %1236 = load double, ptr %1235, align 8
3957   %1237 = load ptr, ptr %9, align 4
3958   %1238 = load i32, ptr %44, align 4
3959   %1239 = load i32, ptr %7, align 4
3960   %1240 = load i32, ptr %24, align 4
3961   %1241 = mul i32 11, %1240
3962   %1242 = add i32 10, %1241
3963   %1243 = mul i32 %1239, %1242
3964   %1244 = add i32 %1238, %1243
3965   %1245 = getelementptr inbounds %struct.cmplx, ptr %1237, i32 %1244
3966   %1246 = getelementptr inbounds %struct.cmplx, ptr %1245, i32 0, i32 0
3967   %1247 = load double, ptr %1246, align 8
3968   %1248 = fsub double %1236, %1247
3969   %1249 = getelementptr inbounds %struct.cmplx, ptr %55, i32 0, i32 0
3970   store double %1248, ptr %1249, align 8
3971   %1250 = load ptr, ptr %9, align 4
3972   %1251 = load i32, ptr %44, align 4
3973   %1252 = load i32, ptr %7, align 4
3974   %1253 = load i32, ptr %24, align 4
3975   %1254 = mul i32 11, %1253
3976   %1255 = add i32 1, %1254
3977   %1256 = mul i32 %1252, %1255
3978   %1257 = add i32 %1251, %1256
3979   %1258 = getelementptr inbounds %struct.cmplx, ptr %1250, i32 %1257
3980   %1259 = getelementptr inbounds %struct.cmplx, ptr %1258, i32 0, i32 1
3981   %1260 = load double, ptr %1259, align 8
3982   %1261 = load ptr, ptr %9, align 4
3983   %1262 = load i32, ptr %44, align 4
3984   %1263 = load i32, ptr %7, align 4
3985   %1264 = load i32, ptr %24, align 4
3986   %1265 = mul i32 11, %1264
3987   %1266 = add i32 10, %1265
3988   %1267 = mul i32 %1263, %1266
3989   %1268 = add i32 %1262, %1267
3990   %1269 = getelementptr inbounds %struct.cmplx, ptr %1261, i32 %1268
3991   %1270 = getelementptr inbounds %struct.cmplx, ptr %1269, i32 0, i32 1
3992   %1271 = load double, ptr %1270, align 8
3993   %1272 = fsub double %1260, %1271
3994   %1273 = getelementptr inbounds %struct.cmplx, ptr %55, i32 0, i32 1
3995   store double %1272, ptr %1273, align 8
3996   %1274 = load ptr, ptr %9, align 4
3997   %1275 = load i32, ptr %44, align 4
3998   %1276 = load i32, ptr %7, align 4
3999   %1277 = load i32, ptr %24, align 4
4000   %1278 = mul i32 11, %1277
4001   %1279 = add i32 2, %1278
4002   %1280 = mul i32 %1276, %1279
4003   %1281 = add i32 %1275, %1280
4004   %1282 = getelementptr inbounds %struct.cmplx, ptr %1274, i32 %1281
4005   %1283 = getelementptr inbounds %struct.cmplx, ptr %1282, i32 0, i32 0
4006   %1284 = load double, ptr %1283, align 8
4007   %1285 = load ptr, ptr %9, align 4
4008   %1286 = load i32, ptr %44, align 4
4009   %1287 = load i32, ptr %7, align 4
4010   %1288 = load i32, ptr %24, align 4
4011   %1289 = mul i32 11, %1288
4012   %1290 = add i32 9, %1289
4013   %1291 = mul i32 %1287, %1290
4014   %1292 = add i32 %1286, %1291
4015   %1293 = getelementptr inbounds %struct.cmplx, ptr %1285, i32 %1292
4016   %1294 = getelementptr inbounds %struct.cmplx, ptr %1293, i32 0, i32 0
4017   %1295 = load double, ptr %1294, align 8
4018   %1296 = fadd double %1284, %1295
4019   %1297 = getelementptr inbounds %struct.cmplx, ptr %47, i32 0, i32 0
4020   store double %1296, ptr %1297, align 8
4021   %1298 = load ptr, ptr %9, align 4
4022   %1299 = load i32, ptr %44, align 4
4023   %1300 = load i32, ptr %7, align 4
4024   %1301 = load i32, ptr %24, align 4
4025   %1302 = mul i32 11, %1301
4026   %1303 = add i32 2, %1302
4027   %1304 = mul i32 %1300, %1303
4028   %1305 = add i32 %1299, %1304
4029   %1306 = getelementptr inbounds %struct.cmplx, ptr %1298, i32 %1305
4030   %1307 = getelementptr inbounds %struct.cmplx, ptr %1306, i32 0, i32 1
4031   %1308 = load double, ptr %1307, align 8
4032   %1309 = load ptr, ptr %9, align 4
4033   %1310 = load i32, ptr %44, align 4
4034   %1311 = load i32, ptr %7, align 4
4035   %1312 = load i32, ptr %24, align 4
4036   %1313 = mul i32 11, %1312
4037   %1314 = add i32 9, %1313
4038   %1315 = mul i32 %1311, %1314
4039   %1316 = add i32 %1310, %1315
4040   %1317 = getelementptr inbounds %struct.cmplx, ptr %1309, i32 %1316
4041   %1318 = getelementptr inbounds %struct.cmplx, ptr %1317, i32 0, i32 1
4042   %1319 = load double, ptr %1318, align 8
4043   %1320 = fadd double %1308, %1319
4044   %1321 = getelementptr inbounds %struct.cmplx, ptr %47, i32 0, i32 1
4045   store double %1320, ptr %1321, align 8
4046   %1322 = load ptr, ptr %9, align 4
4047   %1323 = load i32, ptr %44, align 4
4048   %1324 = load i32, ptr %7, align 4
4049   %1325 = load i32, ptr %24, align 4
4050   %1326 = mul i32 11, %1325
4051   %1327 = add i32 2, %1326
4052   %1328 = mul i32 %1324, %1327
4053   %1329 = add i32 %1323, %1328
4054   %1330 = getelementptr inbounds %struct.cmplx, ptr %1322, i32 %1329
4055   %1331 = getelementptr inbounds %struct.cmplx, ptr %1330, i32 0, i32 0
4056   %1332 = load double, ptr %1331, align 8
4057   %1333 = load ptr, ptr %9, align 4
4058   %1334 = load i32, ptr %44, align 4
4059   %1335 = load i32, ptr %7, align 4
4060   %1336 = load i32, ptr %24, align 4
4061   %1337 = mul i32 11, %1336
4062   %1338 = add i32 9, %1337
4063   %1339 = mul i32 %1335, %1338
4064   %1340 = add i32 %1334, %1339
4065   %1341 = getelementptr inbounds %struct.cmplx, ptr %1333, i32 %1340
4066   %1342 = getelementptr inbounds %struct.cmplx, ptr %1341, i32 0, i32 0
4067   %1343 = load double, ptr %1342, align 8
4068   %1344 = fsub double %1332, %1343
4069   %1345 = getelementptr inbounds %struct.cmplx, ptr %54, i32 0, i32 0
4070   store double %1344, ptr %1345, align 8
4071   %1346 = load ptr, ptr %9, align 4
4072   %1347 = load i32, ptr %44, align 4
4073   %1348 = load i32, ptr %7, align 4
4074   %1349 = load i32, ptr %24, align 4
4075   %1350 = mul i32 11, %1349
4076   %1351 = add i32 2, %1350
4077   %1352 = mul i32 %1348, %1351
4078   %1353 = add i32 %1347, %1352
4079   %1354 = getelementptr inbounds %struct.cmplx, ptr %1346, i32 %1353
4080   %1355 = getelementptr inbounds %struct.cmplx, ptr %1354, i32 0, i32 1
4081   %1356 = load double, ptr %1355, align 8
4082   %1357 = load ptr, ptr %9, align 4
4083   %1358 = load i32, ptr %44, align 4
4084   %1359 = load i32, ptr %7, align 4
4085   %1360 = load i32, ptr %24, align 4
4086   %1361 = mul i32 11, %1360
4087   %1362 = add i32 9, %1361
4088   %1363 = mul i32 %1359, %1362
4089   %1364 = add i32 %1358, %1363
4090   %1365 = getelementptr inbounds %struct.cmplx, ptr %1357, i32 %1364
4091   %1366 = getelementptr inbounds %struct.cmplx, ptr %1365, i32 0, i32 1
4092   %1367 = load double, ptr %1366, align 8
4093   %1368 = fsub double %1356, %1367
4094   %1369 = getelementptr inbounds %struct.cmplx, ptr %54, i32 0, i32 1
4095   store double %1368, ptr %1369, align 8
4096   %1370 = load ptr, ptr %9, align 4
4097   %1371 = load i32, ptr %44, align 4
4098   %1372 = load i32, ptr %7, align 4
4099   %1373 = load i32, ptr %24, align 4
4100   %1374 = mul i32 11, %1373
4101   %1375 = add i32 3, %1374
4102   %1376 = mul i32 %1372, %1375
4103   %1377 = add i32 %1371, %1376
4104   %1378 = getelementptr inbounds %struct.cmplx, ptr %1370, i32 %1377
4105   %1379 = getelementptr inbounds %struct.cmplx, ptr %1378, i32 0, i32 0
4106   %1380 = load double, ptr %1379, align 8
4107   %1381 = load ptr, ptr %9, align 4
4108   %1382 = load i32, ptr %44, align 4
4109   %1383 = load i32, ptr %7, align 4
4110   %1384 = load i32, ptr %24, align 4
4111   %1385 = mul i32 11, %1384
4112   %1386 = add i32 8, %1385
4113   %1387 = mul i32 %1383, %1386
4114   %1388 = add i32 %1382, %1387
4115   %1389 = getelementptr inbounds %struct.cmplx, ptr %1381, i32 %1388
4116   %1390 = getelementptr inbounds %struct.cmplx, ptr %1389, i32 0, i32 0
4117   %1391 = load double, ptr %1390, align 8
4118   %1392 = fadd double %1380, %1391
4119   %1393 = getelementptr inbounds %struct.cmplx, ptr %48, i32 0, i32 0
4120   store double %1392, ptr %1393, align 8
4121   %1394 = load ptr, ptr %9, align 4
4122   %1395 = load i32, ptr %44, align 4
4123   %1396 = load i32, ptr %7, align 4
4124   %1397 = load i32, ptr %24, align 4
4125   %1398 = mul i32 11, %1397
4126   %1399 = add i32 3, %1398
4127   %1400 = mul i32 %1396, %1399
4128   %1401 = add i32 %1395, %1400
4129   %1402 = getelementptr inbounds %struct.cmplx, ptr %1394, i32 %1401
4130   %1403 = getelementptr inbounds %struct.cmplx, ptr %1402, i32 0, i32 1
4131   %1404 = load double, ptr %1403, align 8
4132   %1405 = load ptr, ptr %9, align 4
4133   %1406 = load i32, ptr %44, align 4
4134   %1407 = load i32, ptr %7, align 4
4135   %1408 = load i32, ptr %24, align 4
4136   %1409 = mul i32 11, %1408
4137   %1410 = add i32 8, %1409
4138   %1411 = mul i32 %1407, %1410
4139   %1412 = add i32 %1406, %1411
4140   %1413 = getelementptr inbounds %struct.cmplx, ptr %1405, i32 %1412
4141   %1414 = getelementptr inbounds %struct.cmplx, ptr %1413, i32 0, i32 1
4142   %1415 = load double, ptr %1414, align 8
4143   %1416 = fadd double %1404, %1415
4144   %1417 = getelementptr inbounds %struct.cmplx, ptr %48, i32 0, i32 1
4145   store double %1416, ptr %1417, align 8
4146   %1418 = load ptr, ptr %9, align 4
4147   %1419 = load i32, ptr %44, align 4
4148   %1420 = load i32, ptr %7, align 4
4149   %1421 = load i32, ptr %24, align 4
4150   %1422 = mul i32 11, %1421
4151   %1423 = add i32 3, %1422
4152   %1424 = mul i32 %1420, %1423
4153   %1425 = add i32 %1419, %1424
4154   %1426 = getelementptr inbounds %struct.cmplx, ptr %1418, i32 %1425
4155   %1427 = getelementptr inbounds %struct.cmplx, ptr %1426, i32 0, i32 0
4156   %1428 = load double, ptr %1427, align 8
4157   %1429 = load ptr, ptr %9, align 4
4158   %1430 = load i32, ptr %44, align 4
4159   %1431 = load i32, ptr %7, align 4
4160   %1432 = load i32, ptr %24, align 4
4161   %1433 = mul i32 11, %1432
4162   %1434 = add i32 8, %1433
4163   %1435 = mul i32 %1431, %1434
4164   %1436 = add i32 %1430, %1435
4165   %1437 = getelementptr inbounds %struct.cmplx, ptr %1429, i32 %1436
4166   %1438 = getelementptr inbounds %struct.cmplx, ptr %1437, i32 0, i32 0
4167   %1439 = load double, ptr %1438, align 8
4168   %1440 = fsub double %1428, %1439
4169   %1441 = getelementptr inbounds %struct.cmplx, ptr %53, i32 0, i32 0
4170   store double %1440, ptr %1441, align 8
4171   %1442 = load ptr, ptr %9, align 4
4172   %1443 = load i32, ptr %44, align 4
4173   %1444 = load i32, ptr %7, align 4
4174   %1445 = load i32, ptr %24, align 4
4175   %1446 = mul i32 11, %1445
4176   %1447 = add i32 3, %1446
4177   %1448 = mul i32 %1444, %1447
4178   %1449 = add i32 %1443, %1448
4179   %1450 = getelementptr inbounds %struct.cmplx, ptr %1442, i32 %1449
4180   %1451 = getelementptr inbounds %struct.cmplx, ptr %1450, i32 0, i32 1
4181   %1452 = load double, ptr %1451, align 8
4182   %1453 = load ptr, ptr %9, align 4
4183   %1454 = load i32, ptr %44, align 4
4184   %1455 = load i32, ptr %7, align 4
4185   %1456 = load i32, ptr %24, align 4
4186   %1457 = mul i32 11, %1456
4187   %1458 = add i32 8, %1457
4188   %1459 = mul i32 %1455, %1458
4189   %1460 = add i32 %1454, %1459
4190   %1461 = getelementptr inbounds %struct.cmplx, ptr %1453, i32 %1460
4191   %1462 = getelementptr inbounds %struct.cmplx, ptr %1461, i32 0, i32 1
4192   %1463 = load double, ptr %1462, align 8
4193   %1464 = fsub double %1452, %1463
4194   %1465 = getelementptr inbounds %struct.cmplx, ptr %53, i32 0, i32 1
4195   store double %1464, ptr %1465, align 8
4196   %1466 = load ptr, ptr %9, align 4
4197   %1467 = load i32, ptr %44, align 4
4198   %1468 = load i32, ptr %7, align 4
4199   %1469 = load i32, ptr %24, align 4
4200   %1470 = mul i32 11, %1469
4201   %1471 = add i32 4, %1470
4202   %1472 = mul i32 %1468, %1471
4203   %1473 = add i32 %1467, %1472
4204   %1474 = getelementptr inbounds %struct.cmplx, ptr %1466, i32 %1473
4205   %1475 = getelementptr inbounds %struct.cmplx, ptr %1474, i32 0, i32 0
4206   %1476 = load double, ptr %1475, align 8
4207   %1477 = load ptr, ptr %9, align 4
4208   %1478 = load i32, ptr %44, align 4
4209   %1479 = load i32, ptr %7, align 4
4210   %1480 = load i32, ptr %24, align 4
4211   %1481 = mul i32 11, %1480
4212   %1482 = add i32 7, %1481
4213   %1483 = mul i32 %1479, %1482
4214   %1484 = add i32 %1478, %1483
4215   %1485 = getelementptr inbounds %struct.cmplx, ptr %1477, i32 %1484
4216   %1486 = getelementptr inbounds %struct.cmplx, ptr %1485, i32 0, i32 0
4217   %1487 = load double, ptr %1486, align 8
4218   %1488 = fadd double %1476, %1487
4219   %1489 = getelementptr inbounds %struct.cmplx, ptr %49, i32 0, i32 0
4220   store double %1488, ptr %1489, align 8
4221   %1490 = load ptr, ptr %9, align 4
4222   %1491 = load i32, ptr %44, align 4
4223   %1492 = load i32, ptr %7, align 4
4224   %1493 = load i32, ptr %24, align 4
4225   %1494 = mul i32 11, %1493
4226   %1495 = add i32 4, %1494
4227   %1496 = mul i32 %1492, %1495
4228   %1497 = add i32 %1491, %1496
4229   %1498 = getelementptr inbounds %struct.cmplx, ptr %1490, i32 %1497
4230   %1499 = getelementptr inbounds %struct.cmplx, ptr %1498, i32 0, i32 1
4231   %1500 = load double, ptr %1499, align 8
4232   %1501 = load ptr, ptr %9, align 4
4233   %1502 = load i32, ptr %44, align 4
4234   %1503 = load i32, ptr %7, align 4
4235   %1504 = load i32, ptr %24, align 4
4236   %1505 = mul i32 11, %1504
4237   %1506 = add i32 7, %1505
4238   %1507 = mul i32 %1503, %1506
4239   %1508 = add i32 %1502, %1507
4240   %1509 = getelementptr inbounds %struct.cmplx, ptr %1501, i32 %1508
4241   %1510 = getelementptr inbounds %struct.cmplx, ptr %1509, i32 0, i32 1
4242   %1511 = load double, ptr %1510, align 8
4243   %1512 = fadd double %1500, %1511
4244   %1513 = getelementptr inbounds %struct.cmplx, ptr %49, i32 0, i32 1
4245   store double %1512, ptr %1513, align 8
4246   %1514 = load ptr, ptr %9, align 4
4247   %1515 = load i32, ptr %44, align 4
4248   %1516 = load i32, ptr %7, align 4
4249   %1517 = load i32, ptr %24, align 4
4250   %1518 = mul i32 11, %1517
4251   %1519 = add i32 4, %1518
4252   %1520 = mul i32 %1516, %1519
4253   %1521 = add i32 %1515, %1520
4254   %1522 = getelementptr inbounds %struct.cmplx, ptr %1514, i32 %1521
4255   %1523 = getelementptr inbounds %struct.cmplx, ptr %1522, i32 0, i32 0
4256   %1524 = load double, ptr %1523, align 8
4257   %1525 = load ptr, ptr %9, align 4
4258   %1526 = load i32, ptr %44, align 4
4259   %1527 = load i32, ptr %7, align 4
4260   %1528 = load i32, ptr %24, align 4
4261   %1529 = mul i32 11, %1528
4262   %1530 = add i32 7, %1529
4263   %1531 = mul i32 %1527, %1530
4264   %1532 = add i32 %1526, %1531
4265   %1533 = getelementptr inbounds %struct.cmplx, ptr %1525, i32 %1532
4266   %1534 = getelementptr inbounds %struct.cmplx, ptr %1533, i32 0, i32 0
4267   %1535 = load double, ptr %1534, align 8
4268   %1536 = fsub double %1524, %1535
4269   %1537 = getelementptr inbounds %struct.cmplx, ptr %52, i32 0, i32 0
4270   store double %1536, ptr %1537, align 8
4271   %1538 = load ptr, ptr %9, align 4
4272   %1539 = load i32, ptr %44, align 4
4273   %1540 = load i32, ptr %7, align 4
4274   %1541 = load i32, ptr %24, align 4
4275   %1542 = mul i32 11, %1541
4276   %1543 = add i32 4, %1542
4277   %1544 = mul i32 %1540, %1543
4278   %1545 = add i32 %1539, %1544
4279   %1546 = getelementptr inbounds %struct.cmplx, ptr %1538, i32 %1545
4280   %1547 = getelementptr inbounds %struct.cmplx, ptr %1546, i32 0, i32 1
4281   %1548 = load double, ptr %1547, align 8
4282   %1549 = load ptr, ptr %9, align 4
4283   %1550 = load i32, ptr %44, align 4
4284   %1551 = load i32, ptr %7, align 4
4285   %1552 = load i32, ptr %24, align 4
4286   %1553 = mul i32 11, %1552
4287   %1554 = add i32 7, %1553
4288   %1555 = mul i32 %1551, %1554
4289   %1556 = add i32 %1550, %1555
4290   %1557 = getelementptr inbounds %struct.cmplx, ptr %1549, i32 %1556
4291   %1558 = getelementptr inbounds %struct.cmplx, ptr %1557, i32 0, i32 1
4292   %1559 = load double, ptr %1558, align 8
4293   %1560 = fsub double %1548, %1559
4294   %1561 = getelementptr inbounds %struct.cmplx, ptr %52, i32 0, i32 1
4295   store double %1560, ptr %1561, align 8
4296   %1562 = load ptr, ptr %9, align 4
4297   %1563 = load i32, ptr %44, align 4
4298   %1564 = load i32, ptr %7, align 4
4299   %1565 = load i32, ptr %24, align 4
4300   %1566 = mul i32 11, %1565
4301   %1567 = add i32 5, %1566
4302   %1568 = mul i32 %1564, %1567
4303   %1569 = add i32 %1563, %1568
4304   %1570 = getelementptr inbounds %struct.cmplx, ptr %1562, i32 %1569
4305   %1571 = getelementptr inbounds %struct.cmplx, ptr %1570, i32 0, i32 0
4306   %1572 = load double, ptr %1571, align 8
4307   %1573 = load ptr, ptr %9, align 4
4308   %1574 = load i32, ptr %44, align 4
4309   %1575 = load i32, ptr %7, align 4
4310   %1576 = load i32, ptr %24, align 4
4311   %1577 = mul i32 11, %1576
4312   %1578 = add i32 6, %1577
4313   %1579 = mul i32 %1575, %1578
4314   %1580 = add i32 %1574, %1579
4315   %1581 = getelementptr inbounds %struct.cmplx, ptr %1573, i32 %1580
4316   %1582 = getelementptr inbounds %struct.cmplx, ptr %1581, i32 0, i32 0
4317   %1583 = load double, ptr %1582, align 8
4318   %1584 = fadd double %1572, %1583
4319   %1585 = getelementptr inbounds %struct.cmplx, ptr %50, i32 0, i32 0
4320   store double %1584, ptr %1585, align 8
4321   %1586 = load ptr, ptr %9, align 4
4322   %1587 = load i32, ptr %44, align 4
4323   %1588 = load i32, ptr %7, align 4
4324   %1589 = load i32, ptr %24, align 4
4325   %1590 = mul i32 11, %1589
4326   %1591 = add i32 5, %1590
4327   %1592 = mul i32 %1588, %1591
4328   %1593 = add i32 %1587, %1592
4329   %1594 = getelementptr inbounds %struct.cmplx, ptr %1586, i32 %1593
4330   %1595 = getelementptr inbounds %struct.cmplx, ptr %1594, i32 0, i32 1
4331   %1596 = load double, ptr %1595, align 8
4332   %1597 = load ptr, ptr %9, align 4
4333   %1598 = load i32, ptr %44, align 4
4334   %1599 = load i32, ptr %7, align 4
4335   %1600 = load i32, ptr %24, align 4
4336   %1601 = mul i32 11, %1600
4337   %1602 = add i32 6, %1601
4338   %1603 = mul i32 %1599, %1602
4339   %1604 = add i32 %1598, %1603
4340   %1605 = getelementptr inbounds %struct.cmplx, ptr %1597, i32 %1604
4341   %1606 = getelementptr inbounds %struct.cmplx, ptr %1605, i32 0, i32 1
4342   %1607 = load double, ptr %1606, align 8
4343   %1608 = fadd double %1596, %1607
4344   %1609 = getelementptr inbounds %struct.cmplx, ptr %50, i32 0, i32 1
4345   store double %1608, ptr %1609, align 8
4346   %1610 = load ptr, ptr %9, align 4
4347   %1611 = load i32, ptr %44, align 4
4348   %1612 = load i32, ptr %7, align 4
4349   %1613 = load i32, ptr %24, align 4
4350   %1614 = mul i32 11, %1613
4351   %1615 = add i32 5, %1614
4352   %1616 = mul i32 %1612, %1615
4353   %1617 = add i32 %1611, %1616
4354   %1618 = getelementptr inbounds %struct.cmplx, ptr %1610, i32 %1617
4355   %1619 = getelementptr inbounds %struct.cmplx, ptr %1618, i32 0, i32 0
4356   %1620 = load double, ptr %1619, align 8
4357   %1621 = load ptr, ptr %9, align 4
4358   %1622 = load i32, ptr %44, align 4
4359   %1623 = load i32, ptr %7, align 4
4360   %1624 = load i32, ptr %24, align 4
4361   %1625 = mul i32 11, %1624
4362   %1626 = add i32 6, %1625
4363   %1627 = mul i32 %1623, %1626
4364   %1628 = add i32 %1622, %1627
4365   %1629 = getelementptr inbounds %struct.cmplx, ptr %1621, i32 %1628
4366   %1630 = getelementptr inbounds %struct.cmplx, ptr %1629, i32 0, i32 0
4367   %1631 = load double, ptr %1630, align 8
4368   %1632 = fsub double %1620, %1631
4369   %1633 = getelementptr inbounds %struct.cmplx, ptr %51, i32 0, i32 0
4370   store double %1632, ptr %1633, align 8
4371   %1634 = load ptr, ptr %9, align 4
4372   %1635 = load i32, ptr %44, align 4
4373   %1636 = load i32, ptr %7, align 4
4374   %1637 = load i32, ptr %24, align 4
4375   %1638 = mul i32 11, %1637
4376   %1639 = add i32 5, %1638
4377   %1640 = mul i32 %1636, %1639
4378   %1641 = add i32 %1635, %1640
4379   %1642 = getelementptr inbounds %struct.cmplx, ptr %1634, i32 %1641
4380   %1643 = getelementptr inbounds %struct.cmplx, ptr %1642, i32 0, i32 1
4381   %1644 = load double, ptr %1643, align 8
4382   %1645 = load ptr, ptr %9, align 4
4383   %1646 = load i32, ptr %44, align 4
4384   %1647 = load i32, ptr %7, align 4
4385   %1648 = load i32, ptr %24, align 4
4386   %1649 = mul i32 11, %1648
4387   %1650 = add i32 6, %1649
4388   %1651 = mul i32 %1647, %1650
4389   %1652 = add i32 %1646, %1651
4390   %1653 = getelementptr inbounds %struct.cmplx, ptr %1645, i32 %1652
4391   %1654 = getelementptr inbounds %struct.cmplx, ptr %1653, i32 0, i32 1
4392   %1655 = load double, ptr %1654, align 8
4393   %1656 = fsub double %1644, %1655
4394   %1657 = getelementptr inbounds %struct.cmplx, ptr %51, i32 0, i32 1
4395   store double %1656, ptr %1657, align 8
4396   %1658 = getelementptr inbounds %struct.cmplx, ptr %45, i32 0, i32 0
4397   %1659 = load double, ptr %1658, align 8
4398   %1660 = getelementptr inbounds %struct.cmplx, ptr %46, i32 0, i32 0
4399   %1661 = load double, ptr %1660, align 8
4400   %1662 = fadd double %1659, %1661
4401   %1663 = getelementptr inbounds %struct.cmplx, ptr %47, i32 0, i32 0
4402   %1664 = load double, ptr %1663, align 8
4403   %1665 = fadd double %1662, %1664
4404   %1666 = getelementptr inbounds %struct.cmplx, ptr %48, i32 0, i32 0
4405   %1667 = load double, ptr %1666, align 8
4406   %1668 = fadd double %1665, %1667
4407   %1669 = getelementptr inbounds %struct.cmplx, ptr %49, i32 0, i32 0
4408   %1670 = load double, ptr %1669, align 8
4409   %1671 = fadd double %1668, %1670
4410   %1672 = getelementptr inbounds %struct.cmplx, ptr %50, i32 0, i32 0
4411   %1673 = load double, ptr %1672, align 8
4412   %1674 = fadd double %1671, %1673
4413   %1675 = load ptr, ptr %10, align 4
4414   %1676 = load i32, ptr %44, align 4
4415   %1677 = load i32, ptr %7, align 4
4416   %1678 = load i32, ptr %24, align 4
4417   %1679 = load i32, ptr %8, align 4
4418   %1680 = mul i32 %1679, 0
4419   %1681 = add i32 %1678, %1680
4420   %1682 = mul i32 %1677, %1681
4421   %1683 = add i32 %1676, %1682
4422   %1684 = getelementptr inbounds %struct.cmplx, ptr %1675, i32 %1683
4423   %1685 = getelementptr inbounds %struct.cmplx, ptr %1684, i32 0, i32 0
4424   store double %1674, ptr %1685, align 8
4425   %1686 = getelementptr inbounds %struct.cmplx, ptr %45, i32 0, i32 1
4426   %1687 = load double, ptr %1686, align 8
4427   %1688 = getelementptr inbounds %struct.cmplx, ptr %46, i32 0, i32 1
4428   %1689 = load double, ptr %1688, align 8
4429   %1690 = fadd double %1687, %1689
4430   %1691 = getelementptr inbounds %struct.cmplx, ptr %47, i32 0, i32 1
4431   %1692 = load double, ptr %1691, align 8
4432   %1693 = fadd double %1690, %1692
4433   %1694 = getelementptr inbounds %struct.cmplx, ptr %48, i32 0, i32 1
4434   %1695 = load double, ptr %1694, align 8
4435   %1696 = fadd double %1693, %1695
4436   %1697 = getelementptr inbounds %struct.cmplx, ptr %49, i32 0, i32 1
4437   %1698 = load double, ptr %1697, align 8
4438   %1699 = fadd double %1696, %1698
4439   %1700 = getelementptr inbounds %struct.cmplx, ptr %50, i32 0, i32 1
4440   %1701 = load double, ptr %1700, align 8
4441   %1702 = fadd double %1699, %1701
4442   %1703 = load ptr, ptr %10, align 4
4443   %1704 = load i32, ptr %44, align 4
4444   %1705 = load i32, ptr %7, align 4
4445   %1706 = load i32, ptr %24, align 4
4446   %1707 = load i32, ptr %8, align 4
4447   %1708 = mul i32 %1707, 0
4448   %1709 = add i32 %1706, %1708
4449   %1710 = mul i32 %1705, %1709
4450   %1711 = add i32 %1704, %1710
4451   %1712 = getelementptr inbounds %struct.cmplx, ptr %1703, i32 %1711
4452   %1713 = getelementptr inbounds %struct.cmplx, ptr %1712, i32 0, i32 1
4453   store double %1702, ptr %1713, align 8
4454   %1714 = getelementptr inbounds %struct.cmplx, ptr %45, i32 0, i32 0
4455   %1715 = load double, ptr %1714, align 8
4456   %1716 = getelementptr inbounds %struct.cmplx, ptr %46, i32 0, i32 0
4457   %1717 = load double, ptr %1716, align 8
4458   %1718 = call double @llvm.fmuladd.f64(double 0x3FEAEB8C8764F0BA, double %1717, double %1715)
4459   %1719 = getelementptr inbounds %struct.cmplx, ptr %47, i32 0, i32 0
4460   %1720 = load double, ptr %1719, align 8
4461   %1721 = call double @llvm.fmuladd.f64(double 0x3FDA9628D9C712B6, double %1720, double %1718)
4462   %1722 = getelementptr inbounds %struct.cmplx, ptr %48, i32 0, i32 0
4463   %1723 = load double, ptr %1722, align 8
4464   %1724 = call double @llvm.fmuladd.f64(double 0xBFC2375F640F44DB, double %1723, double %1721)
4465   %1725 = getelementptr inbounds %struct.cmplx, ptr %49, i32 0, i32 0
4466   %1726 = load double, ptr %1725, align 8
4467   %1727 = call double @llvm.fmuladd.f64(double 0xBFE4F49E7F775887, double %1726, double %1724)
4468   %1728 = getelementptr inbounds %struct.cmplx, ptr %50, i32 0, i32 0
4469   %1729 = load double, ptr %1728, align 8
4470   %1730 = call double @llvm.fmuladd.f64(double 0xBFEEB42A9BCD5057, double %1729, double %1727)
4471   %1731 = getelementptr inbounds %struct.cmplx, ptr %58, i32 0, i32 0
4472   store double %1730, ptr %1731, align 8
4473   %1732 = getelementptr inbounds %struct.cmplx, ptr %45, i32 0, i32 1
4474   %1733 = load double, ptr %1732, align 8
4475   %1734 = getelementptr inbounds %struct.cmplx, ptr %46, i32 0, i32 1
4476   %1735 = load double, ptr %1734, align 8
4477   %1736 = call double @llvm.fmuladd.f64(double 0x3FEAEB8C8764F0BA, double %1735, double %1733)
4478   %1737 = getelementptr inbounds %struct.cmplx, ptr %47, i32 0, i32 1
4479   %1738 = load double, ptr %1737, align 8
4480   %1739 = call double @llvm.fmuladd.f64(double 0x3FDA9628D9C712B6, double %1738, double %1736)
4481   %1740 = getelementptr inbounds %struct.cmplx, ptr %48, i32 0, i32 1
4482   %1741 = load double, ptr %1740, align 8
4483   %1742 = call double @llvm.fmuladd.f64(double 0xBFC2375F640F44DB, double %1741, double %1739)
4484   %1743 = getelementptr inbounds %struct.cmplx, ptr %49, i32 0, i32 1
4485   %1744 = load double, ptr %1743, align 8
4486   %1745 = call double @llvm.fmuladd.f64(double 0xBFE4F49E7F775887, double %1744, double %1742)
4487   %1746 = getelementptr inbounds %struct.cmplx, ptr %50, i32 0, i32 1
4488   %1747 = load double, ptr %1746, align 8
4489   %1748 = call double @llvm.fmuladd.f64(double 0xBFEEB42A9BCD5057, double %1747, double %1745)
4490   %1749 = getelementptr inbounds %struct.cmplx, ptr %58, i32 0, i32 1
4491   store double %1748, ptr %1749, align 8
4492   %1750 = load double, ptr %15, align 8
4493   %1751 = getelementptr inbounds %struct.cmplx, ptr %55, i32 0, i32 0
4494   %1752 = load double, ptr %1751, align 8
4495   %1753 = load double, ptr %17, align 8
4496   %1754 = getelementptr inbounds %struct.cmplx, ptr %54, i32 0, i32 0
4497   %1755 = load double, ptr %1754, align 8
4498   %1756 = fmul double %1753, %1755
4499   %1757 = call double @llvm.fmuladd.f64(double %1750, double %1752, double %1756)
4500   %1758 = load double, ptr %19, align 8
4501   %1759 = getelementptr inbounds %struct.cmplx, ptr %53, i32 0, i32 0
4502   %1760 = load double, ptr %1759, align 8
4503   %1761 = call double @llvm.fmuladd.f64(double %1758, double %1760, double %1757)
4504   %1762 = load double, ptr %21, align 8
4505   %1763 = getelementptr inbounds %struct.cmplx, ptr %52, i32 0, i32 0
4506   %1764 = load double, ptr %1763, align 8
4507   %1765 = call double @llvm.fmuladd.f64(double %1762, double %1764, double %1761)
4508   %1766 = load double, ptr %23, align 8
4509   %1767 = getelementptr inbounds %struct.cmplx, ptr %51, i32 0, i32 0
4510   %1768 = load double, ptr %1767, align 8
4511   %1769 = call double @llvm.fmuladd.f64(double %1766, double %1768, double %1765)
4512   %1770 = getelementptr inbounds %struct.cmplx, ptr %59, i32 0, i32 1
4513   store double %1769, ptr %1770, align 8
4514   %1771 = load double, ptr %15, align 8
4515   %1772 = getelementptr inbounds %struct.cmplx, ptr %55, i32 0, i32 1
4516   %1773 = load double, ptr %1772, align 8
4517   %1774 = load double, ptr %17, align 8
4518   %1775 = getelementptr inbounds %struct.cmplx, ptr %54, i32 0, i32 1
4519   %1776 = load double, ptr %1775, align 8
4520   %1777 = fmul double %1774, %1776
4521   %1778 = call double @llvm.fmuladd.f64(double %1771, double %1773, double %1777)
4522   %1779 = load double, ptr %19, align 8
4523   %1780 = getelementptr inbounds %struct.cmplx, ptr %53, i32 0, i32 1
4524   %1781 = load double, ptr %1780, align 8
4525   %1782 = call double @llvm.fmuladd.f64(double %1779, double %1781, double %1778)
4526   %1783 = load double, ptr %21, align 8
4527   %1784 = getelementptr inbounds %struct.cmplx, ptr %52, i32 0, i32 1
4528   %1785 = load double, ptr %1784, align 8
4529   %1786 = call double @llvm.fmuladd.f64(double %1783, double %1785, double %1782)
4530   %1787 = load double, ptr %23, align 8
4531   %1788 = getelementptr inbounds %struct.cmplx, ptr %51, i32 0, i32 1
4532   %1789 = load double, ptr %1788, align 8
4533   %1790 = call double @llvm.fmuladd.f64(double %1787, double %1789, double %1786)
4534   %1791 = fneg double %1790
4535   %1792 = getelementptr inbounds %struct.cmplx, ptr %59, i32 0, i32 0
4536   store double %1791, ptr %1792, align 8
4537   %1793 = getelementptr inbounds %struct.cmplx, ptr %58, i32 0, i32 0
4538   %1794 = load double, ptr %1793, align 8
4539   %1795 = getelementptr inbounds %struct.cmplx, ptr %59, i32 0, i32 0
4540   %1796 = load double, ptr %1795, align 8
4541   %1797 = fadd double %1794, %1796
4542   %1798 = getelementptr inbounds %struct.cmplx, ptr %56, i32 0, i32 0
4543   store double %1797, ptr %1798, align 8
4544   %1799 = getelementptr inbounds %struct.cmplx, ptr %58, i32 0, i32 1
4545   %1800 = load double, ptr %1799, align 8
4546   %1801 = getelementptr inbounds %struct.cmplx, ptr %59, i32 0, i32 1
4547   %1802 = load double, ptr %1801, align 8
4548   %1803 = fadd double %1800, %1802
4549   %1804 = getelementptr inbounds %struct.cmplx, ptr %56, i32 0, i32 1
4550   store double %1803, ptr %1804, align 8
4551   %1805 = getelementptr inbounds %struct.cmplx, ptr %58, i32 0, i32 0
4552   %1806 = load double, ptr %1805, align 8
4553   %1807 = getelementptr inbounds %struct.cmplx, ptr %59, i32 0, i32 0
4554   %1808 = load double, ptr %1807, align 8
4555   %1809 = fsub double %1806, %1808
4556   %1810 = getelementptr inbounds %struct.cmplx, ptr %57, i32 0, i32 0
4557   store double %1809, ptr %1810, align 8
4558   %1811 = getelementptr inbounds %struct.cmplx, ptr %58, i32 0, i32 1
4559   %1812 = load double, ptr %1811, align 8
4560   %1813 = getelementptr inbounds %struct.cmplx, ptr %59, i32 0, i32 1
4561   %1814 = load double, ptr %1813, align 8
4562   %1815 = fsub double %1812, %1814
4563   %1816 = getelementptr inbounds %struct.cmplx, ptr %57, i32 0, i32 1
4564   store double %1815, ptr %1816, align 8
4565   %1817 = load ptr, ptr %11, align 4
4566   %1818 = load i32, ptr %44, align 4
4567   %1819 = sub i32 %1818, 1
4568   %1820 = load i32, ptr %7, align 4
4569   %1821 = sub i32 %1820, 1
4570   %1822 = mul i32 0, %1821
4571   %1823 = add i32 %1819, %1822
4572   %1824 = getelementptr inbounds %struct.cmplx, ptr %1817, i32 %1823
4573   %1825 = getelementptr inbounds %struct.cmplx, ptr %1824, i32 0, i32 0
4574   %1826 = load double, ptr %1825, align 8
4575   %1827 = getelementptr inbounds %struct.cmplx, ptr %56, i32 0, i32 0
4576   %1828 = load double, ptr %1827, align 8
4577   %1829 = load i32, ptr %12, align 4
4578   %1830 = sitofp i32 %1829 to double
4579   %1831 = load ptr, ptr %11, align 4
4580   %1832 = load i32, ptr %44, align 4
4581   %1833 = sub i32 %1832, 1
4582   %1834 = load i32, ptr %7, align 4
4583   %1835 = sub i32 %1834, 1
4584   %1836 = mul i32 0, %1835
4585   %1837 = add i32 %1833, %1836
4586   %1838 = getelementptr inbounds %struct.cmplx, ptr %1831, i32 %1837
4587   %1839 = getelementptr inbounds %struct.cmplx, ptr %1838, i32 0, i32 1
4588   %1840 = load double, ptr %1839, align 8
4589   %1841 = fmul double %1830, %1840
4590   %1842 = getelementptr inbounds %struct.cmplx, ptr %56, i32 0, i32 1
4591   %1843 = load double, ptr %1842, align 8
4592   %1844 = fmul double %1841, %1843
4593   %1845 = fneg double %1844
4594   %1846 = call double @llvm.fmuladd.f64(double %1826, double %1828, double %1845)
4595   %1847 = load ptr, ptr %10, align 4
4596   %1848 = load i32, ptr %44, align 4
4597   %1849 = load i32, ptr %7, align 4
4598   %1850 = load i32, ptr %24, align 4
4599   %1851 = load i32, ptr %8, align 4
4600   %1852 = mul i32 %1851, 1
4601   %1853 = add i32 %1850, %1852
4602   %1854 = mul i32 %1849, %1853
4603   %1855 = add i32 %1848, %1854
4604   %1856 = getelementptr inbounds %struct.cmplx, ptr %1847, i32 %1855
4605   %1857 = getelementptr inbounds %struct.cmplx, ptr %1856, i32 0, i32 0
4606   store double %1846, ptr %1857, align 8
4607   %1858 = load ptr, ptr %11, align 4
4608   %1859 = load i32, ptr %44, align 4
4609   %1860 = sub i32 %1859, 1
4610   %1861 = load i32, ptr %7, align 4
4611   %1862 = sub i32 %1861, 1
4612   %1863 = mul i32 0, %1862
4613   %1864 = add i32 %1860, %1863
4614   %1865 = getelementptr inbounds %struct.cmplx, ptr %1858, i32 %1864
4615   %1866 = getelementptr inbounds %struct.cmplx, ptr %1865, i32 0, i32 0
4616   %1867 = load double, ptr %1866, align 8
4617   %1868 = getelementptr inbounds %struct.cmplx, ptr %56, i32 0, i32 1
4618   %1869 = load double, ptr %1868, align 8
4619   %1870 = load i32, ptr %12, align 4
4620   %1871 = sitofp i32 %1870 to double
4621   %1872 = load ptr, ptr %11, align 4
4622   %1873 = load i32, ptr %44, align 4
4623   %1874 = sub i32 %1873, 1
4624   %1875 = load i32, ptr %7, align 4
4625   %1876 = sub i32 %1875, 1
4626   %1877 = mul i32 0, %1876
4627   %1878 = add i32 %1874, %1877
4628   %1879 = getelementptr inbounds %struct.cmplx, ptr %1872, i32 %1878
4629   %1880 = getelementptr inbounds %struct.cmplx, ptr %1879, i32 0, i32 1
4630   %1881 = load double, ptr %1880, align 8
4631   %1882 = fmul double %1871, %1881
4632   %1883 = getelementptr inbounds %struct.cmplx, ptr %56, i32 0, i32 0
4633   %1884 = load double, ptr %1883, align 8
4634   %1885 = fmul double %1882, %1884
4635   %1886 = call double @llvm.fmuladd.f64(double %1867, double %1869, double %1885)
4636   %1887 = load ptr, ptr %10, align 4
4637   %1888 = load i32, ptr %44, align 4
4638   %1889 = load i32, ptr %7, align 4
4639   %1890 = load i32, ptr %24, align 4
4640   %1891 = load i32, ptr %8, align 4
4641   %1892 = mul i32 %1891, 1
4642   %1893 = add i32 %1890, %1892
4643   %1894 = mul i32 %1889, %1893
4644   %1895 = add i32 %1888, %1894
4645   %1896 = getelementptr inbounds %struct.cmplx, ptr %1887, i32 %1895
4646   %1897 = getelementptr inbounds %struct.cmplx, ptr %1896, i32 0, i32 1
4647   store double %1886, ptr %1897, align 8
4648   %1898 = load ptr, ptr %11, align 4
4649   %1899 = load i32, ptr %44, align 4
4650   %1900 = sub i32 %1899, 1
4651   %1901 = load i32, ptr %7, align 4
4652   %1902 = sub i32 %1901, 1
4653   %1903 = mul i32 9, %1902
4654   %1904 = add i32 %1900, %1903
4655   %1905 = getelementptr inbounds %struct.cmplx, ptr %1898, i32 %1904
4656   %1906 = getelementptr inbounds %struct.cmplx, ptr %1905, i32 0, i32 0
4657   %1907 = load double, ptr %1906, align 8
4658   %1908 = getelementptr inbounds %struct.cmplx, ptr %57, i32 0, i32 0
4659   %1909 = load double, ptr %1908, align 8
4660   %1910 = load i32, ptr %12, align 4
4661   %1911 = sitofp i32 %1910 to double
4662   %1912 = load ptr, ptr %11, align 4
4663   %1913 = load i32, ptr %44, align 4
4664   %1914 = sub i32 %1913, 1
4665   %1915 = load i32, ptr %7, align 4
4666   %1916 = sub i32 %1915, 1
4667   %1917 = mul i32 9, %1916
4668   %1918 = add i32 %1914, %1917
4669   %1919 = getelementptr inbounds %struct.cmplx, ptr %1912, i32 %1918
4670   %1920 = getelementptr inbounds %struct.cmplx, ptr %1919, i32 0, i32 1
4671   %1921 = load double, ptr %1920, align 8
4672   %1922 = fmul double %1911, %1921
4673   %1923 = getelementptr inbounds %struct.cmplx, ptr %57, i32 0, i32 1
4674   %1924 = load double, ptr %1923, align 8
4675   %1925 = fmul double %1922, %1924
4676   %1926 = fneg double %1925
4677   %1927 = call double @llvm.fmuladd.f64(double %1907, double %1909, double %1926)
4678   %1928 = load ptr, ptr %10, align 4
4679   %1929 = load i32, ptr %44, align 4
4680   %1930 = load i32, ptr %7, align 4
4681   %1931 = load i32, ptr %24, align 4
4682   %1932 = load i32, ptr %8, align 4
4683   %1933 = mul i32 %1932, 10
4684   %1934 = add i32 %1931, %1933
4685   %1935 = mul i32 %1930, %1934
4686   %1936 = add i32 %1929, %1935
4687   %1937 = getelementptr inbounds %struct.cmplx, ptr %1928, i32 %1936
4688   %1938 = getelementptr inbounds %struct.cmplx, ptr %1937, i32 0, i32 0
4689   store double %1927, ptr %1938, align 8
4690   %1939 = load ptr, ptr %11, align 4
4691   %1940 = load i32, ptr %44, align 4
4692   %1941 = sub i32 %1940, 1
4693   %1942 = load i32, ptr %7, align 4
4694   %1943 = sub i32 %1942, 1
4695   %1944 = mul i32 9, %1943
4696   %1945 = add i32 %1941, %1944
4697   %1946 = getelementptr inbounds %struct.cmplx, ptr %1939, i32 %1945
4698   %1947 = getelementptr inbounds %struct.cmplx, ptr %1946, i32 0, i32 0
4699   %1948 = load double, ptr %1947, align 8
4700   %1949 = getelementptr inbounds %struct.cmplx, ptr %57, i32 0, i32 1
4701   %1950 = load double, ptr %1949, align 8
4702   %1951 = load i32, ptr %12, align 4
4703   %1952 = sitofp i32 %1951 to double
4704   %1953 = load ptr, ptr %11, align 4
4705   %1954 = load i32, ptr %44, align 4
4706   %1955 = sub i32 %1954, 1
4707   %1956 = load i32, ptr %7, align 4
4708   %1957 = sub i32 %1956, 1
4709   %1958 = mul i32 9, %1957
4710   %1959 = add i32 %1955, %1958
4711   %1960 = getelementptr inbounds %struct.cmplx, ptr %1953, i32 %1959
4712   %1961 = getelementptr inbounds %struct.cmplx, ptr %1960, i32 0, i32 1
4713   %1962 = load double, ptr %1961, align 8
4714   %1963 = fmul double %1952, %1962
4715   %1964 = getelementptr inbounds %struct.cmplx, ptr %57, i32 0, i32 0
4716   %1965 = load double, ptr %1964, align 8
4717   %1966 = fmul double %1963, %1965
4718   %1967 = call double @llvm.fmuladd.f64(double %1948, double %1950, double %1966)
4719   %1968 = load ptr, ptr %10, align 4
4720   %1969 = load i32, ptr %44, align 4
4721   %1970 = load i32, ptr %7, align 4
4722   %1971 = load i32, ptr %24, align 4
4723   %1972 = load i32, ptr %8, align 4
4724   %1973 = mul i32 %1972, 10
4725   %1974 = add i32 %1971, %1973
4726   %1975 = mul i32 %1970, %1974
4727   %1976 = add i32 %1969, %1975
4728   %1977 = getelementptr inbounds %struct.cmplx, ptr %1968, i32 %1976
4729   %1978 = getelementptr inbounds %struct.cmplx, ptr %1977, i32 0, i32 1
4730   store double %1967, ptr %1978, align 8
4731   %1979 = getelementptr inbounds %struct.cmplx, ptr %45, i32 0, i32 0
4732   %1980 = load double, ptr %1979, align 8
4733   %1981 = getelementptr inbounds %struct.cmplx, ptr %46, i32 0, i32 0
4734   %1982 = load double, ptr %1981, align 8
4735   %1983 = call double @llvm.fmuladd.f64(double 0x3FDA9628D9C712B6, double %1982, double %1980)
4736   %1984 = getelementptr inbounds %struct.cmplx, ptr %47, i32 0, i32 0
4737   %1985 = load double, ptr %1984, align 8
4738   %1986 = call double @llvm.fmuladd.f64(double 0xBFE4F49E7F775887, double %1985, double %1983)
4739   %1987 = getelementptr inbounds %struct.cmplx, ptr %48, i32 0, i32 0
4740   %1988 = load double, ptr %1987, align 8
4741   %1989 = call double @llvm.fmuladd.f64(double 0xBFEEB42A9BCD5057, double %1988, double %1986)
4742   %1990 = getelementptr inbounds %struct.cmplx, ptr %49, i32 0, i32 0
4743   %1991 = load double, ptr %1990, align 8
4744   %1992 = call double @llvm.fmuladd.f64(double 0xBFC2375F640F44DB, double %1991, double %1989)
4745   %1993 = getelementptr inbounds %struct.cmplx, ptr %50, i32 0, i32 0
4746   %1994 = load double, ptr %1993, align 8
4747   %1995 = call double @llvm.fmuladd.f64(double 0x3FEAEB8C8764F0BA, double %1994, double %1992)
4748   %1996 = getelementptr inbounds %struct.cmplx, ptr %62, i32 0, i32 0
4749   store double %1995, ptr %1996, align 8
4750   %1997 = getelementptr inbounds %struct.cmplx, ptr %45, i32 0, i32 1
4751   %1998 = load double, ptr %1997, align 8
4752   %1999 = getelementptr inbounds %struct.cmplx, ptr %46, i32 0, i32 1
4753   %2000 = load double, ptr %1999, align 8
4754   %2001 = call double @llvm.fmuladd.f64(double 0x3FDA9628D9C712B6, double %2000, double %1998)
4755   %2002 = getelementptr inbounds %struct.cmplx, ptr %47, i32 0, i32 1
4756   %2003 = load double, ptr %2002, align 8
4757   %2004 = call double @llvm.fmuladd.f64(double 0xBFE4F49E7F775887, double %2003, double %2001)
4758   %2005 = getelementptr inbounds %struct.cmplx, ptr %48, i32 0, i32 1
4759   %2006 = load double, ptr %2005, align 8
4760   %2007 = call double @llvm.fmuladd.f64(double 0xBFEEB42A9BCD5057, double %2006, double %2004)
4761   %2008 = getelementptr inbounds %struct.cmplx, ptr %49, i32 0, i32 1
4762   %2009 = load double, ptr %2008, align 8
4763   %2010 = call double @llvm.fmuladd.f64(double 0xBFC2375F640F44DB, double %2009, double %2007)
4764   %2011 = getelementptr inbounds %struct.cmplx, ptr %50, i32 0, i32 1
4765   %2012 = load double, ptr %2011, align 8
4766   %2013 = call double @llvm.fmuladd.f64(double 0x3FEAEB8C8764F0BA, double %2012, double %2010)
4767   %2014 = getelementptr inbounds %struct.cmplx, ptr %62, i32 0, i32 1
4768   store double %2013, ptr %2014, align 8
4769   %2015 = load double, ptr %17, align 8
4770   %2016 = getelementptr inbounds %struct.cmplx, ptr %55, i32 0, i32 0
4771   %2017 = load double, ptr %2016, align 8
4772   %2018 = load double, ptr %21, align 8
4773   %2019 = getelementptr inbounds %struct.cmplx, ptr %54, i32 0, i32 0
4774   %2020 = load double, ptr %2019, align 8
4775   %2021 = fmul double %2018, %2020
4776   %2022 = call double @llvm.fmuladd.f64(double %2015, double %2017, double %2021)
4777   %2023 = load double, ptr %23, align 8
4778   %2024 = getelementptr inbounds %struct.cmplx, ptr %53, i32 0, i32 0
4779   %2025 = load double, ptr %2024, align 8
4780   %2026 = fneg double %2023
4781   %2027 = call double @llvm.fmuladd.f64(double %2026, double %2025, double %2022)
4782   %2028 = load double, ptr %19, align 8
4783   %2029 = getelementptr inbounds %struct.cmplx, ptr %52, i32 0, i32 0
4784   %2030 = load double, ptr %2029, align 8
4785   %2031 = fneg double %2028
4786   %2032 = call double @llvm.fmuladd.f64(double %2031, double %2030, double %2027)
4787   %2033 = load double, ptr %15, align 8
4788   %2034 = getelementptr inbounds %struct.cmplx, ptr %51, i32 0, i32 0
4789   %2035 = load double, ptr %2034, align 8
4790   %2036 = fneg double %2033
4791   %2037 = call double @llvm.fmuladd.f64(double %2036, double %2035, double %2032)
4792   %2038 = getelementptr inbounds %struct.cmplx, ptr %63, i32 0, i32 1
4793   store double %2037, ptr %2038, align 8
4794   %2039 = load double, ptr %17, align 8
4795   %2040 = getelementptr inbounds %struct.cmplx, ptr %55, i32 0, i32 1
4796   %2041 = load double, ptr %2040, align 8
4797   %2042 = load double, ptr %21, align 8
4798   %2043 = getelementptr inbounds %struct.cmplx, ptr %54, i32 0, i32 1
4799   %2044 = load double, ptr %2043, align 8
4800   %2045 = fmul double %2042, %2044
4801   %2046 = call double @llvm.fmuladd.f64(double %2039, double %2041, double %2045)
4802   %2047 = load double, ptr %23, align 8
4803   %2048 = getelementptr inbounds %struct.cmplx, ptr %53, i32 0, i32 1
4804   %2049 = load double, ptr %2048, align 8
4805   %2050 = fneg double %2047
4806   %2051 = call double @llvm.fmuladd.f64(double %2050, double %2049, double %2046)
4807   %2052 = load double, ptr %19, align 8
4808   %2053 = getelementptr inbounds %struct.cmplx, ptr %52, i32 0, i32 1
4809   %2054 = load double, ptr %2053, align 8
4810   %2055 = fneg double %2052
4811   %2056 = call double @llvm.fmuladd.f64(double %2055, double %2054, double %2051)
4812   %2057 = load double, ptr %15, align 8
4813   %2058 = getelementptr inbounds %struct.cmplx, ptr %51, i32 0, i32 1
4814   %2059 = load double, ptr %2058, align 8
4815   %2060 = fneg double %2057
4816   %2061 = call double @llvm.fmuladd.f64(double %2060, double %2059, double %2056)
4817   %2062 = fneg double %2061
4818   %2063 = getelementptr inbounds %struct.cmplx, ptr %63, i32 0, i32 0
4819   store double %2062, ptr %2063, align 8
4820   %2064 = getelementptr inbounds %struct.cmplx, ptr %62, i32 0, i32 0
4821   %2065 = load double, ptr %2064, align 8
4822   %2066 = getelementptr inbounds %struct.cmplx, ptr %63, i32 0, i32 0
4823   %2067 = load double, ptr %2066, align 8
4824   %2068 = fadd double %2065, %2067
4825   %2069 = getelementptr inbounds %struct.cmplx, ptr %60, i32 0, i32 0
4826   store double %2068, ptr %2069, align 8
4827   %2070 = getelementptr inbounds %struct.cmplx, ptr %62, i32 0, i32 1
4828   %2071 = load double, ptr %2070, align 8
4829   %2072 = getelementptr inbounds %struct.cmplx, ptr %63, i32 0, i32 1
4830   %2073 = load double, ptr %2072, align 8
4831   %2074 = fadd double %2071, %2073
4832   %2075 = getelementptr inbounds %struct.cmplx, ptr %60, i32 0, i32 1
4833   store double %2074, ptr %2075, align 8
4834   %2076 = getelementptr inbounds %struct.cmplx, ptr %62, i32 0, i32 0
4835   %2077 = load double, ptr %2076, align 8
4836   %2078 = getelementptr inbounds %struct.cmplx, ptr %63, i32 0, i32 0
4837   %2079 = load double, ptr %2078, align 8
4838   %2080 = fsub double %2077, %2079
4839   %2081 = getelementptr inbounds %struct.cmplx, ptr %61, i32 0, i32 0
4840   store double %2080, ptr %2081, align 8
4841   %2082 = getelementptr inbounds %struct.cmplx, ptr %62, i32 0, i32 1
4842   %2083 = load double, ptr %2082, align 8
4843   %2084 = getelementptr inbounds %struct.cmplx, ptr %63, i32 0, i32 1
4844   %2085 = load double, ptr %2084, align 8
4845   %2086 = fsub double %2083, %2085
4846   %2087 = getelementptr inbounds %struct.cmplx, ptr %61, i32 0, i32 1
4847   store double %2086, ptr %2087, align 8
4848   %2088 = load ptr, ptr %11, align 4
4849   %2089 = load i32, ptr %44, align 4
4850   %2090 = sub i32 %2089, 1
4851   %2091 = load i32, ptr %7, align 4
4852   %2092 = sub i32 %2091, 1
4853   %2093 = mul i32 1, %2092
4854   %2094 = add i32 %2090, %2093
4855   %2095 = getelementptr inbounds %struct.cmplx, ptr %2088, i32 %2094
4856   %2096 = getelementptr inbounds %struct.cmplx, ptr %2095, i32 0, i32 0
4857   %2097 = load double, ptr %2096, align 8
4858   %2098 = getelementptr inbounds %struct.cmplx, ptr %60, i32 0, i32 0
4859   %2099 = load double, ptr %2098, align 8
4860   %2100 = load i32, ptr %12, align 4
4861   %2101 = sitofp i32 %2100 to double
4862   %2102 = load ptr, ptr %11, align 4
4863   %2103 = load i32, ptr %44, align 4
4864   %2104 = sub i32 %2103, 1
4865   %2105 = load i32, ptr %7, align 4
4866   %2106 = sub i32 %2105, 1
4867   %2107 = mul i32 1, %2106
4868   %2108 = add i32 %2104, %2107
4869   %2109 = getelementptr inbounds %struct.cmplx, ptr %2102, i32 %2108
4870   %2110 = getelementptr inbounds %struct.cmplx, ptr %2109, i32 0, i32 1
4871   %2111 = load double, ptr %2110, align 8
4872   %2112 = fmul double %2101, %2111
4873   %2113 = getelementptr inbounds %struct.cmplx, ptr %60, i32 0, i32 1
4874   %2114 = load double, ptr %2113, align 8
4875   %2115 = fmul double %2112, %2114
4876   %2116 = fneg double %2115
4877   %2117 = call double @llvm.fmuladd.f64(double %2097, double %2099, double %2116)
4878   %2118 = load ptr, ptr %10, align 4
4879   %2119 = load i32, ptr %44, align 4
4880   %2120 = load i32, ptr %7, align 4
4881   %2121 = load i32, ptr %24, align 4
4882   %2122 = load i32, ptr %8, align 4
4883   %2123 = mul i32 %2122, 2
4884   %2124 = add i32 %2121, %2123
4885   %2125 = mul i32 %2120, %2124
4886   %2126 = add i32 %2119, %2125
4887   %2127 = getelementptr inbounds %struct.cmplx, ptr %2118, i32 %2126
4888   %2128 = getelementptr inbounds %struct.cmplx, ptr %2127, i32 0, i32 0
4889   store double %2117, ptr %2128, align 8
4890   %2129 = load ptr, ptr %11, align 4
4891   %2130 = load i32, ptr %44, align 4
4892   %2131 = sub i32 %2130, 1
4893   %2132 = load i32, ptr %7, align 4
4894   %2133 = sub i32 %2132, 1
4895   %2134 = mul i32 1, %2133
4896   %2135 = add i32 %2131, %2134
4897   %2136 = getelementptr inbounds %struct.cmplx, ptr %2129, i32 %2135
4898   %2137 = getelementptr inbounds %struct.cmplx, ptr %2136, i32 0, i32 0
4899   %2138 = load double, ptr %2137, align 8
4900   %2139 = getelementptr inbounds %struct.cmplx, ptr %60, i32 0, i32 1
4901   %2140 = load double, ptr %2139, align 8
4902   %2141 = load i32, ptr %12, align 4
4903   %2142 = sitofp i32 %2141 to double
4904   %2143 = load ptr, ptr %11, align 4
4905   %2144 = load i32, ptr %44, align 4
4906   %2145 = sub i32 %2144, 1
4907   %2146 = load i32, ptr %7, align 4
4908   %2147 = sub i32 %2146, 1
4909   %2148 = mul i32 1, %2147
4910   %2149 = add i32 %2145, %2148
4911   %2150 = getelementptr inbounds %struct.cmplx, ptr %2143, i32 %2149
4912   %2151 = getelementptr inbounds %struct.cmplx, ptr %2150, i32 0, i32 1
4913   %2152 = load double, ptr %2151, align 8
4914   %2153 = fmul double %2142, %2152
4915   %2154 = getelementptr inbounds %struct.cmplx, ptr %60, i32 0, i32 0
4916   %2155 = load double, ptr %2154, align 8
4917   %2156 = fmul double %2153, %2155
4918   %2157 = call double @llvm.fmuladd.f64(double %2138, double %2140, double %2156)
4919   %2158 = load ptr, ptr %10, align 4
4920   %2159 = load i32, ptr %44, align 4
4921   %2160 = load i32, ptr %7, align 4
4922   %2161 = load i32, ptr %24, align 4
4923   %2162 = load i32, ptr %8, align 4
4924   %2163 = mul i32 %2162, 2
4925   %2164 = add i32 %2161, %2163
4926   %2165 = mul i32 %2160, %2164
4927   %2166 = add i32 %2159, %2165
4928   %2167 = getelementptr inbounds %struct.cmplx, ptr %2158, i32 %2166
4929   %2168 = getelementptr inbounds %struct.cmplx, ptr %2167, i32 0, i32 1
4930   store double %2157, ptr %2168, align 8
4931   %2169 = load ptr, ptr %11, align 4
4932   %2170 = load i32, ptr %44, align 4
4933   %2171 = sub i32 %2170, 1
4934   %2172 = load i32, ptr %7, align 4
4935   %2173 = sub i32 %2172, 1
4936   %2174 = mul i32 8, %2173
4937   %2175 = add i32 %2171, %2174
4938   %2176 = getelementptr inbounds %struct.cmplx, ptr %2169, i32 %2175
4939   %2177 = getelementptr inbounds %struct.cmplx, ptr %2176, i32 0, i32 0
4940   %2178 = load double, ptr %2177, align 8
4941   %2179 = getelementptr inbounds %struct.cmplx, ptr %61, i32 0, i32 0
4942   %2180 = load double, ptr %2179, align 8
4943   %2181 = load i32, ptr %12, align 4
4944   %2182 = sitofp i32 %2181 to double
4945   %2183 = load ptr, ptr %11, align 4
4946   %2184 = load i32, ptr %44, align 4
4947   %2185 = sub i32 %2184, 1
4948   %2186 = load i32, ptr %7, align 4
4949   %2187 = sub i32 %2186, 1
4950   %2188 = mul i32 8, %2187
4951   %2189 = add i32 %2185, %2188
4952   %2190 = getelementptr inbounds %struct.cmplx, ptr %2183, i32 %2189
4953   %2191 = getelementptr inbounds %struct.cmplx, ptr %2190, i32 0, i32 1
4954   %2192 = load double, ptr %2191, align 8
4955   %2193 = fmul double %2182, %2192
4956   %2194 = getelementptr inbounds %struct.cmplx, ptr %61, i32 0, i32 1
4957   %2195 = load double, ptr %2194, align 8
4958   %2196 = fmul double %2193, %2195
4959   %2197 = fneg double %2196
4960   %2198 = call double @llvm.fmuladd.f64(double %2178, double %2180, double %2197)
4961   %2199 = load ptr, ptr %10, align 4
4962   %2200 = load i32, ptr %44, align 4
4963   %2201 = load i32, ptr %7, align 4
4964   %2202 = load i32, ptr %24, align 4
4965   %2203 = load i32, ptr %8, align 4
4966   %2204 = mul i32 %2203, 9
4967   %2205 = add i32 %2202, %2204
4968   %2206 = mul i32 %2201, %2205
4969   %2207 = add i32 %2200, %2206
4970   %2208 = getelementptr inbounds %struct.cmplx, ptr %2199, i32 %2207
4971   %2209 = getelementptr inbounds %struct.cmplx, ptr %2208, i32 0, i32 0
4972   store double %2198, ptr %2209, align 8
4973   %2210 = load ptr, ptr %11, align 4
4974   %2211 = load i32, ptr %44, align 4
4975   %2212 = sub i32 %2211, 1
4976   %2213 = load i32, ptr %7, align 4
4977   %2214 = sub i32 %2213, 1
4978   %2215 = mul i32 8, %2214
4979   %2216 = add i32 %2212, %2215
4980   %2217 = getelementptr inbounds %struct.cmplx, ptr %2210, i32 %2216
4981   %2218 = getelementptr inbounds %struct.cmplx, ptr %2217, i32 0, i32 0
4982   %2219 = load double, ptr %2218, align 8
4983   %2220 = getelementptr inbounds %struct.cmplx, ptr %61, i32 0, i32 1
4984   %2221 = load double, ptr %2220, align 8
4985   %2222 = load i32, ptr %12, align 4
4986   %2223 = sitofp i32 %2222 to double
4987   %2224 = load ptr, ptr %11, align 4
4988   %2225 = load i32, ptr %44, align 4
4989   %2226 = sub i32 %2225, 1
4990   %2227 = load i32, ptr %7, align 4
4991   %2228 = sub i32 %2227, 1
4992   %2229 = mul i32 8, %2228
4993   %2230 = add i32 %2226, %2229
4994   %2231 = getelementptr inbounds %struct.cmplx, ptr %2224, i32 %2230
4995   %2232 = getelementptr inbounds %struct.cmplx, ptr %2231, i32 0, i32 1
4996   %2233 = load double, ptr %2232, align 8
4997   %2234 = fmul double %2223, %2233
4998   %2235 = getelementptr inbounds %struct.cmplx, ptr %61, i32 0, i32 0
4999   %2236 = load double, ptr %2235, align 8
5000   %2237 = fmul double %2234, %2236
5001   %2238 = call double @llvm.fmuladd.f64(double %2219, double %2221, double %2237)
5002   %2239 = load ptr, ptr %10, align 4
5003   %2240 = load i32, ptr %44, align 4
5004   %2241 = load i32, ptr %7, align 4
5005   %2242 = load i32, ptr %24, align 4
5006   %2243 = load i32, ptr %8, align 4
5007   %2244 = mul i32 %2243, 9
5008   %2245 = add i32 %2242, %2244
5009   %2246 = mul i32 %2241, %2245
5010   %2247 = add i32 %2240, %2246
5011   %2248 = getelementptr inbounds %struct.cmplx, ptr %2239, i32 %2247
5012   %2249 = getelementptr inbounds %struct.cmplx, ptr %2248, i32 0, i32 1
5013   store double %2238, ptr %2249, align 8
5014   %2250 = getelementptr inbounds %struct.cmplx, ptr %45, i32 0, i32 0
5015   %2251 = load double, ptr %2250, align 8
5016   %2252 = getelementptr inbounds %struct.cmplx, ptr %46, i32 0, i32 0
5017   %2253 = load double, ptr %2252, align 8
5018   %2254 = call double @llvm.fmuladd.f64(double 0xBFC2375F640F44DB, double %2253, double %2251)
5019   %2255 = getelementptr inbounds %struct.cmplx, ptr %47, i32 0, i32 0
5020   %2256 = load double, ptr %2255, align 8
5021   %2257 = call double @llvm.fmuladd.f64(double 0xBFEEB42A9BCD5057, double %2256, double %2254)
5022   %2258 = getelementptr inbounds %struct.cmplx, ptr %48, i32 0, i32 0
5023   %2259 = load double, ptr %2258, align 8
5024   %2260 = call double @llvm.fmuladd.f64(double 0x3FDA9628D9C712B6, double %2259, double %2257)
5025   %2261 = getelementptr inbounds %struct.cmplx, ptr %49, i32 0, i32 0
5026   %2262 = load double, ptr %2261, align 8
5027   %2263 = call double @llvm.fmuladd.f64(double 0x3FEAEB8C8764F0BA, double %2262, double %2260)
5028   %2264 = getelementptr inbounds %struct.cmplx, ptr %50, i32 0, i32 0
5029   %2265 = load double, ptr %2264, align 8
5030   %2266 = call double @llvm.fmuladd.f64(double 0xBFE4F49E7F775887, double %2265, double %2263)
5031   %2267 = getelementptr inbounds %struct.cmplx, ptr %66, i32 0, i32 0
5032   store double %2266, ptr %2267, align 8
5033   %2268 = getelementptr inbounds %struct.cmplx, ptr %45, i32 0, i32 1
5034   %2269 = load double, ptr %2268, align 8
5035   %2270 = getelementptr inbounds %struct.cmplx, ptr %46, i32 0, i32 1
5036   %2271 = load double, ptr %2270, align 8
5037   %2272 = call double @llvm.fmuladd.f64(double 0xBFC2375F640F44DB, double %2271, double %2269)
5038   %2273 = getelementptr inbounds %struct.cmplx, ptr %47, i32 0, i32 1
5039   %2274 = load double, ptr %2273, align 8
5040   %2275 = call double @llvm.fmuladd.f64(double 0xBFEEB42A9BCD5057, double %2274, double %2272)
5041   %2276 = getelementptr inbounds %struct.cmplx, ptr %48, i32 0, i32 1
5042   %2277 = load double, ptr %2276, align 8
5043   %2278 = call double @llvm.fmuladd.f64(double 0x3FDA9628D9C712B6, double %2277, double %2275)
5044   %2279 = getelementptr inbounds %struct.cmplx, ptr %49, i32 0, i32 1
5045   %2280 = load double, ptr %2279, align 8
5046   %2281 = call double @llvm.fmuladd.f64(double 0x3FEAEB8C8764F0BA, double %2280, double %2278)
5047   %2282 = getelementptr inbounds %struct.cmplx, ptr %50, i32 0, i32 1
5048   %2283 = load double, ptr %2282, align 8
5049   %2284 = call double @llvm.fmuladd.f64(double 0xBFE4F49E7F775887, double %2283, double %2281)
5050   %2285 = getelementptr inbounds %struct.cmplx, ptr %66, i32 0, i32 1
5051   store double %2284, ptr %2285, align 8
5052   %2286 = load double, ptr %19, align 8
5053   %2287 = getelementptr inbounds %struct.cmplx, ptr %55, i32 0, i32 0
5054   %2288 = load double, ptr %2287, align 8
5055   %2289 = load double, ptr %23, align 8
5056   %2290 = getelementptr inbounds %struct.cmplx, ptr %54, i32 0, i32 0
5057   %2291 = load double, ptr %2290, align 8
5058   %2292 = fmul double %2289, %2291
5059   %2293 = fneg double %2292
5060   %2294 = call double @llvm.fmuladd.f64(double %2286, double %2288, double %2293)
5061   %2295 = load double, ptr %17, align 8
5062   %2296 = getelementptr inbounds %struct.cmplx, ptr %53, i32 0, i32 0
5063   %2297 = load double, ptr %2296, align 8
5064   %2298 = fneg double %2295
5065   %2299 = call double @llvm.fmuladd.f64(double %2298, double %2297, double %2294)
5066   %2300 = load double, ptr %15, align 8
5067   %2301 = getelementptr inbounds %struct.cmplx, ptr %52, i32 0, i32 0
5068   %2302 = load double, ptr %2301, align 8
5069   %2303 = call double @llvm.fmuladd.f64(double %2300, double %2302, double %2299)
5070   %2304 = load double, ptr %21, align 8
5071   %2305 = getelementptr inbounds %struct.cmplx, ptr %51, i32 0, i32 0
5072   %2306 = load double, ptr %2305, align 8
5073   %2307 = call double @llvm.fmuladd.f64(double %2304, double %2306, double %2303)
5074   %2308 = getelementptr inbounds %struct.cmplx, ptr %67, i32 0, i32 1
5075   store double %2307, ptr %2308, align 8
5076   %2309 = load double, ptr %19, align 8
5077   %2310 = getelementptr inbounds %struct.cmplx, ptr %55, i32 0, i32 1
5078   %2311 = load double, ptr %2310, align 8
5079   %2312 = load double, ptr %23, align 8
5080   %2313 = getelementptr inbounds %struct.cmplx, ptr %54, i32 0, i32 1
5081   %2314 = load double, ptr %2313, align 8
5082   %2315 = fmul double %2312, %2314
5083   %2316 = fneg double %2315
5084   %2317 = call double @llvm.fmuladd.f64(double %2309, double %2311, double %2316)
5085   %2318 = load double, ptr %17, align 8
5086   %2319 = getelementptr inbounds %struct.cmplx, ptr %53, i32 0, i32 1
5087   %2320 = load double, ptr %2319, align 8
5088   %2321 = fneg double %2318
5089   %2322 = call double @llvm.fmuladd.f64(double %2321, double %2320, double %2317)
5090   %2323 = load double, ptr %15, align 8
5091   %2324 = getelementptr inbounds %struct.cmplx, ptr %52, i32 0, i32 1
5092   %2325 = load double, ptr %2324, align 8
5093   %2326 = call double @llvm.fmuladd.f64(double %2323, double %2325, double %2322)
5094   %2327 = load double, ptr %21, align 8
5095   %2328 = getelementptr inbounds %struct.cmplx, ptr %51, i32 0, i32 1
5096   %2329 = load double, ptr %2328, align 8
5097   %2330 = call double @llvm.fmuladd.f64(double %2327, double %2329, double %2326)
5098   %2331 = fneg double %2330
5099   %2332 = getelementptr inbounds %struct.cmplx, ptr %67, i32 0, i32 0
5100   store double %2331, ptr %2332, align 8
5101   %2333 = getelementptr inbounds %struct.cmplx, ptr %66, i32 0, i32 0
5102   %2334 = load double, ptr %2333, align 8
5103   %2335 = getelementptr inbounds %struct.cmplx, ptr %67, i32 0, i32 0
5104   %2336 = load double, ptr %2335, align 8
5105   %2337 = fadd double %2334, %2336
5106   %2338 = getelementptr inbounds %struct.cmplx, ptr %64, i32 0, i32 0
5107   store double %2337, ptr %2338, align 8
5108   %2339 = getelementptr inbounds %struct.cmplx, ptr %66, i32 0, i32 1
5109   %2340 = load double, ptr %2339, align 8
5110   %2341 = getelementptr inbounds %struct.cmplx, ptr %67, i32 0, i32 1
5111   %2342 = load double, ptr %2341, align 8
5112   %2343 = fadd double %2340, %2342
5113   %2344 = getelementptr inbounds %struct.cmplx, ptr %64, i32 0, i32 1
5114   store double %2343, ptr %2344, align 8
5115   %2345 = getelementptr inbounds %struct.cmplx, ptr %66, i32 0, i32 0
5116   %2346 = load double, ptr %2345, align 8
5117   %2347 = getelementptr inbounds %struct.cmplx, ptr %67, i32 0, i32 0
5118   %2348 = load double, ptr %2347, align 8
5119   %2349 = fsub double %2346, %2348
5120   %2350 = getelementptr inbounds %struct.cmplx, ptr %65, i32 0, i32 0
5121   store double %2349, ptr %2350, align 8
5122   %2351 = getelementptr inbounds %struct.cmplx, ptr %66, i32 0, i32 1
5123   %2352 = load double, ptr %2351, align 8
5124   %2353 = getelementptr inbounds %struct.cmplx, ptr %67, i32 0, i32 1
5125   %2354 = load double, ptr %2353, align 8
5126   %2355 = fsub double %2352, %2354
5127   %2356 = getelementptr inbounds %struct.cmplx, ptr %65, i32 0, i32 1
5128   store double %2355, ptr %2356, align 8
5129   %2357 = load ptr, ptr %11, align 4
5130   %2358 = load i32, ptr %44, align 4
5131   %2359 = sub i32 %2358, 1
5132   %2360 = load i32, ptr %7, align 4
5133   %2361 = sub i32 %2360, 1
5134   %2362 = mul i32 2, %2361
5135   %2363 = add i32 %2359, %2362
5136   %2364 = getelementptr inbounds %struct.cmplx, ptr %2357, i32 %2363
5137   %2365 = getelementptr inbounds %struct.cmplx, ptr %2364, i32 0, i32 0
5138   %2366 = load double, ptr %2365, align 8
5139   %2367 = getelementptr inbounds %struct.cmplx, ptr %64, i32 0, i32 0
5140   %2368 = load double, ptr %2367, align 8
5141   %2369 = load i32, ptr %12, align 4
5142   %2370 = sitofp i32 %2369 to double
5143   %2371 = load ptr, ptr %11, align 4
5144   %2372 = load i32, ptr %44, align 4
5145   %2373 = sub i32 %2372, 1
5146   %2374 = load i32, ptr %7, align 4
5147   %2375 = sub i32 %2374, 1
5148   %2376 = mul i32 2, %2375
5149   %2377 = add i32 %2373, %2376
5150   %2378 = getelementptr inbounds %struct.cmplx, ptr %2371, i32 %2377
5151   %2379 = getelementptr inbounds %struct.cmplx, ptr %2378, i32 0, i32 1
5152   %2380 = load double, ptr %2379, align 8
5153   %2381 = fmul double %2370, %2380
5154   %2382 = getelementptr inbounds %struct.cmplx, ptr %64, i32 0, i32 1
5155   %2383 = load double, ptr %2382, align 8
5156   %2384 = fmul double %2381, %2383
5157   %2385 = fneg double %2384
5158   %2386 = call double @llvm.fmuladd.f64(double %2366, double %2368, double %2385)
5159   %2387 = load ptr, ptr %10, align 4
5160   %2388 = load i32, ptr %44, align 4
5161   %2389 = load i32, ptr %7, align 4
5162   %2390 = load i32, ptr %24, align 4
5163   %2391 = load i32, ptr %8, align 4
5164   %2392 = mul i32 %2391, 3
5165   %2393 = add i32 %2390, %2392
5166   %2394 = mul i32 %2389, %2393
5167   %2395 = add i32 %2388, %2394
5168   %2396 = getelementptr inbounds %struct.cmplx, ptr %2387, i32 %2395
5169   %2397 = getelementptr inbounds %struct.cmplx, ptr %2396, i32 0, i32 0
5170   store double %2386, ptr %2397, align 8
5171   %2398 = load ptr, ptr %11, align 4
5172   %2399 = load i32, ptr %44, align 4
5173   %2400 = sub i32 %2399, 1
5174   %2401 = load i32, ptr %7, align 4
5175   %2402 = sub i32 %2401, 1
5176   %2403 = mul i32 2, %2402
5177   %2404 = add i32 %2400, %2403
5178   %2405 = getelementptr inbounds %struct.cmplx, ptr %2398, i32 %2404
5179   %2406 = getelementptr inbounds %struct.cmplx, ptr %2405, i32 0, i32 0
5180   %2407 = load double, ptr %2406, align 8
5181   %2408 = getelementptr inbounds %struct.cmplx, ptr %64, i32 0, i32 1
5182   %2409 = load double, ptr %2408, align 8
5183   %2410 = load i32, ptr %12, align 4
5184   %2411 = sitofp i32 %2410 to double
5185   %2412 = load ptr, ptr %11, align 4
5186   %2413 = load i32, ptr %44, align 4
5187   %2414 = sub i32 %2413, 1
5188   %2415 = load i32, ptr %7, align 4
5189   %2416 = sub i32 %2415, 1
5190   %2417 = mul i32 2, %2416
5191   %2418 = add i32 %2414, %2417
5192   %2419 = getelementptr inbounds %struct.cmplx, ptr %2412, i32 %2418
5193   %2420 = getelementptr inbounds %struct.cmplx, ptr %2419, i32 0, i32 1
5194   %2421 = load double, ptr %2420, align 8
5195   %2422 = fmul double %2411, %2421
5196   %2423 = getelementptr inbounds %struct.cmplx, ptr %64, i32 0, i32 0
5197   %2424 = load double, ptr %2423, align 8
5198   %2425 = fmul double %2422, %2424
5199   %2426 = call double @llvm.fmuladd.f64(double %2407, double %2409, double %2425)
5200   %2427 = load ptr, ptr %10, align 4
5201   %2428 = load i32, ptr %44, align 4
5202   %2429 = load i32, ptr %7, align 4
5203   %2430 = load i32, ptr %24, align 4
5204   %2431 = load i32, ptr %8, align 4
5205   %2432 = mul i32 %2431, 3
5206   %2433 = add i32 %2430, %2432
5207   %2434 = mul i32 %2429, %2433
5208   %2435 = add i32 %2428, %2434
5209   %2436 = getelementptr inbounds %struct.cmplx, ptr %2427, i32 %2435
5210   %2437 = getelementptr inbounds %struct.cmplx, ptr %2436, i32 0, i32 1
5211   store double %2426, ptr %2437, align 8
5212   %2438 = load ptr, ptr %11, align 4
5213   %2439 = load i32, ptr %44, align 4
5214   %2440 = sub i32 %2439, 1
5215   %2441 = load i32, ptr %7, align 4
5216   %2442 = sub i32 %2441, 1
5217   %2443 = mul i32 7, %2442
5218   %2444 = add i32 %2440, %2443
5219   %2445 = getelementptr inbounds %struct.cmplx, ptr %2438, i32 %2444
5220   %2446 = getelementptr inbounds %struct.cmplx, ptr %2445, i32 0, i32 0
5221   %2447 = load double, ptr %2446, align 8
5222   %2448 = getelementptr inbounds %struct.cmplx, ptr %65, i32 0, i32 0
5223   %2449 = load double, ptr %2448, align 8
5224   %2450 = load i32, ptr %12, align 4
5225   %2451 = sitofp i32 %2450 to double
5226   %2452 = load ptr, ptr %11, align 4
5227   %2453 = load i32, ptr %44, align 4
5228   %2454 = sub i32 %2453, 1
5229   %2455 = load i32, ptr %7, align 4
5230   %2456 = sub i32 %2455, 1
5231   %2457 = mul i32 7, %2456
5232   %2458 = add i32 %2454, %2457
5233   %2459 = getelementptr inbounds %struct.cmplx, ptr %2452, i32 %2458
5234   %2460 = getelementptr inbounds %struct.cmplx, ptr %2459, i32 0, i32 1
5235   %2461 = load double, ptr %2460, align 8
5236   %2462 = fmul double %2451, %2461
5237   %2463 = getelementptr inbounds %struct.cmplx, ptr %65, i32 0, i32 1
5238   %2464 = load double, ptr %2463, align 8
5239   %2465 = fmul double %2462, %2464
5240   %2466 = fneg double %2465
5241   %2467 = call double @llvm.fmuladd.f64(double %2447, double %2449, double %2466)
5242   %2468 = load ptr, ptr %10, align 4
5243   %2469 = load i32, ptr %44, align 4
5244   %2470 = load i32, ptr %7, align 4
5245   %2471 = load i32, ptr %24, align 4
5246   %2472 = load i32, ptr %8, align 4
5247   %2473 = mul i32 %2472, 8
5248   %2474 = add i32 %2471, %2473
5249   %2475 = mul i32 %2470, %2474
5250   %2476 = add i32 %2469, %2475
5251   %2477 = getelementptr inbounds %struct.cmplx, ptr %2468, i32 %2476
5252   %2478 = getelementptr inbounds %struct.cmplx, ptr %2477, i32 0, i32 0
5253   store double %2467, ptr %2478, align 8
5254   %2479 = load ptr, ptr %11, align 4
5255   %2480 = load i32, ptr %44, align 4
5256   %2481 = sub i32 %2480, 1
5257   %2482 = load i32, ptr %7, align 4
5258   %2483 = sub i32 %2482, 1
5259   %2484 = mul i32 7, %2483
5260   %2485 = add i32 %2481, %2484
5261   %2486 = getelementptr inbounds %struct.cmplx, ptr %2479, i32 %2485
5262   %2487 = getelementptr inbounds %struct.cmplx, ptr %2486, i32 0, i32 0
5263   %2488 = load double, ptr %2487, align 8
5264   %2489 = getelementptr inbounds %struct.cmplx, ptr %65, i32 0, i32 1
5265   %2490 = load double, ptr %2489, align 8
5266   %2491 = load i32, ptr %12, align 4
5267   %2492 = sitofp i32 %2491 to double
5268   %2493 = load ptr, ptr %11, align 4
5269   %2494 = load i32, ptr %44, align 4
5270   %2495 = sub i32 %2494, 1
5271   %2496 = load i32, ptr %7, align 4
5272   %2497 = sub i32 %2496, 1
5273   %2498 = mul i32 7, %2497
5274   %2499 = add i32 %2495, %2498
5275   %2500 = getelementptr inbounds %struct.cmplx, ptr %2493, i32 %2499
5276   %2501 = getelementptr inbounds %struct.cmplx, ptr %2500, i32 0, i32 1
5277   %2502 = load double, ptr %2501, align 8
5278   %2503 = fmul double %2492, %2502
5279   %2504 = getelementptr inbounds %struct.cmplx, ptr %65, i32 0, i32 0
5280   %2505 = load double, ptr %2504, align 8
5281   %2506 = fmul double %2503, %2505
5282   %2507 = call double @llvm.fmuladd.f64(double %2488, double %2490, double %2506)
5283   %2508 = load ptr, ptr %10, align 4
5284   %2509 = load i32, ptr %44, align 4
5285   %2510 = load i32, ptr %7, align 4
5286   %2511 = load i32, ptr %24, align 4
5287   %2512 = load i32, ptr %8, align 4
5288   %2513 = mul i32 %2512, 8
5289   %2514 = add i32 %2511, %2513
5290   %2515 = mul i32 %2510, %2514
5291   %2516 = add i32 %2509, %2515
5292   %2517 = getelementptr inbounds %struct.cmplx, ptr %2508, i32 %2516
5293   %2518 = getelementptr inbounds %struct.cmplx, ptr %2517, i32 0, i32 1
5294   store double %2507, ptr %2518, align 8
5295   %2519 = getelementptr inbounds %struct.cmplx, ptr %45, i32 0, i32 0
5296   %2520 = load double, ptr %2519, align 8
5297   %2521 = getelementptr inbounds %struct.cmplx, ptr %46, i32 0, i32 0
5298   %2522 = load double, ptr %2521, align 8
5299   %2523 = call double @llvm.fmuladd.f64(double 0xBFE4F49E7F775887, double %2522, double %2520)
5300   %2524 = getelementptr inbounds %struct.cmplx, ptr %47, i32 0, i32 0
5301   %2525 = load double, ptr %2524, align 8
5302   %2526 = call double @llvm.fmuladd.f64(double 0xBFC2375F640F44DB, double %2525, double %2523)
5303   %2527 = getelementptr inbounds %struct.cmplx, ptr %48, i32 0, i32 0
5304   %2528 = load double, ptr %2527, align 8
5305   %2529 = call double @llvm.fmuladd.f64(double 0x3FEAEB8C8764F0BA, double %2528, double %2526)
5306   %2530 = getelementptr inbounds %struct.cmplx, ptr %49, i32 0, i32 0
5307   %2531 = load double, ptr %2530, align 8
5308   %2532 = call double @llvm.fmuladd.f64(double 0xBFEEB42A9BCD5057, double %2531, double %2529)
5309   %2533 = getelementptr inbounds %struct.cmplx, ptr %50, i32 0, i32 0
5310   %2534 = load double, ptr %2533, align 8
5311   %2535 = call double @llvm.fmuladd.f64(double 0x3FDA9628D9C712B6, double %2534, double %2532)
5312   %2536 = getelementptr inbounds %struct.cmplx, ptr %70, i32 0, i32 0
5313   store double %2535, ptr %2536, align 8
5314   %2537 = getelementptr inbounds %struct.cmplx, ptr %45, i32 0, i32 1
5315   %2538 = load double, ptr %2537, align 8
5316   %2539 = getelementptr inbounds %struct.cmplx, ptr %46, i32 0, i32 1
5317   %2540 = load double, ptr %2539, align 8
5318   %2541 = call double @llvm.fmuladd.f64(double 0xBFE4F49E7F775887, double %2540, double %2538)
5319   %2542 = getelementptr inbounds %struct.cmplx, ptr %47, i32 0, i32 1
5320   %2543 = load double, ptr %2542, align 8
5321   %2544 = call double @llvm.fmuladd.f64(double 0xBFC2375F640F44DB, double %2543, double %2541)
5322   %2545 = getelementptr inbounds %struct.cmplx, ptr %48, i32 0, i32 1
5323   %2546 = load double, ptr %2545, align 8
5324   %2547 = call double @llvm.fmuladd.f64(double 0x3FEAEB8C8764F0BA, double %2546, double %2544)
5325   %2548 = getelementptr inbounds %struct.cmplx, ptr %49, i32 0, i32 1
5326   %2549 = load double, ptr %2548, align 8
5327   %2550 = call double @llvm.fmuladd.f64(double 0xBFEEB42A9BCD5057, double %2549, double %2547)
5328   %2551 = getelementptr inbounds %struct.cmplx, ptr %50, i32 0, i32 1
5329   %2552 = load double, ptr %2551, align 8
5330   %2553 = call double @llvm.fmuladd.f64(double 0x3FDA9628D9C712B6, double %2552, double %2550)
5331   %2554 = getelementptr inbounds %struct.cmplx, ptr %70, i32 0, i32 1
5332   store double %2553, ptr %2554, align 8
5333   %2555 = load double, ptr %21, align 8
5334   %2556 = getelementptr inbounds %struct.cmplx, ptr %55, i32 0, i32 0
5335   %2557 = load double, ptr %2556, align 8
5336   %2558 = load double, ptr %19, align 8
5337   %2559 = getelementptr inbounds %struct.cmplx, ptr %54, i32 0, i32 0
5338   %2560 = load double, ptr %2559, align 8
5339   %2561 = fmul double %2558, %2560
5340   %2562 = fneg double %2561
5341   %2563 = call double @llvm.fmuladd.f64(double %2555, double %2557, double %2562)
5342   %2564 = load double, ptr %15, align 8
5343   %2565 = getelementptr inbounds %struct.cmplx, ptr %53, i32 0, i32 0
5344   %2566 = load double, ptr %2565, align 8
5345   %2567 = call double @llvm.fmuladd.f64(double %2564, double %2566, double %2563)
5346   %2568 = load double, ptr %23, align 8
5347   %2569 = getelementptr inbounds %struct.cmplx, ptr %52, i32 0, i32 0
5348   %2570 = load double, ptr %2569, align 8
5349   %2571 = call double @llvm.fmuladd.f64(double %2568, double %2570, double %2567)
5350   %2572 = load double, ptr %17, align 8
5351   %2573 = getelementptr inbounds %struct.cmplx, ptr %51, i32 0, i32 0
5352   %2574 = load double, ptr %2573, align 8
5353   %2575 = fneg double %2572
5354   %2576 = call double @llvm.fmuladd.f64(double %2575, double %2574, double %2571)
5355   %2577 = getelementptr inbounds %struct.cmplx, ptr %71, i32 0, i32 1
5356   store double %2576, ptr %2577, align 8
5357   %2578 = load double, ptr %21, align 8
5358   %2579 = getelementptr inbounds %struct.cmplx, ptr %55, i32 0, i32 1
5359   %2580 = load double, ptr %2579, align 8
5360   %2581 = load double, ptr %19, align 8
5361   %2582 = getelementptr inbounds %struct.cmplx, ptr %54, i32 0, i32 1
5362   %2583 = load double, ptr %2582, align 8
5363   %2584 = fmul double %2581, %2583
5364   %2585 = fneg double %2584
5365   %2586 = call double @llvm.fmuladd.f64(double %2578, double %2580, double %2585)
5366   %2587 = load double, ptr %15, align 8
5367   %2588 = getelementptr inbounds %struct.cmplx, ptr %53, i32 0, i32 1
5368   %2589 = load double, ptr %2588, align 8
5369   %2590 = call double @llvm.fmuladd.f64(double %2587, double %2589, double %2586)
5370   %2591 = load double, ptr %23, align 8
5371   %2592 = getelementptr inbounds %struct.cmplx, ptr %52, i32 0, i32 1
5372   %2593 = load double, ptr %2592, align 8
5373   %2594 = call double @llvm.fmuladd.f64(double %2591, double %2593, double %2590)
5374   %2595 = load double, ptr %17, align 8
5375   %2596 = getelementptr inbounds %struct.cmplx, ptr %51, i32 0, i32 1
5376   %2597 = load double, ptr %2596, align 8
5377   %2598 = fneg double %2595
5378   %2599 = call double @llvm.fmuladd.f64(double %2598, double %2597, double %2594)
5379   %2600 = fneg double %2599
5380   %2601 = getelementptr inbounds %struct.cmplx, ptr %71, i32 0, i32 0
5381   store double %2600, ptr %2601, align 8
5382   %2602 = getelementptr inbounds %struct.cmplx, ptr %70, i32 0, i32 0
5383   %2603 = load double, ptr %2602, align 8
5384   %2604 = getelementptr inbounds %struct.cmplx, ptr %71, i32 0, i32 0
5385   %2605 = load double, ptr %2604, align 8
5386   %2606 = fadd double %2603, %2605
5387   %2607 = getelementptr inbounds %struct.cmplx, ptr %68, i32 0, i32 0
5388   store double %2606, ptr %2607, align 8
5389   %2608 = getelementptr inbounds %struct.cmplx, ptr %70, i32 0, i32 1
5390   %2609 = load double, ptr %2608, align 8
5391   %2610 = getelementptr inbounds %struct.cmplx, ptr %71, i32 0, i32 1
5392   %2611 = load double, ptr %2610, align 8
5393   %2612 = fadd double %2609, %2611
5394   %2613 = getelementptr inbounds %struct.cmplx, ptr %68, i32 0, i32 1
5395   store double %2612, ptr %2613, align 8
5396   %2614 = getelementptr inbounds %struct.cmplx, ptr %70, i32 0, i32 0
5397   %2615 = load double, ptr %2614, align 8
5398   %2616 = getelementptr inbounds %struct.cmplx, ptr %71, i32 0, i32 0
5399   %2617 = load double, ptr %2616, align 8
5400   %2618 = fsub double %2615, %2617
5401   %2619 = getelementptr inbounds %struct.cmplx, ptr %69, i32 0, i32 0
5402   store double %2618, ptr %2619, align 8
5403   %2620 = getelementptr inbounds %struct.cmplx, ptr %70, i32 0, i32 1
5404   %2621 = load double, ptr %2620, align 8
5405   %2622 = getelementptr inbounds %struct.cmplx, ptr %71, i32 0, i32 1
5406   %2623 = load double, ptr %2622, align 8
5407   %2624 = fsub double %2621, %2623
5408   %2625 = getelementptr inbounds %struct.cmplx, ptr %69, i32 0, i32 1
5409   store double %2624, ptr %2625, align 8
5410   %2626 = load ptr, ptr %11, align 4
5411   %2627 = load i32, ptr %44, align 4
5412   %2628 = sub i32 %2627, 1
5413   %2629 = load i32, ptr %7, align 4
5414   %2630 = sub i32 %2629, 1
5415   %2631 = mul i32 3, %2630
5416   %2632 = add i32 %2628, %2631
5417   %2633 = getelementptr inbounds %struct.cmplx, ptr %2626, i32 %2632
5418   %2634 = getelementptr inbounds %struct.cmplx, ptr %2633, i32 0, i32 0
5419   %2635 = load double, ptr %2634, align 8
5420   %2636 = getelementptr inbounds %struct.cmplx, ptr %68, i32 0, i32 0
5421   %2637 = load double, ptr %2636, align 8
5422   %2638 = load i32, ptr %12, align 4
5423   %2639 = sitofp i32 %2638 to double
5424   %2640 = load ptr, ptr %11, align 4
5425   %2641 = load i32, ptr %44, align 4
5426   %2642 = sub i32 %2641, 1
5427   %2643 = load i32, ptr %7, align 4
5428   %2644 = sub i32 %2643, 1
5429   %2645 = mul i32 3, %2644
5430   %2646 = add i32 %2642, %2645
5431   %2647 = getelementptr inbounds %struct.cmplx, ptr %2640, i32 %2646
5432   %2648 = getelementptr inbounds %struct.cmplx, ptr %2647, i32 0, i32 1
5433   %2649 = load double, ptr %2648, align 8
5434   %2650 = fmul double %2639, %2649
5435   %2651 = getelementptr inbounds %struct.cmplx, ptr %68, i32 0, i32 1
5436   %2652 = load double, ptr %2651, align 8
5437   %2653 = fmul double %2650, %2652
5438   %2654 = fneg double %2653
5439   %2655 = call double @llvm.fmuladd.f64(double %2635, double %2637, double %2654)
5440   %2656 = load ptr, ptr %10, align 4
5441   %2657 = load i32, ptr %44, align 4
5442   %2658 = load i32, ptr %7, align 4
5443   %2659 = load i32, ptr %24, align 4
5444   %2660 = load i32, ptr %8, align 4
5445   %2661 = mul i32 %2660, 4
5446   %2662 = add i32 %2659, %2661
5447   %2663 = mul i32 %2658, %2662
5448   %2664 = add i32 %2657, %2663
5449   %2665 = getelementptr inbounds %struct.cmplx, ptr %2656, i32 %2664
5450   %2666 = getelementptr inbounds %struct.cmplx, ptr %2665, i32 0, i32 0
5451   store double %2655, ptr %2666, align 8
5452   %2667 = load ptr, ptr %11, align 4
5453   %2668 = load i32, ptr %44, align 4
5454   %2669 = sub i32 %2668, 1
5455   %2670 = load i32, ptr %7, align 4
5456   %2671 = sub i32 %2670, 1
5457   %2672 = mul i32 3, %2671
5458   %2673 = add i32 %2669, %2672
5459   %2674 = getelementptr inbounds %struct.cmplx, ptr %2667, i32 %2673
5460   %2675 = getelementptr inbounds %struct.cmplx, ptr %2674, i32 0, i32 0
5461   %2676 = load double, ptr %2675, align 8
5462   %2677 = getelementptr inbounds %struct.cmplx, ptr %68, i32 0, i32 1
5463   %2678 = load double, ptr %2677, align 8
5464   %2679 = load i32, ptr %12, align 4
5465   %2680 = sitofp i32 %2679 to double
5466   %2681 = load ptr, ptr %11, align 4
5467   %2682 = load i32, ptr %44, align 4
5468   %2683 = sub i32 %2682, 1
5469   %2684 = load i32, ptr %7, align 4
5470   %2685 = sub i32 %2684, 1
5471   %2686 = mul i32 3, %2685
5472   %2687 = add i32 %2683, %2686
5473   %2688 = getelementptr inbounds %struct.cmplx, ptr %2681, i32 %2687
5474   %2689 = getelementptr inbounds %struct.cmplx, ptr %2688, i32 0, i32 1
5475   %2690 = load double, ptr %2689, align 8
5476   %2691 = fmul double %2680, %2690
5477   %2692 = getelementptr inbounds %struct.cmplx, ptr %68, i32 0, i32 0
5478   %2693 = load double, ptr %2692, align 8
5479   %2694 = fmul double %2691, %2693
5480   %2695 = call double @llvm.fmuladd.f64(double %2676, double %2678, double %2694)
5481   %2696 = load ptr, ptr %10, align 4
5482   %2697 = load i32, ptr %44, align 4
5483   %2698 = load i32, ptr %7, align 4
5484   %2699 = load i32, ptr %24, align 4
5485   %2700 = load i32, ptr %8, align 4
5486   %2701 = mul i32 %2700, 4
5487   %2702 = add i32 %2699, %2701
5488   %2703 = mul i32 %2698, %2702
5489   %2704 = add i32 %2697, %2703
5490   %2705 = getelementptr inbounds %struct.cmplx, ptr %2696, i32 %2704
5491   %2706 = getelementptr inbounds %struct.cmplx, ptr %2705, i32 0, i32 1
5492   store double %2695, ptr %2706, align 8
5493   %2707 = load ptr, ptr %11, align 4
5494   %2708 = load i32, ptr %44, align 4
5495   %2709 = sub i32 %2708, 1
5496   %2710 = load i32, ptr %7, align 4
5497   %2711 = sub i32 %2710, 1
5498   %2712 = mul i32 6, %2711
5499   %2713 = add i32 %2709, %2712
5500   %2714 = getelementptr inbounds %struct.cmplx, ptr %2707, i32 %2713
5501   %2715 = getelementptr inbounds %struct.cmplx, ptr %2714, i32 0, i32 0
5502   %2716 = load double, ptr %2715, align 8
5503   %2717 = getelementptr inbounds %struct.cmplx, ptr %69, i32 0, i32 0
5504   %2718 = load double, ptr %2717, align 8
5505   %2719 = load i32, ptr %12, align 4
5506   %2720 = sitofp i32 %2719 to double
5507   %2721 = load ptr, ptr %11, align 4
5508   %2722 = load i32, ptr %44, align 4
5509   %2723 = sub i32 %2722, 1
5510   %2724 = load i32, ptr %7, align 4
5511   %2725 = sub i32 %2724, 1
5512   %2726 = mul i32 6, %2725
5513   %2727 = add i32 %2723, %2726
5514   %2728 = getelementptr inbounds %struct.cmplx, ptr %2721, i32 %2727
5515   %2729 = getelementptr inbounds %struct.cmplx, ptr %2728, i32 0, i32 1
5516   %2730 = load double, ptr %2729, align 8
5517   %2731 = fmul double %2720, %2730
5518   %2732 = getelementptr inbounds %struct.cmplx, ptr %69, i32 0, i32 1
5519   %2733 = load double, ptr %2732, align 8
5520   %2734 = fmul double %2731, %2733
5521   %2735 = fneg double %2734
5522   %2736 = call double @llvm.fmuladd.f64(double %2716, double %2718, double %2735)
5523   %2737 = load ptr, ptr %10, align 4
5524   %2738 = load i32, ptr %44, align 4
5525   %2739 = load i32, ptr %7, align 4
5526   %2740 = load i32, ptr %24, align 4
5527   %2741 = load i32, ptr %8, align 4
5528   %2742 = mul i32 %2741, 7
5529   %2743 = add i32 %2740, %2742
5530   %2744 = mul i32 %2739, %2743
5531   %2745 = add i32 %2738, %2744
5532   %2746 = getelementptr inbounds %struct.cmplx, ptr %2737, i32 %2745
5533   %2747 = getelementptr inbounds %struct.cmplx, ptr %2746, i32 0, i32 0
5534   store double %2736, ptr %2747, align 8
5535   %2748 = load ptr, ptr %11, align 4
5536   %2749 = load i32, ptr %44, align 4
5537   %2750 = sub i32 %2749, 1
5538   %2751 = load i32, ptr %7, align 4
5539   %2752 = sub i32 %2751, 1
5540   %2753 = mul i32 6, %2752
5541   %2754 = add i32 %2750, %2753
5542   %2755 = getelementptr inbounds %struct.cmplx, ptr %2748, i32 %2754
5543   %2756 = getelementptr inbounds %struct.cmplx, ptr %2755, i32 0, i32 0
5544   %2757 = load double, ptr %2756, align 8
5545   %2758 = getelementptr inbounds %struct.cmplx, ptr %69, i32 0, i32 1
5546   %2759 = load double, ptr %2758, align 8
5547   %2760 = load i32, ptr %12, align 4
5548   %2761 = sitofp i32 %2760 to double
5549   %2762 = load ptr, ptr %11, align 4
5550   %2763 = load i32, ptr %44, align 4
5551   %2764 = sub i32 %2763, 1
5552   %2765 = load i32, ptr %7, align 4
5553   %2766 = sub i32 %2765, 1
5554   %2767 = mul i32 6, %2766
5555   %2768 = add i32 %2764, %2767
5556   %2769 = getelementptr inbounds %struct.cmplx, ptr %2762, i32 %2768
5557   %2770 = getelementptr inbounds %struct.cmplx, ptr %2769, i32 0, i32 1
5558   %2771 = load double, ptr %2770, align 8
5559   %2772 = fmul double %2761, %2771
5560   %2773 = getelementptr inbounds %struct.cmplx, ptr %69, i32 0, i32 0
5561   %2774 = load double, ptr %2773, align 8
5562   %2775 = fmul double %2772, %2774
5563   %2776 = call double @llvm.fmuladd.f64(double %2757, double %2759, double %2775)
5564   %2777 = load ptr, ptr %10, align 4
5565   %2778 = load i32, ptr %44, align 4
5566   %2779 = load i32, ptr %7, align 4
5567   %2780 = load i32, ptr %24, align 4
5568   %2781 = load i32, ptr %8, align 4
5569   %2782 = mul i32 %2781, 7
5570   %2783 = add i32 %2780, %2782
5571   %2784 = mul i32 %2779, %2783
5572   %2785 = add i32 %2778, %2784
5573   %2786 = getelementptr inbounds %struct.cmplx, ptr %2777, i32 %2785
5574   %2787 = getelementptr inbounds %struct.cmplx, ptr %2786, i32 0, i32 1
5575   store double %2776, ptr %2787, align 8
5576   br label %2788
5578 2788:                                             ; preds = %1168
5579   %2789 = load i32, ptr %44, align 4
5580   %2790 = add i32 %2789, 1
5581   store i32 %2790, ptr %44, align 4
5582   br label %1164, !llvm.loop !4
5584 2791:                                             ; preds = %1164
5585   br label %2792
5587 2792:                                             ; preds = %2791
5588   %2793 = load i32, ptr %24, align 4
5589   %2794 = add i32 %2793, 1
5590   store i32 %2794, ptr %24, align 4
5591   br label %87, !llvm.loop !6
5593 2795:                                             ; preds = %87
5594   ret void
5597 ; Function Attrs: nocallback nofree nounwind willreturn memory(argmem: readwrite)
5598 declare void @llvm.memcpy.p0.p0.i32(ptr noalias nocapture writeonly, ptr noalias nocapture readonly, i32, i1 immarg) #2
5600 ; Function Attrs: nocallback nofree nosync nounwind speculatable willreturn memory(none)
5601 declare double @llvm.fmuladd.f64(double, double, double) #3
5603 attributes #0 = { noinline nounwind optnone uwtable "frame-pointer"="all" "no-trapping-math"="true" "stack-protector-buffer-size"="8" "target-cpu"="e500" "target-features"="+spe,-altivec,-bpermd,-crbits,-crypto,-direct-move,-extdiv,-htm,-isa-v206-instructions,-isa-v207-instructions,-isa-v30-instructions,-power8-vector,-power9-vector,-privileged,-quadword-atomics,-rop-protect,-vsx" }
5604 attributes #1 = { "frame-pointer"="all" "no-trapping-math"="true" "stack-protector-buffer-size"="8" "target-cpu"="e500" "target-features"="+spe,-altivec,-bpermd,-crbits,-crypto,-direct-move,-extdiv,-htm,-isa-v206-instructions,-isa-v207-instructions,-isa-v30-instructions,-power8-vector,-power9-vector,-privileged,-quadword-atomics,-rop-protect,-vsx" }
5605 attributes #2 = { nocallback nofree nounwind willreturn memory(argmem: readwrite) }
5606 attributes #3 = { nocallback nofree nosync nounwind speculatable willreturn memory(none) }
5608 !llvm.module.flags = !{!0, !1, !2}
5609 !llvm.ident = !{!3}
5611 !0 = !{i32 1, !"wchar_size", i32 4}
5612 !1 = !{i32 7, !"uwtable", i32 2}
5613 !2 = !{i32 7, !"frame-pointer", i32 2}
5614 !3 = !{!"clang version 17.0.0 (https://github.com/llvm/llvm-project.git 69db592f762ade86508826a7b3c9d5434c4837e2)"}
5615 !4 = distinct !{!4, !5}
5616 !5 = !{!"llvm.loop.mustprogress"}
5617 !6 = distinct !{!6, !5}
5618 ;; NOTE: These prefixes are unused and the list is autogenerated. Do not add tests below this line:
5619 ; SPE: {{.*}}