Run DCE after a LoopFlatten test to reduce spurious output [nfc]
[llvm-project.git] / llvm / test / CodeGen / ARM / ParallelDSP / complex_dot_prod.ll
blobffa808b459226a3f068b4ab455b7ca5e6820cc68
1 ; NOTE: Assertions have been autogenerated by utils/update_test_checks.py
2 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
3 ; RUN: llc -mtriple=thumbv7em -mcpu=cortex-m4 -O3 %s -o - | FileCheck %s --check-prefix=CHECK-LLC
4 ; RUN: opt -S -mtriple=armv7-a -arm-parallel-dsp -dce %s -o - | FileCheck %s --check-prefix=CHECK-OPT
6 define dso_local arm_aapcscc void @complex_dot_prod(ptr nocapture readonly %pSrcA, ptr nocapture readonly %pSrcB, ptr nocapture %realResult, ptr nocapture %imagResult) {
7 ; CHECK-LLC-LABEL: complex_dot_prod:
8 ; CHECK-LLC:       @ %bb.0: @ %entry
9 ; CHECK-LLC-NEXT:    push.w {r4, r5, r6, r7, r8, r9, r10, r11, lr}
10 ; CHECK-LLC-NEXT:    ldr r5, [r0]
11 ; CHECK-LLC-NEXT:    ldr r7, [r1]
12 ; CHECK-LLC-NEXT:    ldr.w r10, [r0, #4]
13 ; CHECK-LLC-NEXT:    ldr.w r8, [r0, #8]
14 ; CHECK-LLC-NEXT:    ldr.w r12, [r0, #12]
15 ; CHECK-LLC-NEXT:    ldr r4, [r1, #4]
16 ; CHECK-LLC-NEXT:    ldr.w r9, [r1, #8]
17 ; CHECK-LLC-NEXT:    ldr.w lr, [r1, #12]
18 ; CHECK-LLC-NEXT:    movs r0, #0
19 ; CHECK-LLC-NEXT:    movs r1, #0
20 ; CHECK-LLC-NEXT:    smlaldx r0, r1, r5, r7
21 ; CHECK-LLC-NEXT:    smulbb r6, r7, r5
22 ; CHECK-LLC-NEXT:    smultt r5, r7, r5
23 ; CHECK-LLC-NEXT:    asr.w r11, r6, #31
24 ; CHECK-LLC-NEXT:    subs r6, r6, r5
25 ; CHECK-LLC-NEXT:    sbc.w r5, r11, r5, asr #31
26 ; CHECK-LLC-NEXT:    smlaldx r0, r1, r10, r4
27 ; CHECK-LLC-NEXT:    smlalbb r6, r5, r4, r10
28 ; CHECK-LLC-NEXT:    smultt r4, r4, r10
29 ; CHECK-LLC-NEXT:    subs r6, r6, r4
30 ; CHECK-LLC-NEXT:    sbc.w r4, r5, r4, asr #31
31 ; CHECK-LLC-NEXT:    smlalbb r6, r4, r9, r8
32 ; CHECK-LLC-NEXT:    smultt r5, r9, r8
33 ; CHECK-LLC-NEXT:    subs r6, r6, r5
34 ; CHECK-LLC-NEXT:    sbc.w r4, r4, r5, asr #31
35 ; CHECK-LLC-NEXT:    smlaldx r0, r1, r8, r9
36 ; CHECK-LLC-NEXT:    smlalbb r6, r4, lr, r12
37 ; CHECK-LLC-NEXT:    smultt r7, lr, r12
38 ; CHECK-LLC-NEXT:    smlaldx r0, r1, r12, lr
39 ; CHECK-LLC-NEXT:    subs r6, r6, r7
40 ; CHECK-LLC-NEXT:    sbc.w r7, r4, r7, asr #31
41 ; CHECK-LLC-NEXT:    lsrs r6, r6, #6
42 ; CHECK-LLC-NEXT:    lsrs r0, r0, #6
43 ; CHECK-LLC-NEXT:    orr.w r7, r6, r7, lsl #26
44 ; CHECK-LLC-NEXT:    orr.w r0, r0, r1, lsl #26
45 ; CHECK-LLC-NEXT:    str r7, [r2]
46 ; CHECK-LLC-NEXT:    str r0, [r3]
47 ; CHECK-LLC-NEXT:    pop.w {r4, r5, r6, r7, r8, r9, r10, r11, pc}
48 ; CHECK-LCC: pop.w {r4, r5, r6, r7, r8, r9, r10, pc}
50 ; CHECK-OPT-LABEL: @complex_dot_prod(
51 ; CHECK-OPT-NEXT:  entry:
52 ; CHECK-OPT-NEXT:    [[TMP1:%.*]] = load i32, ptr [[PSRCA:%.*]], align 2
53 ; CHECK-OPT-NEXT:    [[TMP2:%.*]] = trunc i32 [[TMP1]] to i16
54 ; CHECK-OPT-NEXT:    [[TMP3:%.*]] = sext i16 [[TMP2]] to i32
55 ; CHECK-OPT-NEXT:    [[TMP4:%.*]] = lshr i32 [[TMP1]], 16
56 ; CHECK-OPT-NEXT:    [[TMP5:%.*]] = trunc i32 [[TMP4]] to i16
57 ; CHECK-OPT-NEXT:    [[TMP6:%.*]] = sext i16 [[TMP5]] to i32
58 ; CHECK-OPT-NEXT:    [[INCDEC_PTR1:%.*]] = getelementptr inbounds i16, ptr [[PSRCA]], i32 2
59 ; CHECK-OPT-NEXT:    [[TMP8:%.*]] = load i32, ptr [[PSRCB:%.*]], align 2
60 ; CHECK-OPT-NEXT:    [[TMP9:%.*]] = trunc i32 [[TMP8]] to i16
61 ; CHECK-OPT-NEXT:    [[TMP10:%.*]] = call i64 @llvm.arm.smlaldx(i32 [[TMP1]], i32 [[TMP8]], i64 0)
62 ; CHECK-OPT-NEXT:    [[TMP11:%.*]] = sext i16 [[TMP9]] to i32
63 ; CHECK-OPT-NEXT:    [[TMP12:%.*]] = lshr i32 [[TMP8]], 16
64 ; CHECK-OPT-NEXT:    [[TMP13:%.*]] = trunc i32 [[TMP12]] to i16
65 ; CHECK-OPT-NEXT:    [[TMP14:%.*]] = sext i16 [[TMP13]] to i32
66 ; CHECK-OPT-NEXT:    [[INCDEC_PTR3:%.*]] = getelementptr inbounds i16, ptr [[PSRCB]], i32 2
67 ; CHECK-OPT-NEXT:    [[MUL:%.*]] = mul nsw i32 [[TMP11]], [[TMP3]]
68 ; CHECK-OPT-NEXT:    [[CONV5:%.*]] = sext i32 [[MUL]] to i64
69 ; CHECK-OPT-NEXT:    [[MUL13:%.*]] = mul nsw i32 [[TMP14]], [[TMP6]]
70 ; CHECK-OPT-NEXT:    [[CONV14:%.*]] = sext i32 [[MUL13]] to i64
71 ; CHECK-OPT-NEXT:    [[SUB:%.*]] = sub nsw i64 [[CONV5]], [[CONV14]]
72 ; CHECK-OPT-NEXT:    [[TMP16:%.*]] = load i32, ptr [[INCDEC_PTR1]], align 2
73 ; CHECK-OPT-NEXT:    [[TMP17:%.*]] = trunc i32 [[TMP16]] to i16
74 ; CHECK-OPT-NEXT:    [[TMP18:%.*]] = sext i16 [[TMP17]] to i32
75 ; CHECK-OPT-NEXT:    [[TMP19:%.*]] = lshr i32 [[TMP16]], 16
76 ; CHECK-OPT-NEXT:    [[TMP20:%.*]] = trunc i32 [[TMP19]] to i16
77 ; CHECK-OPT-NEXT:    [[TMP21:%.*]] = sext i16 [[TMP20]] to i32
78 ; CHECK-OPT-NEXT:    [[INCDEC_PTR21:%.*]] = getelementptr inbounds i16, ptr [[PSRCA]], i32 4
79 ; CHECK-OPT-NEXT:    [[TMP23:%.*]] = load i32, ptr [[INCDEC_PTR3]], align 2
80 ; CHECK-OPT-NEXT:    [[TMP24:%.*]] = trunc i32 [[TMP23]] to i16
81 ; CHECK-OPT-NEXT:    [[TMP25:%.*]] = call i64 @llvm.arm.smlaldx(i32 [[TMP16]], i32 [[TMP23]], i64 [[TMP10]])
82 ; CHECK-OPT-NEXT:    [[TMP26:%.*]] = sext i16 [[TMP24]] to i32
83 ; CHECK-OPT-NEXT:    [[TMP27:%.*]] = lshr i32 [[TMP23]], 16
84 ; CHECK-OPT-NEXT:    [[TMP28:%.*]] = trunc i32 [[TMP27]] to i16
85 ; CHECK-OPT-NEXT:    [[TMP29:%.*]] = sext i16 [[TMP28]] to i32
86 ; CHECK-OPT-NEXT:    [[INCDEC_PTR23:%.*]] = getelementptr inbounds i16, ptr [[PSRCB]], i32 4
87 ; CHECK-OPT-NEXT:    [[MUL26:%.*]] = mul nsw i32 [[TMP26]], [[TMP18]]
88 ; CHECK-OPT-NEXT:    [[CONV27:%.*]] = sext i32 [[MUL26]] to i64
89 ; CHECK-OPT-NEXT:    [[ADD28:%.*]] = add nsw i64 [[SUB]], [[CONV27]]
90 ; CHECK-OPT-NEXT:    [[MUL36:%.*]] = mul nsw i32 [[TMP29]], [[TMP21]]
91 ; CHECK-OPT-NEXT:    [[CONV37:%.*]] = sext i32 [[MUL36]] to i64
92 ; CHECK-OPT-NEXT:    [[SUB38:%.*]] = sub nsw i64 [[ADD28]], [[CONV37]]
93 ; CHECK-OPT-NEXT:    [[TMP31:%.*]] = load i32, ptr [[INCDEC_PTR21]], align 2
94 ; CHECK-OPT-NEXT:    [[TMP32:%.*]] = trunc i32 [[TMP31]] to i16
95 ; CHECK-OPT-NEXT:    [[TMP33:%.*]] = sext i16 [[TMP32]] to i32
96 ; CHECK-OPT-NEXT:    [[TMP34:%.*]] = lshr i32 [[TMP31]], 16
97 ; CHECK-OPT-NEXT:    [[TMP35:%.*]] = trunc i32 [[TMP34]] to i16
98 ; CHECK-OPT-NEXT:    [[TMP36:%.*]] = sext i16 [[TMP35]] to i32
99 ; CHECK-OPT-NEXT:    [[INCDEC_PTR45:%.*]] = getelementptr inbounds i16, ptr [[PSRCA]], i32 6
100 ; CHECK-OPT-NEXT:    [[TMP38:%.*]] = load i32, ptr [[INCDEC_PTR23]], align 2
101 ; CHECK-OPT-NEXT:    [[TMP39:%.*]] = trunc i32 [[TMP38]] to i16
102 ; CHECK-OPT-NEXT:    [[TMP40:%.*]] = call i64 @llvm.arm.smlaldx(i32 [[TMP31]], i32 [[TMP38]], i64 [[TMP25]])
103 ; CHECK-OPT-NEXT:    [[TMP41:%.*]] = sext i16 [[TMP39]] to i32
104 ; CHECK-OPT-NEXT:    [[TMP42:%.*]] = lshr i32 [[TMP38]], 16
105 ; CHECK-OPT-NEXT:    [[TMP43:%.*]] = trunc i32 [[TMP42]] to i16
106 ; CHECK-OPT-NEXT:    [[TMP44:%.*]] = sext i16 [[TMP43]] to i32
107 ; CHECK-OPT-NEXT:    [[INCDEC_PTR47:%.*]] = getelementptr inbounds i16, ptr [[PSRCB]], i32 6
108 ; CHECK-OPT-NEXT:    [[MUL50:%.*]] = mul nsw i32 [[TMP41]], [[TMP33]]
109 ; CHECK-OPT-NEXT:    [[CONV51:%.*]] = sext i32 [[MUL50]] to i64
110 ; CHECK-OPT-NEXT:    [[ADD52:%.*]] = add nsw i64 [[SUB38]], [[CONV51]]
111 ; CHECK-OPT-NEXT:    [[MUL60:%.*]] = mul nsw i32 [[TMP44]], [[TMP36]]
112 ; CHECK-OPT-NEXT:    [[CONV61:%.*]] = sext i32 [[MUL60]] to i64
113 ; CHECK-OPT-NEXT:    [[SUB62:%.*]] = sub nsw i64 [[ADD52]], [[CONV61]]
114 ; CHECK-OPT-NEXT:    [[TMP46:%.*]] = load i32, ptr [[INCDEC_PTR45]], align 2
115 ; CHECK-OPT-NEXT:    [[TMP47:%.*]] = trunc i32 [[TMP46]] to i16
116 ; CHECK-OPT-NEXT:    [[TMP48:%.*]] = sext i16 [[TMP47]] to i32
117 ; CHECK-OPT-NEXT:    [[TMP49:%.*]] = lshr i32 [[TMP46]], 16
118 ; CHECK-OPT-NEXT:    [[TMP50:%.*]] = trunc i32 [[TMP49]] to i16
119 ; CHECK-OPT-NEXT:    [[TMP51:%.*]] = sext i16 [[TMP50]] to i32
120 ; CHECK-OPT-NEXT:    [[TMP53:%.*]] = load i32, ptr [[INCDEC_PTR47]], align 2
121 ; CHECK-OPT-NEXT:    [[TMP54:%.*]] = trunc i32 [[TMP53]] to i16
122 ; CHECK-OPT-NEXT:    [[TMP55:%.*]] = call i64 @llvm.arm.smlaldx(i32 [[TMP46]], i32 [[TMP53]], i64 [[TMP40]])
123 ; CHECK-OPT-NEXT:    [[TMP56:%.*]] = sext i16 [[TMP54]] to i32
124 ; CHECK-OPT-NEXT:    [[TMP57:%.*]] = lshr i32 [[TMP53]], 16
125 ; CHECK-OPT-NEXT:    [[TMP58:%.*]] = trunc i32 [[TMP57]] to i16
126 ; CHECK-OPT-NEXT:    [[TMP59:%.*]] = sext i16 [[TMP58]] to i32
127 ; CHECK-OPT-NEXT:    [[MUL74:%.*]] = mul nsw i32 [[TMP56]], [[TMP48]]
128 ; CHECK-OPT-NEXT:    [[CONV75:%.*]] = sext i32 [[MUL74]] to i64
129 ; CHECK-OPT-NEXT:    [[ADD76:%.*]] = add nsw i64 [[SUB62]], [[CONV75]]
130 ; CHECK-OPT-NEXT:    [[MUL84:%.*]] = mul nsw i32 [[TMP59]], [[TMP51]]
131 ; CHECK-OPT-NEXT:    [[CONV85:%.*]] = sext i32 [[MUL84]] to i64
132 ; CHECK-OPT-NEXT:    [[SUB86:%.*]] = sub nsw i64 [[ADD76]], [[CONV85]]
133 ; CHECK-OPT-NEXT:    [[TMP60:%.*]] = lshr i64 [[SUB86]], 6
134 ; CHECK-OPT-NEXT:    [[CONV92:%.*]] = trunc i64 [[TMP60]] to i32
135 ; CHECK-OPT-NEXT:    store i32 [[CONV92]], ptr [[REALRESULT:%.*]], align 4
136 ; CHECK-OPT-NEXT:    [[TMP61:%.*]] = lshr i64 [[TMP55]], 6
137 ; CHECK-OPT-NEXT:    [[CONV94:%.*]] = trunc i64 [[TMP61]] to i32
138 ; CHECK-OPT-NEXT:    store i32 [[CONV94]], ptr [[IMAGRESULT:%.*]], align 4
139 ; CHECK-OPT-NEXT:    ret void
140 entry:
141   %incdec.ptr = getelementptr inbounds i16, ptr %pSrcA, i32 1
142   %0 = load i16, ptr %pSrcA, align 2
143   %incdec.ptr1 = getelementptr inbounds i16, ptr %pSrcA, i32 2
144   %1 = load i16, ptr %incdec.ptr, align 2
145   %incdec.ptr2 = getelementptr inbounds i16, ptr %pSrcB, i32 1
146   %2 = load i16, ptr %pSrcB, align 2
147   %incdec.ptr3 = getelementptr inbounds i16, ptr %pSrcB, i32 2
148   %3 = load i16, ptr %incdec.ptr2, align 2
149   %conv = sext i16 %0 to i32
150   %conv4 = sext i16 %2 to i32
151   %mul = mul nsw i32 %conv4, %conv
152   %conv5 = sext i32 %mul to i64
153   %conv7 = sext i16 %3 to i32
154   %mul8 = mul nsw i32 %conv7, %conv
155   %conv9 = sext i32 %mul8 to i64
156   %conv11 = sext i16 %1 to i32
157   %mul13 = mul nsw i32 %conv7, %conv11
158   %conv14 = sext i32 %mul13 to i64
159   %sub = sub nsw i64 %conv5, %conv14
160   %mul17 = mul nsw i32 %conv4, %conv11
161   %conv18 = sext i32 %mul17 to i64
162   %add19 = add nsw i64 %conv9, %conv18
163   %incdec.ptr20 = getelementptr inbounds i16, ptr %pSrcA, i32 3
164   %4 = load i16, ptr %incdec.ptr1, align 2
165   %incdec.ptr21 = getelementptr inbounds i16, ptr %pSrcA, i32 4
166   %5 = load i16, ptr %incdec.ptr20, align 2
167   %incdec.ptr22 = getelementptr inbounds i16, ptr %pSrcB, i32 3
168   %6 = load i16, ptr %incdec.ptr3, align 2
169   %incdec.ptr23 = getelementptr inbounds i16, ptr %pSrcB, i32 4
170   %7 = load i16, ptr %incdec.ptr22, align 2
171   %conv24 = sext i16 %4 to i32
172   %conv25 = sext i16 %6 to i32
173   %mul26 = mul nsw i32 %conv25, %conv24
174   %conv27 = sext i32 %mul26 to i64
175   %add28 = add nsw i64 %sub, %conv27
176   %conv30 = sext i16 %7 to i32
177   %mul31 = mul nsw i32 %conv30, %conv24
178   %conv32 = sext i32 %mul31 to i64
179   %conv34 = sext i16 %5 to i32
180   %mul36 = mul nsw i32 %conv30, %conv34
181   %conv37 = sext i32 %mul36 to i64
182   %sub38 = sub nsw i64 %add28, %conv37
183   %mul41 = mul nsw i32 %conv25, %conv34
184   %conv42 = sext i32 %mul41 to i64
185   %add33 = add nsw i64 %add19, %conv42
186   %add43 = add nsw i64 %add33, %conv32
187   %incdec.ptr44 = getelementptr inbounds i16, ptr %pSrcA, i32 5
188   %8 = load i16, ptr %incdec.ptr21, align 2
189   %incdec.ptr45 = getelementptr inbounds i16, ptr %pSrcA, i32 6
190   %9 = load i16, ptr %incdec.ptr44, align 2
191   %incdec.ptr46 = getelementptr inbounds i16, ptr %pSrcB, i32 5
192   %10 = load i16, ptr %incdec.ptr23, align 2
193   %incdec.ptr47 = getelementptr inbounds i16, ptr %pSrcB, i32 6
194   %11 = load i16, ptr %incdec.ptr46, align 2
195   %conv48 = sext i16 %8 to i32
196   %conv49 = sext i16 %10 to i32
197   %mul50 = mul nsw i32 %conv49, %conv48
198   %conv51 = sext i32 %mul50 to i64
199   %add52 = add nsw i64 %sub38, %conv51
200   %conv54 = sext i16 %11 to i32
201   %mul55 = mul nsw i32 %conv54, %conv48
202   %conv56 = sext i32 %mul55 to i64
203   %conv58 = sext i16 %9 to i32
204   %mul60 = mul nsw i32 %conv54, %conv58
205   %conv61 = sext i32 %mul60 to i64
206   %sub62 = sub nsw i64 %add52, %conv61
207   %mul65 = mul nsw i32 %conv49, %conv58
208   %conv66 = sext i32 %mul65 to i64
209   %add57 = add nsw i64 %add43, %conv66
210   %add67 = add nsw i64 %add57, %conv56
211   %incdec.ptr68 = getelementptr inbounds i16, ptr %pSrcA, i32 7
212   %12 = load i16, ptr %incdec.ptr45, align 2
213   %13 = load i16, ptr %incdec.ptr68, align 2
214   %incdec.ptr70 = getelementptr inbounds i16, ptr %pSrcB, i32 7
215   %14 = load i16, ptr %incdec.ptr47, align 2
216   %15 = load i16, ptr %incdec.ptr70, align 2
217   %conv72 = sext i16 %12 to i32
218   %conv73 = sext i16 %14 to i32
219   %mul74 = mul nsw i32 %conv73, %conv72
220   %conv75 = sext i32 %mul74 to i64
221   %add76 = add nsw i64 %sub62, %conv75
222   %conv78 = sext i16 %15 to i32
223   %mul79 = mul nsw i32 %conv78, %conv72
224   %conv80 = sext i32 %mul79 to i64
225   %conv82 = sext i16 %13 to i32
226   %mul84 = mul nsw i32 %conv78, %conv82
227   %conv85 = sext i32 %mul84 to i64
228   %sub86 = sub nsw i64 %add76, %conv85
229   %mul89 = mul nsw i32 %conv73, %conv82
230   %conv90 = sext i32 %mul89 to i64
231   %add81 = add nsw i64 %add67, %conv90
232   %add91 = add nsw i64 %add81, %conv80
233   %16 = lshr i64 %sub86, 6
234   %conv92 = trunc i64 %16 to i32
235   store i32 %conv92, ptr %realResult, align 4
236   %17 = lshr i64 %add91, 6
237   %conv94 = trunc i64 %17 to i32
238   store i32 %conv94, ptr %imagResult, align 4
239   ret void