Revert 374373: [Codegen] Alter the default promotion for saturating adds and subs
[llvm-core.git] / test / CodeGen / ARM / ParallelDSP / smlald2.ll
blob5fe37ce56c032604f77057f11459e896cd44eb56
1 ; RUN: opt -mtriple=arm-arm-eabi -mcpu=cortex-m33 < %s -arm-parallel-dsp -S | FileCheck %s
3 ; The Cortex-M0 does not support unaligned accesses:
4 ; RUN: opt -mtriple=arm-arm-eabi -mcpu=cortex-m0 < %s -arm-parallel-dsp -S | FileCheck %s --check-prefix=CHECK-UNSUPPORTED
6 ; Check DSP extension:
7 ; RUN: opt -mtriple=arm-arm-eabi -mcpu=cortex-m33 -mattr=-dsp < %s -arm-parallel-dsp -S | FileCheck %s --check-prefix=CHECK-UNSUPPORTED
9 define dso_local i64 @OneReduction(i32 %arg, i32* nocapture readnone %arg1, i16* nocapture readonly %arg2, i16* nocapture readonly %arg3) {
11 ; CHECK-LABEL: @OneReduction
12 ; CHECK:  %mac1{{\.}}026 = phi i64 [ [[V8:%[0-9]+]], %for.body ], [ 0, %for.body.preheader ]
13 ; CHECK:  [[V6:%[0-9]+]] = bitcast i16* %arrayidx to i32*
14 ; CHECK:  [[V7:%[0-9]+]] = load i32, i32* [[V6]], align 2
15 ; CHECK:  [[V4:%[0-9]+]] = bitcast i16* %arrayidx3 to i32*
16 ; CHECK:  [[V5:%[0-9]+]] = load i32, i32* [[V4]], align 2
17 ; CHECK:  [[V8]] = call i64 @llvm.arm.smlald(i32 [[V5]], i32 [[V7]], i64 %mac1{{\.}}026)
18 ; CHECK-NOT: call i64 @llvm.arm.smlald
20 ; CHECK-UNSUPPORTED-NOT:  call i64 @llvm.arm.smlald
22 entry:
23   %cmp24 = icmp sgt i32 %arg, 0
24   br i1 %cmp24, label %for.body.preheader, label %for.cond.cleanup
26 for.body.preheader:
27   %.pre = load i16, i16* %arg3, align 2
28   %.pre27 = load i16, i16* %arg2, align 2
29   br label %for.body
31 for.cond.cleanup:
32   %mac1.0.lcssa = phi i64 [ 0, %entry ], [ %add11, %for.body ]
33   ret i64 %mac1.0.lcssa
35 for.body:
36 ; One reduction statement here:
37   %mac1.026 = phi i64 [ %add11, %for.body ], [ 0, %for.body.preheader ]
39   %i.025 = phi i32 [ %add, %for.body ], [ 0, %for.body.preheader ]
40   %arrayidx = getelementptr inbounds i16, i16* %arg3, i32 %i.025
41   %0 = load i16, i16* %arrayidx, align 2
42   %add = add nuw nsw i32 %i.025, 1
43   %arrayidx1 = getelementptr inbounds i16, i16* %arg3, i32 %add
44   %1 = load i16, i16* %arrayidx1, align 2
45   %arrayidx3 = getelementptr inbounds i16, i16* %arg2, i32 %i.025
46   %2 = load i16, i16* %arrayidx3, align 2
47   %conv = sext i16 %2 to i32
48   %conv4 = sext i16 %0 to i32
49   %mul = mul nsw i32 %conv, %conv4
50   %sext0 = sext i32 %mul to i64
51   %arrayidx6 = getelementptr inbounds i16, i16* %arg2, i32 %add
52   %3 = load i16, i16* %arrayidx6, align 2
53   %conv7 = sext i16 %3 to i32
54   %conv8 = sext i16 %1 to i32
55   %mul9 = mul nsw i32 %conv7, %conv8
56   %sext1 = sext i32 %mul9 to i64
57   %add10 = add i64 %sext0, %mac1.026
59 ; Here the Mul is the LHS, and the Add the RHS.
60   %add11 = add i64 %sext1, %add10
62   %exitcond = icmp ne i32 %add, %arg
63   br i1 %exitcond, label %for.body, label %for.cond.cleanup
66 define dso_local arm_aapcs_vfpcc i64 @TwoReductions(i32 %arg, i32* nocapture readnone %arg1, i16* nocapture readonly %arg2, i16* nocapture readonly %arg3) {
68 ; CHECK-LABEL: @TwoReductions
70 ; CHECK:  %mac1{{\.}}058 = phi i64 [ [[V10:%[0-9]+]], %for.body ], [ 0, %for.body.preheader ]
71 ; CHECK:  %mac2{{\.}}057 = phi i64 [ [[V17:%[0-9]+]], %for.body ], [ 0, %for.body.preheader ]
72 ; CHECK:  [[V10]] = call i64 @llvm.arm.smlald(i32 %{{.*}}, i32 %{{.*}}, i64 %mac1{{\.}}058)
73 ; CHECK:  [[V17]] = call i64 @llvm.arm.smlald(i32 %{{.*}}, i32 %{{.*}}, i64 %mac2{{\.}}057)
74 ; CHECK-NOT: call i64 @llvm.arm.smlald
76 entry:
77   %cmp55 = icmp sgt i32 %arg, 0
78   br i1 %cmp55, label %for.body.preheader, label %for.cond.cleanup
80 for.cond.cleanup:
81   %mac2.0.lcssa = phi i64 [ 0, %entry ], [ %add28, %for.body ]
82   %mac1.0.lcssa = phi i64 [ 0, %entry ], [ %add16, %for.body ]
83   %add30 = add nsw i64 %mac1.0.lcssa, %mac2.0.lcssa
84   ret i64 %add30
86 for.body.preheader:
87   br label %for.body
89 for.body:
90 ; And two reduction statements here:
91   %mac1.058 = phi i64 [ %add16, %for.body ], [ 0, %for.body.preheader ]
92   %mac2.057 = phi i64 [ %add28, %for.body ], [ 0, %for.body.preheader ]
94   %i.056 = phi i32 [ %add29, %for.body ], [ 0, %for.body.preheader ]
95   %arrayidx = getelementptr inbounds i16, i16* %arg3, i32 %i.056
96   %0 = load i16, i16* %arrayidx, align 2
97   %add1 = or i32 %i.056, 1
98   %arrayidx2 = getelementptr inbounds i16, i16* %arg3, i32 %add1
99   %1 = load i16, i16* %arrayidx2, align 2
100   %add3 = or i32 %i.056, 2
101   %arrayidx4 = getelementptr inbounds i16, i16* %arg3, i32 %add3
102   %2 = load i16, i16* %arrayidx4, align 2
104   %add5 = or i32 %i.056, 3
105   %arrayidx6 = getelementptr inbounds i16, i16* %arg3, i32 %add5
106   %3 = load i16, i16* %arrayidx6, align 2
107   %arrayidx8 = getelementptr inbounds i16, i16* %arg2, i32 %i.056
108   %4 = load i16, i16* %arrayidx8, align 2
109   %conv = sext i16 %4 to i32
110   %conv9 = sext i16 %0 to i32
111   %mul = mul nsw i32 %conv, %conv9
112   %sext0 = sext i32 %mul to i64
113   %arrayidx11 = getelementptr inbounds i16, i16* %arg2, i32 %add1
114   %5 = load i16, i16* %arrayidx11, align 2
115   %conv12 = sext i16 %5 to i32
116   %conv13 = sext i16 %1 to i32
117   %mul14 = mul nsw i32 %conv12, %conv13
118   %sext1 = sext i32 %mul14 to i64
119   %add15 = add i64 %sext0, %mac1.058
120   %add16 = add i64 %add15, %sext1
121   %arrayidx18 = getelementptr inbounds i16, i16* %arg2, i32 %add3
122   %6 = load i16, i16* %arrayidx18, align 2
123   %conv19 = sext i16 %6 to i32
124   %conv20 = sext i16 %2 to i32
125   %mul21 = mul nsw i32 %conv19, %conv20
126   %sext2 = sext i32 %mul21 to i64
127   %arrayidx23 = getelementptr inbounds i16, i16* %arg2, i32 %add5
128   %7 = load i16, i16* %arrayidx23, align 2
129   %conv24 = sext i16 %7 to i32
130   %conv25 = sext i16 %3 to i32
131   %mul26 = mul nsw i32 %conv24, %conv25
132   %sext3 = sext i32 %mul26 to i64
133   %add27 = add i64 %sext2, %mac2.057
134   %add28 = add i64 %add27, %sext3
135   %add29 = add nuw nsw i32 %i.056, 4
136   %cmp = icmp slt i32 %add29, %arg
137   br i1 %cmp, label %for.body, label %for.cond.cleanup
140 define i64 @zext_mul_reduction(i32 %arg, i32* nocapture readnone %arg1, i16* nocapture readonly %arg2, i16* nocapture readonly %arg3) {
141 ; CHECK-LABEL: @zext_mul_reduction
142 ; CHECK-NOT: call i64 @llvm.arm.smlald
143 ; CHECK-NOT: call i32 @llvm.arm.smlad
144 entry:
145   %cmp24 = icmp sgt i32 %arg, 0
146   br i1 %cmp24, label %for.body.preheader, label %for.cond.cleanup
148 for.body.preheader:
149   %.pre = load i16, i16* %arg3, align 2
150   %.pre27 = load i16, i16* %arg2, align 2
151   br label %for.body
153 for.cond.cleanup:
154   %mac1.0.lcssa = phi i64 [ 0, %entry ], [ %add11, %for.body ]
155   ret i64 %mac1.0.lcssa
157 for.body:
158   %mac1.026 = phi i64 [ %add11, %for.body ], [ 0, %for.body.preheader ]
159   %i.025 = phi i32 [ %add, %for.body ], [ 0, %for.body.preheader ]
160   %arrayidx = getelementptr inbounds i16, i16* %arg3, i32 %i.025
161   %0 = load i16, i16* %arrayidx, align 2
162   %add = add nuw nsw i32 %i.025, 1
163   %arrayidx1 = getelementptr inbounds i16, i16* %arg3, i32 %add
164   %1 = load i16, i16* %arrayidx1, align 2
165   %arrayidx3 = getelementptr inbounds i16, i16* %arg2, i32 %i.025
166   %2 = load i16, i16* %arrayidx3, align 2
167   %conv = zext i16 %2 to i32
168   %conv4 = sext i16 %0 to i32
169   %mul = mul nsw i32 %conv, %conv4
170   %sext0 = sext i32 %mul to i64
171   %arrayidx6 = getelementptr inbounds i16, i16* %arg2, i32 %add
172   %3 = load i16, i16* %arrayidx6, align 2
173   %conv7 = zext i16 %3 to i32
174   %conv8 = sext i16 %1 to i32
175   %mul9 = mul nsw i32 %conv7, %conv8
176   %sext1 = sext i32 %mul9 to i64
177   %add10 = add i64 %sext0, %mac1.026
178   %add11 = add i64 %sext1, %add10
179   %exitcond = icmp ne i32 %add, %arg
180   br i1 %exitcond, label %for.body, label %for.cond.cleanup
183 define i64 @zext_add_reduction(i32 %arg, i32* nocapture readnone %arg1, i16* nocapture readonly %arg2, i16* nocapture readonly %arg3) {
184 ; CHECK-LABEL: @zext_add_reduction
185 ; CHECK-NOT: call i64 @llvm.arm.smlald
186 ; CHECK-NOT: call i32 @llvm.arm.smlad
187 entry:
188   %cmp24 = icmp sgt i32 %arg, 0
189   br i1 %cmp24, label %for.body.preheader, label %for.cond.cleanup
191 for.body.preheader:
192   %.pre = load i16, i16* %arg3, align 2
193   %.pre27 = load i16, i16* %arg2, align 2
194   br label %for.body
196 for.cond.cleanup:
197   %mac1.0.lcssa = phi i64 [ 0, %entry ], [ %add11, %for.body ]
198   ret i64 %mac1.0.lcssa
200 for.body:
201   %mac1.026 = phi i64 [ %add11, %for.body ], [ 0, %for.body.preheader ]
202   %i.025 = phi i32 [ %add, %for.body ], [ 0, %for.body.preheader ]
203   %arrayidx = getelementptr inbounds i16, i16* %arg3, i32 %i.025
204   %0 = load i16, i16* %arrayidx, align 2
205   %add = add nuw nsw i32 %i.025, 1
206   %arrayidx1 = getelementptr inbounds i16, i16* %arg3, i32 %add
207   %1 = load i16, i16* %arrayidx1, align 2
208   %arrayidx3 = getelementptr inbounds i16, i16* %arg2, i32 %i.025
209   %2 = load i16, i16* %arrayidx3, align 2
210   %conv = sext i16 %2 to i32
211   %conv4 = sext i16 %0 to i32
212   %mul = mul nsw i32 %conv, %conv4
213   %sext0 = zext i32 %mul to i64
214   %arrayidx6 = getelementptr inbounds i16, i16* %arg2, i32 %add
215   %3 = load i16, i16* %arrayidx6, align 2
216   %conv7 = sext i16 %3 to i32
217   %conv8 = sext i16 %1 to i32
218   %mul9 = mul nsw i32 %conv7, %conv8
219   %sext1 = zext i32 %mul9 to i64
220   %add10 = add i64 %sext0, %mac1.026
221   %add11 = add i64 %sext1, %add10
222   %exitcond = icmp ne i32 %add, %arg
223   br i1 %exitcond, label %for.body, label %for.cond.cleanup