2 ; Copyright (c) 2010 The WebM project authors. All Rights Reserved.
4 ; Use of this source code is governed by a BSD-style license
5 ; that can be found in the LICENSE file in the root of the source
6 ; tree. An additional intellectual property rights grant can be found
7 ; in the file PATENTS. All contributing project authors may
8 ; be found in the AUTHORS file in the root of the source tree.
12 EXPORT |vp8_sixtap_predict8x4_neon|
17 AREA ||.text||
, CODE
, READONLY
, ALIGN=2
20 DCD
0, 0, 128, 0, 0, 0, 0, 0
21 DCD
0, -6, 123, 12, -1, 0, 0, 0
22 DCD
2, -11, 108, 36, -8, 1, 0, 0
23 DCD
0, -9, 93, 50, -6, 0, 0, 0
24 DCD
3, -16, 77, 77, -16, 3, 0, 0
25 DCD
0, -6, 50, 93, -9, 0, 0, 0
26 DCD
1, -8, 36, 108, -11, 2, 0, 0
27 DCD
0, -1, 12, 123, -6, 0, 0, 0
29 ; r0 unsigned char *src_ptr,
30 ; r1 int src_pixels_per_line,
33 ; r4 unsigned char *dst_ptr,
34 ; stack(r5) int dst_pitch
36 |vp8_sixtap_predict8x4_neon|
PROC
39 adr r12
, filter8_coeff
40 ldr r4
, [sp, #
12] ;load parameters from stack
41 ldr r5
, [sp, #
16] ;load parameters from stack
43 cmp r2
, #
0 ;skip first_pass filter if xoffset=0
44 beq secondpass_filter8x4_only
46 add r2
, r12
, r2
, lsl #
5 ;calculate filter location
48 cmp r3
, #
0 ;skip second_pass filter if yoffset=0
50 vld1.s32
{q14, q15}, [r2
] ;load first_pass filter
52 beq firstpass_filter8x4_only
54 sub sp, sp, #
32 ;reserve space on stack for temporary storage
58 sub r0
, r0
, #
2 ;move srcptr back to (line-2) and (column-2)
60 sub r0
, r0
, r1
, lsl #
1
62 vdup
.8 d0
, d24
[0] ;first_pass filter (d0-d5)
66 ;First pass: output_height lines x output_width columns (9x8)
67 vld1.u8
{q3}, [r0
], r1
;load src data
69 vld1.u8
{q4}, [r0
], r1
71 vld1.u8
{q5}, [r0
], r1
73 vld1.u8
{q6}, [r0
], r1
79 vmull.u8 q7
, d6
, d0
;(src_ptr[-2] * vp8_filter[0])
84 vext
.8 d28
, d6
, d7
, #
1 ;construct src_ptr[-1]
85 vext
.8 d29
, d8
, d9
, #
1
86 vext
.8 d30
, d10
, d11
, #
1
87 vext
.8 d31
, d12
, d13
, #
1
89 vmlsl.u8 q7
, d28
, d1
;-(src_ptr[-1] * vp8_filter[1])
94 vext
.8 d28
, d6
, d7
, #
4 ;construct src_ptr[2]
95 vext
.8 d29
, d8
, d9
, #
4
96 vext
.8 d30
, d10
, d11
, #
4
97 vext
.8 d31
, d12
, d13
, #
4
99 vmlsl.u8 q7
, d28
, d4
;-(src_ptr[2] * vp8_filter[4])
102 vmlsl.u8 q10
, d31
, d4
104 vext
.8 d28
, d6
, d7
, #
2 ;construct src_ptr[0]
105 vext
.8 d29
, d8
, d9
, #
2
106 vext
.8 d30
, d10
, d11
, #
2
107 vext
.8 d31
, d12
, d13
, #
2
109 vmlal.u8 q7
, d28
, d2
;(src_ptr[0] * vp8_filter[2])
112 vmlal.u8 q10
, d31
, d2
114 vext
.8 d28
, d6
, d7
, #
5 ;construct src_ptr[3]
115 vext
.8 d29
, d8
, d9
, #
5
116 vext
.8 d30
, d10
, d11
, #
5
117 vext
.8 d31
, d12
, d13
, #
5
119 vmlal.u8 q7
, d28
, d5
;(src_ptr[3] * vp8_filter[5])
122 vmlal.u8 q10
, d31
, d5
124 vext
.8 d28
, d6
, d7
, #
3 ;construct src_ptr[1]
125 vext
.8 d29
, d8
, d9
, #
3
126 vext
.8 d30
, d10
, d11
, #
3
127 vext
.8 d31
, d12
, d13
, #
3
129 vmull.u8 q3
, d28
, d3
;(src_ptr[1] * vp8_filter[3])
134 vqadd.s16 q7
, q3
;sum of all (src_data*filter_parameters)
139 vld1.u8
{q3}, [r0
], r1
;load src data
141 vqrshrun.s16 d22
, q7
, #
7 ;shift/round/saturate to u8
142 vqrshrun.s16 d23
, q8
, #
7
143 vqrshrun.s16 d24
, q9
, #
7
144 vqrshrun.s16 d25
, q10
, #
7
146 vld1.u8
{q4}, [r0
], r1
147 vst1.u8
{d22}, [lr
]! ;store result
148 vld1.u8
{q5}, [r0
], r1
150 vld1.u8
{q6}, [r0
], r1
152 vld1.u8
{q7}, [r0
], r1
155 ;first_pass filtering on the rest 5-line data
156 vmull.u8 q8
, d6
, d0
;(src_ptr[-2] * vp8_filter[0])
158 vmull.u8 q10
, d10
, d0
159 vmull.u8 q11
, d12
, d0
160 vmull.u8 q12
, d14
, d0
162 vext
.8 d27
, d6
, d7
, #
1 ;construct src_ptr[-1]
163 vext
.8 d28
, d8
, d9
, #
1
164 vext
.8 d29
, d10
, d11
, #
1
165 vext
.8 d30
, d12
, d13
, #
1
166 vext
.8 d31
, d14
, d15
, #
1
168 vmlsl.u8 q8
, d27
, d1
;-(src_ptr[-1] * vp8_filter[1])
170 vmlsl.u8 q10
, d29
, d1
171 vmlsl.u8 q11
, d30
, d1
172 vmlsl.u8 q12
, d31
, d1
174 vext
.8 d27
, d6
, d7
, #
4 ;construct src_ptr[2]
175 vext
.8 d28
, d8
, d9
, #
4
176 vext
.8 d29
, d10
, d11
, #
4
177 vext
.8 d30
, d12
, d13
, #
4
178 vext
.8 d31
, d14
, d15
, #
4
180 vmlsl.u8 q8
, d27
, d4
;-(src_ptr[2] * vp8_filter[4])
182 vmlsl.u8 q10
, d29
, d4
183 vmlsl.u8 q11
, d30
, d4
184 vmlsl.u8 q12
, d31
, d4
186 vext
.8 d27
, d6
, d7
, #
2 ;construct src_ptr[0]
187 vext
.8 d28
, d8
, d9
, #
2
188 vext
.8 d29
, d10
, d11
, #
2
189 vext
.8 d30
, d12
, d13
, #
2
190 vext
.8 d31
, d14
, d15
, #
2
192 vmlal.u8 q8
, d27
, d2
;(src_ptr[0] * vp8_filter[2])
194 vmlal.u8 q10
, d29
, d2
195 vmlal.u8 q11
, d30
, d2
196 vmlal.u8 q12
, d31
, d2
198 vext
.8 d27
, d6
, d7
, #
5 ;construct src_ptr[3]
199 vext
.8 d28
, d8
, d9
, #
5
200 vext
.8 d29
, d10
, d11
, #
5
201 vext
.8 d30
, d12
, d13
, #
5
202 vext
.8 d31
, d14
, d15
, #
5
204 vmlal.u8 q8
, d27
, d5
;(src_ptr[3] * vp8_filter[5])
206 vmlal.u8 q10
, d29
, d5
207 vmlal.u8 q11
, d30
, d5
208 vmlal.u8 q12
, d31
, d5
210 vext
.8 d27
, d6
, d7
, #
3 ;construct src_ptr[1]
211 vext
.8 d28
, d8
, d9
, #
3
212 vext
.8 d29
, d10
, d11
, #
3
213 vext
.8 d30
, d12
, d13
, #
3
214 vext
.8 d31
, d14
, d15
, #
3
216 vmull.u8 q3
, d27
, d3
;(src_ptr[1] * vp8_filter[3])
222 vqadd.s16 q8
, q3
;sum of all (src_data*filter_parameters)
228 vqrshrun.s16 d26
, q8
, #
7 ;shift/round/saturate to u8
229 vqrshrun.s16 d27
, q9
, #
7
230 vqrshrun.s16 d28
, q10
, #
7
231 vqrshrun.s16 d29
, q11
, #
7 ;load intermediate data from stack
232 vqrshrun.s16 d30
, q12
, #
7
236 add r3
, r12
, r3
, lsl #
5
239 vld1.s32
{q5, q6}, [r3
] ;load second_pass filter
247 vdup
.8 d0
, d14
[0] ;second_pass filter parameters (d0-d5)
254 vmull.u8 q3
, d22
, d0
;(src_ptr[-2] * vp8_filter[0])
259 vmlsl.u8 q3
, d23
, d1
;-(src_ptr[-1] * vp8_filter[1])
264 vmlsl.u8 q3
, d26
, d4
;-(src_ptr[2] * vp8_filter[4])
269 vmlal.u8 q3
, d24
, d2
;(src_ptr[0] * vp8_filter[2])
274 vmlal.u8 q3
, d27
, d5
;(src_ptr[3] * vp8_filter[5])
279 vmull.u8 q7
, d25
, d3
;(src_ptr[1] * vp8_filter[3])
282 vmull.u8 q10
, d28
, d3
284 vqadd.s16 q7
, q3
;sum of all (src_data*filter_parameters)
289 vqrshrun.s16 d6
, q7
, #
7 ;shift/round/saturate to u8
290 vqrshrun.s16 d7
, q8
, #
7
291 vqrshrun.s16 d8
, q9
, #
7
292 vqrshrun.s16 d9
, q10
, #
7
294 vst1.u8
{d6}, [r4
], r5
;store result
295 vst1.u8
{d7}, [r4
], r5
296 vst1.u8
{d8}, [r4
], r5
297 vst1.u8
{d9}, [r4
], r5
302 ;--------------------
303 firstpass_filter8x4_only
307 sub r0
, r0
, #
2 ;move srcptr back to (line-2) and (column-2)
308 vld1.u8
{q3}, [r0
], r1
;load src data
310 vdup
.8 d0
, d24
[0] ;first_pass filter (d0-d5)
311 vld1.u8
{q4}, [r0
], r1
313 vld1.u8
{q5}, [r0
], r1
315 vld1.u8
{q6}, [r0
], r1
320 ;First pass: output_height lines x output_width columns (4x8)
325 vmull.u8 q7
, d6
, d0
;(src_ptr[-2] * vp8_filter[0])
328 vmull.u8 q10
, d12
, d0
330 vext
.8 d28
, d6
, d7
, #
1 ;construct src_ptr[-1]
331 vext
.8 d29
, d8
, d9
, #
1
332 vext
.8 d30
, d10
, d11
, #
1
333 vext
.8 d31
, d12
, d13
, #
1
335 vmlsl.u8 q7
, d28
, d1
;-(src_ptr[-1] * vp8_filter[1])
338 vmlsl.u8 q10
, d31
, d1
340 vext
.8 d28
, d6
, d7
, #
4 ;construct src_ptr[2]
341 vext
.8 d29
, d8
, d9
, #
4
342 vext
.8 d30
, d10
, d11
, #
4
343 vext
.8 d31
, d12
, d13
, #
4
345 vmlsl.u8 q7
, d28
, d4
;-(src_ptr[2] * vp8_filter[4])
348 vmlsl.u8 q10
, d31
, d4
350 vext
.8 d28
, d6
, d7
, #
2 ;construct src_ptr[0]
351 vext
.8 d29
, d8
, d9
, #
2
352 vext
.8 d30
, d10
, d11
, #
2
353 vext
.8 d31
, d12
, d13
, #
2
355 vmlal.u8 q7
, d28
, d2
;(src_ptr[0] * vp8_filter[2])
358 vmlal.u8 q10
, d31
, d2
360 vext
.8 d28
, d6
, d7
, #
5 ;construct src_ptr[3]
361 vext
.8 d29
, d8
, d9
, #
5
362 vext
.8 d30
, d10
, d11
, #
5
363 vext
.8 d31
, d12
, d13
, #
5
365 vmlal.u8 q7
, d28
, d5
;(src_ptr[3] * vp8_filter[5])
368 vmlal.u8 q10
, d31
, d5
370 vext
.8 d28
, d6
, d7
, #
3 ;construct src_ptr[1]
371 vext
.8 d29
, d8
, d9
, #
3
372 vext
.8 d30
, d10
, d11
, #
3
373 vext
.8 d31
, d12
, d13
, #
3
375 vmull.u8 q3
, d28
, d3
;(src_ptr[1] * vp8_filter[3])
380 vqadd.s16 q7
, q3
;sum of all (src_data*filter_parameters)
385 vqrshrun.s16 d22
, q7
, #
7 ;shift/round/saturate to u8
386 vqrshrun.s16 d23
, q8
, #
7
387 vqrshrun.s16 d24
, q9
, #
7
388 vqrshrun.s16 d25
, q10
, #
7
390 vst1.u8
{d22}, [r4
], r5
;store result
391 vst1.u8
{d23}, [r4
], r5
392 vst1.u8
{d24}, [r4
], r5
393 vst1.u8
{d25}, [r4
], r5
397 ;---------------------
398 secondpass_filter8x4_only
400 add r3
, r12
, r3
, lsl #
5
401 sub r0
, r0
, r1
, lsl #
1
402 vld1.s32
{q5, q6}, [r3
] ;load second_pass filter
406 vld1.u8
{d22}, [r0
], r1
407 vld1.u8
{d23}, [r0
], r1
408 vld1.u8
{d24}, [r0
], r1
409 vdup
.8 d0
, d14
[0] ;second_pass filter parameters (d0-d5)
410 vld1.u8
{d25}, [r0
], r1
412 vld1.u8
{d26}, [r0
], r1
414 vld1.u8
{d27}, [r0
], r1
416 vld1.u8
{d28}, [r0
], r1
418 vld1.u8
{d29}, [r0
], r1
420 vld1.u8
{d30}, [r0
], r1
422 vmull.u8 q3
, d22
, d0
;(src_ptr[-2] * vp8_filter[0])
427 vmlsl.u8 q3
, d23
, d1
;-(src_ptr[-1] * vp8_filter[1])
432 vmlsl.u8 q3
, d26
, d4
;-(src_ptr[2] * vp8_filter[4])
437 vmlal.u8 q3
, d24
, d2
;(src_ptr[0] * vp8_filter[2])
442 vmlal.u8 q3
, d27
, d5
;(src_ptr[3] * vp8_filter[5])
447 vmull.u8 q7
, d25
, d3
;(src_ptr[1] * vp8_filter[3])
450 vmull.u8 q10
, d28
, d3
452 vqadd.s16 q7
, q3
;sum of all (src_data*filter_parameters)
457 vqrshrun.s16 d6
, q7
, #
7 ;shift/round/saturate to u8
458 vqrshrun.s16 d7
, q8
, #
7
459 vqrshrun.s16 d8
, q9
, #
7
460 vqrshrun.s16 d9
, q10
, #
7
462 vst1.u8
{d6}, [r4
], r5
;store result
463 vst1.u8
{d7}, [r4
], r5
464 vst1.u8
{d8}, [r4
], r5
465 vst1.u8
{d9}, [r4
], r5