You can not select more than 25 topics
Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
739 lines
17 KiB
739 lines
17 KiB
/*
|
|
|
|
This file is part of FFTS -- The Fastest Fourier Transform in the South
|
|
|
|
Copyright (c) 2012, Anthony M. Blake <amb@anthonix.com>
|
|
Copyright (c) 2012, The University of Waikato
|
|
|
|
All rights reserved.
|
|
|
|
Redistribution and use in source and binary forms, with or without
|
|
modification, are permitted provided that the following conditions are met:
|
|
* Redistributions of source code must retain the above copyright
|
|
notice, this list of conditions and the following disclaimer.
|
|
* Redistributions in binary form must reproduce the above copyright
|
|
notice, this list of conditions and the following disclaimer in the
|
|
documentation and/or other materials provided with the distribution.
|
|
* Neither the name of the organization nor the
|
|
names of its contributors may be used to endorse or promote products
|
|
derived from this software without specific prior written permission.
|
|
|
|
THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS "AS IS" AND
|
|
ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE IMPLIED
|
|
WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE ARE
|
|
DISCLAIMED. IN NO EVENT SHALL ANTHONY M. BLAKE BE LIABLE FOR ANY
|
|
DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES
|
|
(INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS OR SERVICES;
|
|
LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION) HOWEVER CAUSED AND
|
|
ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT
|
|
(INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OF THIS
|
|
SOFTWARE, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGE.
|
|
|
|
*/
|
|
|
|
.align 4
|
|
#ifdef __APPLE__
|
|
.globl _neon_x4
|
|
_neon_x4:
|
|
#else
|
|
.globl neon_x4
|
|
neon_x4:
|
|
#endif
|
|
@ add r3, r0, #0
|
|
|
|
vld1.32 {q8,q9}, [r0, :128]
|
|
add r4, r0, r1, lsl #1
|
|
vld1.32 {q10,q11}, [r4, :128]
|
|
add r5, r0, r1, lsl #2
|
|
vld1.32 {q12,q13}, [r5, :128]
|
|
add r6, r4, r1, lsl #2
|
|
vld1.32 {q14,q15}, [r6, :128]
|
|
vld1.32 {q2,q3}, [r2, :128]
|
|
|
|
vmul.f32 q0, q13, q3
|
|
vmul.f32 q5, q12, q2
|
|
vmul.f32 q1, q14, q2
|
|
vmul.f32 q4, q14, q3
|
|
vmul.f32 q14, q12, q3
|
|
vmul.f32 q13, q13, q2
|
|
vmul.f32 q12, q15, q3
|
|
vmul.f32 q2, q15, q2
|
|
vsub.f32 q0, q5, q0
|
|
vadd.f32 q13, q13, q14
|
|
vadd.f32 q12, q12, q1
|
|
vsub.f32 q1, q2, q4
|
|
vadd.f32 q15, q0, q12
|
|
vsub.f32 q12, q0, q12
|
|
vadd.f32 q14, q13, q1
|
|
vsub.f32 q13, q13, q1
|
|
vadd.f32 q0, q8, q15
|
|
vadd.f32 q1, q9, q14
|
|
vsub.f32 q2, q10, q13 @
|
|
vsub.f32 q4, q8, q15
|
|
vadd.f32 q3, q11, q12 @
|
|
vst1.32 {q0,q1}, [r0, :128]
|
|
vsub.f32 q5, q9, q14
|
|
vadd.f32 q6, q10, q13 @
|
|
vsub.f32 q7, q11, q12 @
|
|
vst1.32 {q2,q3}, [r4, :128]
|
|
vst1.32 {q4,q5}, [r5, :128]
|
|
vst1.32 {q6,q7}, [r6, :128]
|
|
bx lr
|
|
|
|
.align 4
|
|
#ifdef __APPLE__
|
|
.globl _neon_x8
|
|
_neon_x8:
|
|
#else
|
|
.globl neon_x8
|
|
neon_x8:
|
|
#endif
|
|
mov r11, #0
|
|
add r3, r0, #0 @ data0
|
|
add r5, r0, r1, lsl #1 @ data2
|
|
add r4, r0, r1 @ data1
|
|
add r7, r5, r1, lsl #1 @ data4
|
|
add r6, r5, r1 @ data3
|
|
add r9, r7, r1, lsl #1 @ data6
|
|
add r8, r7, r1 @ data5
|
|
add r10, r9, r1 @ data7
|
|
add r12, r2, #0 @ LUT
|
|
|
|
sub r11, r11, r1, lsr #5
|
|
neon_x8_loop:
|
|
vld1.32 {q2,q3}, [r12, :128]!
|
|
vld1.32 {q14,q15}, [r6, :128]
|
|
vld1.32 {q10,q11}, [r5, :128]
|
|
adds r11, r11, #1
|
|
vmul.f32 q12, q15, q2
|
|
vmul.f32 q8, q14, q3
|
|
vmul.f32 q13, q14, q2
|
|
vmul.f32 q9, q10, q3
|
|
vmul.f32 q1, q10, q2
|
|
vmul.f32 q0, q11, q2
|
|
vmul.f32 q14, q11, q3
|
|
vmul.f32 q15, q15, q3
|
|
vld1.32 {q2,q3}, [r12, :128]!
|
|
vsub.f32 q10, q12, q8
|
|
vadd.f32 q11, q0, q9
|
|
vadd.f32 q8, q15, q13
|
|
vld1.32 {q12,q13}, [r4, :128]
|
|
vsub.f32 q9, q1, q14
|
|
vsub.f32 q15, q11, q10
|
|
vsub.f32 q14, q9, q8
|
|
vsub.f32 q4, q12, q15 @
|
|
vadd.f32 q6, q12, q15 @
|
|
vadd.f32 q5, q13, q14 @
|
|
vsub.f32 q7, q13, q14 @
|
|
vld1.32 {q14,q15}, [r9, :128]
|
|
vld1.32 {q12,q13}, [r7, :128]
|
|
vmul.f32 q1, q14, q2
|
|
vmul.f32 q0, q14, q3
|
|
vst1.32 {q4,q5}, [r4, :128]
|
|
vmul.f32 q14, q15, q3
|
|
vmul.f32 q4, q15, q2
|
|
vadd.f32 q15, q9, q8
|
|
vst1.32 {q6,q7}, [r6, :128]
|
|
vmul.f32 q8, q12, q3
|
|
vmul.f32 q5, q13, q3
|
|
vmul.f32 q12, q12, q2
|
|
vmul.f32 q9, q13, q2
|
|
vadd.f32 q14, q14, q1
|
|
vsub.f32 q13, q4, q0
|
|
vadd.f32 q0, q9, q8
|
|
vld1.32 {q8,q9}, [r3, :128]
|
|
vadd.f32 q1, q11, q10
|
|
vsub.f32 q12, q12, q5
|
|
vadd.f32 q11, q8, q15
|
|
vsub.f32 q8, q8, q15
|
|
vadd.f32 q2, q12, q14
|
|
vsub.f32 q10, q0, q13
|
|
vadd.f32 q15, q0, q13
|
|
vadd.f32 q13, q9, q1
|
|
vsub.f32 q9, q9, q1
|
|
vsub.f32 q12, q12, q14
|
|
vadd.f32 q0, q11, q2
|
|
vadd.f32 q1, q13, q15
|
|
vsub.f32 q4, q11, q2
|
|
vsub.f32 q2, q8, q10 @
|
|
vadd.f32 q3, q9, q12 @
|
|
vst1.32 {q0,q1}, [r3, :128]!
|
|
vsub.f32 q5, q13, q15
|
|
vld1.32 {q14,q15}, [r10, :128]
|
|
vsub.f32 q7, q9, q12 @
|
|
vld1.32 {q12,q13}, [r8, :128]
|
|
vst1.32 {q2,q3}, [r5, :128]!
|
|
vld1.32 {q2,q3}, [r12, :128]!
|
|
vadd.f32 q6, q8, q10 @
|
|
vmul.f32 q8, q14, q2
|
|
vst1.32 {q4,q5}, [r7, :128]!
|
|
vmul.f32 q10, q15, q3
|
|
vmul.f32 q9, q13, q3
|
|
vmul.f32 q11, q12, q2
|
|
vmul.f32 q14, q14, q3
|
|
vst1.32 {q6,q7}, [r9, :128]!
|
|
vmul.f32 q15, q15, q2
|
|
vmul.f32 q12, q12, q3
|
|
vmul.f32 q13, q13, q2
|
|
vadd.f32 q10, q10, q8
|
|
vsub.f32 q11, q11, q9
|
|
vld1.32 {q8,q9}, [r4, :128]
|
|
vsub.f32 q14, q15, q14
|
|
vadd.f32 q15, q13, q12
|
|
vadd.f32 q13, q11, q10
|
|
vadd.f32 q12, q15, q14
|
|
vsub.f32 q15, q15, q14
|
|
vsub.f32 q14, q11, q10
|
|
vld1.32 {q10,q11}, [r6, :128]
|
|
vadd.f32 q0, q8, q13
|
|
vadd.f32 q1, q9, q12
|
|
vsub.f32 q2, q10, q15 @
|
|
vadd.f32 q3, q11, q14 @
|
|
vsub.f32 q4, q8, q13
|
|
vst1.32 {q0,q1}, [r4, :128]!
|
|
vsub.f32 q5, q9, q12
|
|
vadd.f32 q6, q10, q15 @
|
|
vst1.32 {q2,q3}, [r6, :128]!
|
|
vsub.f32 q7, q11, q14 @
|
|
vst1.32 {q4,q5}, [r8, :128]!
|
|
vst1.32 {q6,q7}, [r10, :128]!
|
|
bne neon_x8_loop
|
|
|
|
bx lr
|
|
|
|
.align 4
|
|
#ifdef __APPLE__
|
|
.globl _neon_x8_t
|
|
_neon_x8_t:
|
|
#else
|
|
.globl neon_x8_t
|
|
neon_x8_t:
|
|
#endif
|
|
mov r11, #0
|
|
add r3, r0, #0 @ data0
|
|
add r5, r0, r1, lsl #1 @ data2
|
|
add r4, r0, r1 @ data1
|
|
add r7, r5, r1, lsl #1 @ data4
|
|
add r6, r5, r1 @ data3
|
|
add r9, r7, r1, lsl #1 @ data6
|
|
add r8, r7, r1 @ data5
|
|
add r10, r9, r1 @ data7
|
|
add r12, r2, #0 @ LUT
|
|
|
|
sub r11, r11, r1, lsr #5
|
|
neon_x8_t_loop:
|
|
vld1.32 {q2,q3}, [r12, :128]!
|
|
vld1.32 {q14,q15}, [r6, :128]
|
|
vld1.32 {q10,q11}, [r5, :128]
|
|
adds r11, r11, #1
|
|
vmul.f32 q12, q15, q2
|
|
vmul.f32 q8, q14, q3
|
|
vmul.f32 q13, q14, q2
|
|
vmul.f32 q9, q10, q3
|
|
vmul.f32 q1, q10, q2
|
|
vmul.f32 q0, q11, q2
|
|
vmul.f32 q14, q11, q3
|
|
vmul.f32 q15, q15, q3
|
|
vld1.32 {q2,q3}, [r12, :128]!
|
|
vsub.f32 q10, q12, q8
|
|
vadd.f32 q11, q0, q9
|
|
vadd.f32 q8, q15, q13
|
|
vld1.32 {q12,q13}, [r4, :128]
|
|
vsub.f32 q9, q1, q14
|
|
vsub.f32 q15, q11, q10
|
|
vsub.f32 q14, q9, q8
|
|
vsub.f32 q4, q12, q15 @
|
|
vadd.f32 q6, q12, q15 @
|
|
vadd.f32 q5, q13, q14 @
|
|
vsub.f32 q7, q13, q14 @
|
|
vld1.32 {q14,q15}, [r9, :128]
|
|
vld1.32 {q12,q13}, [r7, :128]
|
|
vmul.f32 q1, q14, q2
|
|
vmul.f32 q0, q14, q3
|
|
vst1.32 {q4,q5}, [r4, :128]
|
|
vmul.f32 q14, q15, q3
|
|
vmul.f32 q4, q15, q2
|
|
vadd.f32 q15, q9, q8
|
|
vst1.32 {q6,q7}, [r6, :128]
|
|
vmul.f32 q8, q12, q3
|
|
vmul.f32 q5, q13, q3
|
|
vmul.f32 q12, q12, q2
|
|
vmul.f32 q9, q13, q2
|
|
vadd.f32 q14, q14, q1
|
|
vsub.f32 q13, q4, q0
|
|
vadd.f32 q0, q9, q8
|
|
vld1.32 {q8,q9}, [r3, :128]
|
|
vadd.f32 q1, q11, q10
|
|
vsub.f32 q12, q12, q5
|
|
vadd.f32 q11, q8, q15
|
|
vsub.f32 q8, q8, q15
|
|
vadd.f32 q2, q12, q14
|
|
vsub.f32 q10, q0, q13
|
|
vadd.f32 q15, q0, q13
|
|
vadd.f32 q13, q9, q1
|
|
vsub.f32 q9, q9, q1
|
|
vsub.f32 q12, q12, q14
|
|
vadd.f32 q0, q11, q2
|
|
vadd.f32 q1, q13, q15
|
|
vsub.f32 q4, q11, q2
|
|
vsub.f32 q2, q8, q10 @
|
|
vadd.f32 q3, q9, q12 @
|
|
vst2.32 {q0,q1}, [r3, :128]!
|
|
vsub.f32 q5, q13, q15
|
|
vld1.32 {q14,q15}, [r10, :128]
|
|
vsub.f32 q7, q9, q12 @
|
|
vld1.32 {q12,q13}, [r8, :128]
|
|
vst2.32 {q2,q3}, [r5, :128]!
|
|
vld1.32 {q2,q3}, [r12, :128]!
|
|
vadd.f32 q6, q8, q10 @
|
|
vmul.f32 q8, q14, q2
|
|
vst2.32 {q4,q5}, [r7, :128]!
|
|
vmul.f32 q10, q15, q3
|
|
vmul.f32 q9, q13, q3
|
|
vmul.f32 q11, q12, q2
|
|
vmul.f32 q14, q14, q3
|
|
vst2.32 {q6,q7}, [r9, :128]!
|
|
vmul.f32 q15, q15, q2
|
|
vmul.f32 q12, q12, q3
|
|
vmul.f32 q13, q13, q2
|
|
vadd.f32 q10, q10, q8
|
|
vsub.f32 q11, q11, q9
|
|
vld1.32 {q8,q9}, [r4, :128]
|
|
vsub.f32 q14, q15, q14
|
|
vadd.f32 q15, q13, q12
|
|
vadd.f32 q13, q11, q10
|
|
vadd.f32 q12, q15, q14
|
|
vsub.f32 q15, q15, q14
|
|
vsub.f32 q14, q11, q10
|
|
vld1.32 {q10,q11}, [r6, :128]
|
|
vadd.f32 q0, q8, q13
|
|
vadd.f32 q1, q9, q12
|
|
vsub.f32 q2, q10, q15 @
|
|
vadd.f32 q3, q11, q14 @
|
|
vsub.f32 q4, q8, q13
|
|
vst2.32 {q0,q1}, [r4, :128]!
|
|
vsub.f32 q5, q9, q12
|
|
vadd.f32 q6, q10, q15 @
|
|
vst2.32 {q2,q3}, [r6, :128]!
|
|
vsub.f32 q7, q11, q14 @
|
|
vst2.32 {q4,q5}, [r8, :128]!
|
|
vst2.32 {q6,q7}, [r10, :128]!
|
|
bne neon_x8_t_loop
|
|
|
|
@bx lr
|
|
|
|
@ assumes r0 = out
|
|
@ r1 = in ?
|
|
@
|
|
@ r12 = offsets
|
|
@ r3-r10 = data pointers
|
|
@ r11 = loop iterations
|
|
@ r2 & lr = temps
|
|
.align 4
|
|
#ifdef __APPLE__
|
|
.globl _neon_ee
|
|
_neon_ee:
|
|
#else
|
|
.globl neon_ee
|
|
neon_ee:
|
|
#endif
|
|
vld1.32 {d16, d17}, [r2, :128]
|
|
_neon_ee_loop:
|
|
vld2.32 {q15}, [r10, :128]!
|
|
vld2.32 {q13}, [r8, :128]!
|
|
vld2.32 {q14}, [r7, :128]!
|
|
vld2.32 {q9}, [r4, :128]!
|
|
vld2.32 {q10}, [r3, :128]!
|
|
vld2.32 {q11}, [r6, :128]!
|
|
vld2.32 {q12}, [r5, :128]!
|
|
vsub.f32 q1, q14, q13
|
|
vld2.32 {q0}, [r9, :128]!
|
|
subs r11, r11, #1
|
|
vsub.f32 q2, q0, q15
|
|
vadd.f32 q0, q0, q15
|
|
vmul.f32 d10, d2, d17
|
|
vmul.f32 d11, d3, d16
|
|
vmul.f32 d12, d3, d17
|
|
vmul.f32 d6, d4, d17
|
|
vmul.f32 d7, d5, d16
|
|
vmul.f32 d8, d4, d16
|
|
vmul.f32 d9, d5, d17
|
|
vmul.f32 d13, d2, d16
|
|
vsub.f32 d7, d7, d6
|
|
vadd.f32 d11, d11, d10
|
|
vsub.f32 q1, q12, q11
|
|
vsub.f32 q2, q10, q9
|
|
vadd.f32 d6, d9, d8
|
|
vadd.f32 q4, q14, q13
|
|
vadd.f32 q11, q12, q11
|
|
vadd.f32 q12, q10, q9
|
|
vsub.f32 d10, d13, d12
|
|
vsub.f32 q7, q4, q0
|
|
vsub.f32 q9, q12, q11
|
|
vsub.f32 q13, q5, q3
|
|
vadd.f32 d29, d5, d2 @
|
|
vadd.f32 q5, q5, q3
|
|
vadd.f32 q10, q4, q0
|
|
vadd.f32 q11, q12, q11
|
|
vsub.f32 d31, d5, d2 @
|
|
vsub.f32 d28, d4, d3 @
|
|
vadd.f32 d30, d4, d3 @
|
|
vadd.f32 d5, d19, d14 @-
|
|
vadd.f32 d7, d31, d26 @-
|
|
vadd.f32 q1, q14, q5
|
|
vadd.f32 q0, q11, q10
|
|
vsub.f32 d6, d30, d27 @-
|
|
vsub.f32 d4, d18, d15 @-
|
|
vsub.f32 d13, d19, d14 @-
|
|
vadd.f32 d12, d18, d15 @-
|
|
vsub.f32 d15, d31, d26 @-
|
|
ldr r2, [r12], #4
|
|
vtrn.32 q1, q3
|
|
ldr lr, [r12], #4
|
|
vtrn.32 q0, q2
|
|
add r2, r0, r2, lsl #2
|
|
vsub.f32 q4, q11, q10
|
|
add lr, r0, lr, lsl #2
|
|
vsub.f32 q5, q14, q5
|
|
vadd.f32 d14, d30, d27 @-
|
|
vst2.32 {q0,q1}, [r2, :128]!
|
|
vst2.32 {q2,q3}, [lr, :128]!
|
|
vtrn.32 q4, q6
|
|
vtrn.32 q5, q7
|
|
vst2.32 {q4,q5}, [r2, :128]!
|
|
vst2.32 {q6,q7}, [lr, :128]!
|
|
bne _neon_ee_loop
|
|
|
|
@ assumes r0 = out
|
|
@
|
|
@ r12 = offsets
|
|
@ r3-r10 = data pointers
|
|
@ r11 = loop iterations
|
|
@ r2 & lr = temps
|
|
.align 4
|
|
#ifdef __APPLE__
|
|
.globl _neon_oo
|
|
_neon_oo:
|
|
#else
|
|
.globl neon_oo
|
|
neon_oo:
|
|
#endif
|
|
_neon_oo_loop:
|
|
vld2.32 {q8}, [r6, :128]!
|
|
vld2.32 {q9}, [r5, :128]!
|
|
vld2.32 {q10}, [r4, :128]!
|
|
vld2.32 {q13}, [r3, :128]!
|
|
vadd.f32 q11, q9, q8
|
|
vsub.f32 q8, q9, q8
|
|
vsub.f32 q9, q13, q10
|
|
vadd.f32 q12, q13, q10
|
|
subs r11, r11, #1
|
|
vld2.32 {q10}, [r7, :128]!
|
|
vld2.32 {q13}, [r9, :128]!
|
|
vsub.f32 q2, q12, q11
|
|
vsub.f32 d7, d19, d16 @
|
|
vadd.f32 d3, d19, d16 @
|
|
vadd.f32 d6, d18, d17 @
|
|
vsub.f32 d2, d18, d17 @
|
|
vld2.32 {q9}, [r8, :128]!
|
|
vld2.32 {q8}, [r10, :128]!
|
|
vadd.f32 q0, q12, q11
|
|
vadd.f32 q11, q13, q8
|
|
vadd.f32 q12, q10, q9
|
|
vsub.f32 q8, q13, q8
|
|
vsub.f32 q9, q10, q9
|
|
vsub.f32 q6, q12, q11
|
|
vadd.f32 q4, q12, q11
|
|
vtrn.32 q0, q2
|
|
ldr r2, [r12], #4
|
|
vsub.f32 d15, d19, d16 @
|
|
ldr lr, [r12], #4
|
|
vadd.f32 d11, d19, d16 @
|
|
vadd.f32 d14, d18, d17 @
|
|
vsub.f32 d10, d18, d17 @
|
|
add r2, r0, r2, lsl #2
|
|
vtrn.32 q1, q3
|
|
add lr, r0, lr, lsl #2
|
|
vst2.32 {q0,q1}, [r2, :128]!
|
|
vst2.32 {q2,q3}, [lr, :128]!
|
|
vtrn.32 q4, q6
|
|
vtrn.32 q5, q7
|
|
vst2.32 {q4,q5}, [r2, :128]!
|
|
vst2.32 {q6,q7}, [lr, :128]!
|
|
bne _neon_oo_loop
|
|
|
|
@ assumes r0 = out
|
|
@
|
|
@ r12 = offsets
|
|
@ r3-r10 = data pointers
|
|
@ r11 = addr of twiddle
|
|
@ r2 & lr = temps
|
|
.align 4
|
|
#ifdef __APPLE__
|
|
.globl _neon_eo
|
|
_neon_eo:
|
|
#else
|
|
.globl neon_eo
|
|
neon_eo:
|
|
#endif
|
|
vld2.32 {q9}, [r5, :128]! @tag2
|
|
vld2.32 {q13}, [r3, :128]! @tag0
|
|
vld2.32 {q12}, [r4, :128]! @tag1
|
|
vld2.32 {q0}, [r7, :128]! @tag4
|
|
vsub.f32 q11, q13, q12
|
|
vld2.32 {q8}, [r6, :128]! @tag3
|
|
vadd.f32 q12, q13, q12
|
|
vsub.f32 q10, q9, q8
|
|
vadd.f32 q8, q9, q8
|
|
vadd.f32 q9, q12, q8
|
|
vadd.f32 d9, d23, d20 @
|
|
vsub.f32 d11, d23, d20 @
|
|
vsub.f32 q8, q12, q8
|
|
vsub.f32 d8, d22, d21 @
|
|
vadd.f32 d10, d22, d21 @
|
|
ldr r2, [r12], #4
|
|
vld1.32 {d20, d21}, [r11, :128]
|
|
ldr lr, [r12], #4
|
|
vtrn.32 q9, q4
|
|
add r2, r0, r2, lsl #2
|
|
vtrn.32 q8, q5
|
|
add lr, r0, lr, lsl #2
|
|
vswp d9,d10
|
|
vst1.32 {d8,d9,d10,d11}, [lr, :128]!
|
|
vld2.32 {q13}, [r10, :128]! @tag7
|
|
vld2.32 {q15}, [r9, :128]! @tag6
|
|
vld2.32 {q11}, [r8, :128]! @tag5
|
|
vsub.f32 q14, q15, q13
|
|
vsub.f32 q12, q0, q11
|
|
vadd.f32 q11, q0, q11
|
|
vadd.f32 q13, q15, q13
|
|
vadd.f32 d13, d29, d24 @
|
|
vadd.f32 q15, q13, q11
|
|
vsub.f32 d12, d28, d25 @
|
|
vsub.f32 d15, d29, d24 @
|
|
vadd.f32 d14, d28, d25 @
|
|
vtrn.32 q15, q6
|
|
vsub.f32 q15, q13, q11
|
|
vtrn.32 q15, q7
|
|
vswp d13, d14
|
|
vst1.32 {d12,d13,d14,d15}, [lr, :128]!
|
|
vtrn.32 q13, q14
|
|
vtrn.32 q11, q12
|
|
vmul.f32 d24, d26, d21
|
|
vmul.f32 d28, d27, d20
|
|
vmul.f32 d25, d26, d20
|
|
vmul.f32 d26, d27, d21
|
|
vmul.f32 d27, d22, d21
|
|
vmul.f32 d30, d23, d20
|
|
vmul.f32 d29, d23, d21
|
|
vmul.f32 d22, d22, d20
|
|
vsub.f32 d21, d28, d24
|
|
vadd.f32 d20, d26, d25
|
|
vadd.f32 d25, d30, d27
|
|
vsub.f32 d24, d22, d29
|
|
vadd.f32 q11, q12, q10
|
|
vsub.f32 q10, q12, q10
|
|
vadd.f32 q0, q9, q11
|
|
vsub.f32 q2, q9, q11
|
|
vadd.f32 d3, d17, d20 @
|
|
vsub.f32 d7, d17, d20 @
|
|
vsub.f32 d2, d16, d21 @
|
|
vadd.f32 d6, d16, d21 @
|
|
vswp d1, d2
|
|
vswp d5, d6
|
|
vstmia r2!, {q0-q3}
|
|
|
|
|
|
@ assumes r0 = out
|
|
@
|
|
@ r12 = offsets
|
|
@ r3-r10 = data pointers
|
|
@ r11 = addr of twiddle
|
|
@ r2 & lr = temps
|
|
.align 4
|
|
#ifdef __APPLE__
|
|
.globl _neon_oe
|
|
_neon_oe:
|
|
#else
|
|
.globl neon_oe
|
|
neon_oe:
|
|
#endif
|
|
vld1.32 {q8}, [r5, :128]!
|
|
vld1.32 {q10}, [r6, :128]!
|
|
vld2.32 {q11}, [r4, :128]!
|
|
vld2.32 {q13}, [r3, :128]!
|
|
vld2.32 {q15}, [r10, :128]!
|
|
vorr d25, d17, d17
|
|
vorr d24, d20, d20
|
|
vorr d20, d16, d16
|
|
vsub.f32 q9, q13, q11
|
|
vadd.f32 q11, q13, q11
|
|
ldr r2, [r12], #4
|
|
vtrn.32 d24, d25
|
|
ldr lr, [r12], #4
|
|
vtrn.32 d20, d21
|
|
add r2, r0, r2, lsl #2
|
|
vsub.f32 q8, q10, q12
|
|
add lr, r0, lr, lsl #2
|
|
vadd.f32 q10, q10, q12
|
|
vadd.f32 q0, q11, q10
|
|
vadd.f32 d25, d19, d16 @
|
|
vsub.f32 d27, d19, d16 @
|
|
vsub.f32 q1, q11, q10
|
|
vsub.f32 d24, d18, d17 @
|
|
vadd.f32 d26, d18, d17 @
|
|
vtrn.32 q0, q12
|
|
vtrn.32 q1, q13
|
|
vld1.32 {d24, d25}, [r11, :128]
|
|
vswp d1, d2
|
|
vst1.32 {q0, q1}, [r2, :128]!
|
|
vld2.32 {q0}, [r9, :128]!
|
|
vadd.f32 q1, q0, q15
|
|
vld2.32 {q13}, [r8, :128]!
|
|
vld2.32 {q14}, [r7, :128]!
|
|
vsub.f32 q15, q0, q15
|
|
vsub.f32 q0, q14, q13
|
|
vadd.f32 q3, q14, q13
|
|
vadd.f32 q2, q3, q1
|
|
vadd.f32 d29, d1, d30 @
|
|
vsub.f32 d27, d1, d30 @
|
|
vsub.f32 q3, q3, q1
|
|
vsub.f32 d28, d0, d31 @
|
|
vadd.f32 d26, d0, d31 @
|
|
vtrn.32 q2, q14
|
|
vtrn.32 q3, q13
|
|
vswp d5, d6
|
|
vst1.32 {q2, q3}, [r2, :128]!
|
|
vtrn.32 q11, q9
|
|
vtrn.32 q10, q8
|
|
vmul.f32 d20, d18, d25
|
|
vmul.f32 d22, d19, d24
|
|
vmul.f32 d21, d19, d25
|
|
vmul.f32 d18, d18, d24
|
|
vmul.f32 d19, d16, d25
|
|
vmul.f32 d30, d17, d24
|
|
vmul.f32 d23, d16, d24
|
|
vmul.f32 d24, d17, d25
|
|
vadd.f32 d17, d22, d20
|
|
vsub.f32 d16, d18, d21
|
|
vsub.f32 d21, d30, d19
|
|
vadd.f32 d20, d24, d23
|
|
vadd.f32 q9, q8, q10
|
|
vsub.f32 q8, q8, q10
|
|
vadd.f32 q4, q14, q9
|
|
vsub.f32 q6, q14, q9
|
|
vadd.f32 d11, d27, d16 @
|
|
vsub.f32 d15, d27, d16 @
|
|
vsub.f32 d10, d26, d17 @
|
|
vadd.f32 d14, d26, d17 @
|
|
vswp d9, d10
|
|
vswp d13, d14
|
|
vstmia lr!, {q4-q7}
|
|
|
|
|
|
.align 4
|
|
#ifdef __APPLE__
|
|
.globl _neon_end
|
|
_neon_end:
|
|
#else
|
|
.globl neon_end
|
|
neon_end:
|
|
#endif
|
|
bx lr
|
|
|
|
|
|
.align 4
|
|
#ifdef __APPLE__
|
|
.globl _neon_transpose
|
|
_neon_transpose:
|
|
#else
|
|
.globl neon_transpose
|
|
neon_transpose:
|
|
#endif
|
|
push {r4-r8}
|
|
@ vpush {q8-q9}
|
|
mov r5, r3
|
|
_neon_transpose_col:
|
|
mov r7, r1
|
|
add r8, r1, r3, lsl #3
|
|
mov r4, r2
|
|
add r6, r0, r2, lsl #3
|
|
_neon_transpose_row:
|
|
vld1.32 {q8,q9}, [r0, :128]!
|
|
@ vld1.32 {q10,q11}, [r0, :128]!
|
|
vld1.32 {q12,q13}, [r6, :128]!
|
|
@ vld1.32 {q14,q15}, [r6, :128]!
|
|
sub r4, r4, #4
|
|
cmp r4, #0
|
|
vswp d17,d24
|
|
vswp d19,d26
|
|
vswp d21,d28
|
|
vswp d23,d30
|
|
vst1.32 {q8}, [r7, :128]
|
|
vst1.32 {q12}, [r8, :128]
|
|
add r7, r7, r3, lsl #4
|
|
add r8, r8, r3, lsl #4
|
|
vst1.32 {q9}, [r7, :128]
|
|
vst1.32 {q13}, [r8, :128]
|
|
add r7, r7, r3, lsl #4
|
|
add r8, r8, r3, lsl #4
|
|
@@vst1.32 {q10}, [r7, :128]
|
|
@@vst1.32 {q14}, [r8, :128]
|
|
@@add r7, r7, r3, lsl #4
|
|
@@add r8, r8, r3, lsl #4
|
|
@@vst1.32 {q11}, [r7, :128]
|
|
@@vst1.32 {q15}, [r8, :128]
|
|
@@add r7, r7, r3, lsl #4
|
|
@@add r8, r8, r3, lsl #4
|
|
bne _neon_transpose_row
|
|
sub r5, r5, #2
|
|
cmp r5, #0
|
|
add r0, r0, r2, lsl #3
|
|
add r1, r1, #16
|
|
bne _neon_transpose_col
|
|
@ vpop {q8-q9}
|
|
pop {r4-r8}
|
|
bx lr
|
|
|
|
.align 4
|
|
#ifdef __APPLE__
|
|
.globl _neon_transpose_to_buf
|
|
_neon_transpose_to_buf:
|
|
#else
|
|
.globl neon_transpose_to_buf
|
|
neon_transpose_to_buf:
|
|
#endif
|
|
push {r4-r10}
|
|
mov r5, #8
|
|
_neon_transpose_to_buf_col:
|
|
mov r4, #8
|
|
add r6, r0, r2, lsl #3
|
|
mov r7, r1
|
|
add r8, r1, #64
|
|
add r9, r1, #128
|
|
add r10, r1, #192
|
|
_neon_transpose_to_buf_row:
|
|
vld1.32 {q8,q9}, [r0, :128]!
|
|
vld1.32 {q12,q13}, [r6, :128]!
|
|
sub r4, r4, #4
|
|
cmp r4, #0
|
|
vswp d17,d24
|
|
vswp d19,d26
|
|
vst1.32 {q8}, [r7, :128]
|
|
vst1.32 {q12}, [r8, :128]
|
|
vst1.32 {q9}, [r9, :128]
|
|
vst1.32 {q13}, [r10, :128]
|
|
add r7, r7, #256
|
|
add r8, r8, #256
|
|
add r9, r9, #256
|
|
add r10, r10, #256
|
|
bne _neon_transpose_to_buf_row
|
|
sub r5, r5, #2
|
|
cmp r5, #0
|
|
sub r0, r0, #64
|
|
add r0, r0, r2, lsl #4
|
|
add r1, r1, #16
|
|
bne _neon_transpose_to_buf_col
|
|
pop {r4-r10}
|
|
bx lr
|