Adapt commit 982b596ea6
for the arm and
aarch64 NEON asm. 5-10% faster on Cortex-A9.
tags/n2.3
@@ -95,9 +95,10 @@ function ff_\type\()_\codec\()_chroma_mc8_neon, export=1 | |||||
b.gt 1b | b.gt 1b | ||||
ret | ret | ||||
2: tst w6, w6 | |||||
add w12, w12, w6 | |||||
2: adds w12, w12, w6 | |||||
dup v0.8B, w4 | dup v0.8B, w4 | ||||
b.eq 5f | |||||
tst w6, w6 | |||||
dup v1.8B, w12 | dup v1.8B, w12 | ||||
b.eq 4f | b.eq 4f | ||||
@@ -161,6 +162,33 @@ function ff_\type\()_\codec\()_chroma_mc8_neon, export=1 | |||||
st1 {v17.8B}, [x0], x2 | st1 {v17.8B}, [x0], x2 | ||||
b.gt 4b | b.gt 4b | ||||
ret | ret | ||||
5: ld1 {v4.8B}, [x1], x2 | |||||
ld1 {v5.8B}, [x1], x2 | |||||
prfm pldl1strm, [x1] | |||||
subs w3, w3, #2 | |||||
umull v16.8H, v4.8B, v0.8B | |||||
umull v17.8H, v5.8B, v0.8B | |||||
prfm pldl1strm, [x1, x2] | |||||
.ifc \codec,h264 | |||||
rshrn v16.8B, v16.8H, #6 | |||||
rshrn v17.8B, v17.8H, #6 | |||||
.else | |||||
add v16.8H, v16.8H, v22.8H | |||||
add v17.8H, v17.8H, v22.8H | |||||
shrn v16.8B, v16.8H, #6 | |||||
shrn v17.8B, v17.8H, #6 | |||||
.endif | |||||
.ifc \type,avg | |||||
ld1 {v20.8B}, [x8], x2 | |||||
ld1 {v21.8B}, [x8], x2 | |||||
urhadd v16.8B, v16.8B, v20.8B | |||||
urhadd v17.8B, v17.8B, v21.8B | |||||
.endif | |||||
st1 {v16.8B}, [x0], x2 | |||||
st1 {v17.8B}, [x0], x2 | |||||
b.gt 5b | |||||
ret | |||||
endfunc | endfunc | ||||
.endm | .endm | ||||
@@ -238,9 +266,10 @@ function ff_\type\()_\codec\()_chroma_mc4_neon, export=1 | |||||
b.gt 1b | b.gt 1b | ||||
ret | ret | ||||
2: tst w6, w6 | |||||
add w12, w12, w6 | |||||
2: adds w12, w12, w6 | |||||
dup v30.8B, w4 | dup v30.8B, w4 | ||||
b.eq 5f | |||||
tst w6, w6 | |||||
dup v31.8B, w12 | dup v31.8B, w12 | ||||
trn1 v0.2S, v30.2S, v31.2S | trn1 v0.2S, v30.2S, v31.2S | ||||
trn2 v1.2S, v30.2S, v31.2S | trn2 v1.2S, v30.2S, v31.2S | ||||
@@ -303,6 +332,28 @@ function ff_\type\()_\codec\()_chroma_mc4_neon, export=1 | |||||
st1 {v16.S}[1], [x0], x2 | st1 {v16.S}[1], [x0], x2 | ||||
b.gt 4b | b.gt 4b | ||||
ret | ret | ||||
5: ld1 {v4.S}[0], [x1], x2 | |||||
ld1 {v4.S}[1], [x1], x2 | |||||
umull v18.8H, v4.8B, v30.8B | |||||
subs w3, w3, #2 | |||||
prfm pldl1strm, [x1] | |||||
.ifc \codec,h264 | |||||
rshrn v16.8B, v18.8H, #6 | |||||
.else | |||||
add v18.8H, v18.8H, v22.8H | |||||
shrn v16.8B, v18.8H, #6 | |||||
.endif | |||||
.ifc \type,avg | |||||
ld1 {v20.S}[0], [x8], x2 | |||||
ld1 {v20.S}[1], [x8], x2 | |||||
urhadd v16.8B, v16.8B, v20.8B | |||||
.endif | |||||
prfm pldl1strm, [x1] | |||||
st1 {v16.S}[0], [x0], x2 | |||||
st1 {v16.S}[1], [x0], x2 | |||||
b.gt 5b | |||||
ret | |||||
endfunc | endfunc | ||||
.endm | .endm | ||||
@@ -96,9 +96,10 @@ T cmp r7, #0 | |||||
pop {r4-r7, pc} | pop {r4-r7, pc} | ||||
2: tst r6, r6 | |||||
add r12, r12, r6 | |||||
2: adds r12, r12, r6 | |||||
vdup.8 d0, r4 | vdup.8 d0, r4 | ||||
beq 5f | |||||
tst r6, r6 | |||||
vdup.8 d1, r12 | vdup.8 d1, r12 | ||||
beq 4f | beq 4f | ||||
@@ -163,6 +164,33 @@ T cmp r7, #0 | |||||
vst1.8 {d17}, [r0,:64], r2 | vst1.8 {d17}, [r0,:64], r2 | ||||
bgt 4b | bgt 4b | ||||
pop {r4-r7, pc} | |||||
5: vld1.8 {d4}, [r1], r2 | |||||
vld1.8 {d5}, [r1], r2 | |||||
pld [r1] | |||||
subs r3, r3, #2 | |||||
vmull.u8 q8, d4, d0 | |||||
vmull.u8 q9, d5, d0 | |||||
pld [r1, r2] | |||||
.ifc \codec,h264 | |||||
vrshrn.u16 d16, q8, #6 | |||||
vrshrn.u16 d17, q9, #6 | |||||
.else | |||||
vadd.u16 q8, q8, q11 | |||||
vadd.u16 q9, q9, q11 | |||||
vshrn.u16 d16, q8, #6 | |||||
vshrn.u16 d17, q9, #6 | |||||
.endif | |||||
.ifc \type,avg | |||||
vld1.8 {d20}, [lr,:64], r2 | |||||
vld1.8 {d21}, [lr,:64], r2 | |||||
vrhadd.u8 q8, q8, q10 | |||||
.endif | |||||
vst1.8 {d16}, [r0,:64], r2 | |||||
vst1.8 {d17}, [r0,:64], r2 | |||||
bgt 5b | |||||
pop {r4-r7, pc} | pop {r4-r7, pc} | ||||
endfunc | endfunc | ||||
.endm | .endm | ||||
@@ -245,9 +273,10 @@ T cmp r7, #0 | |||||
pop {r4-r7, pc} | pop {r4-r7, pc} | ||||
2: tst r6, r6 | |||||
add r12, r12, r6 | |||||
2: adds r12, r12, r6 | |||||
vdup.8 d0, r4 | vdup.8 d0, r4 | ||||
beq 5f | |||||
tst r6, r6 | |||||
vdup.8 d1, r12 | vdup.8 d1, r12 | ||||
vtrn.32 d0, d1 | vtrn.32 d0, d1 | ||||
@@ -310,6 +339,29 @@ T cmp r7, #0 | |||||
vst1.32 {d16[1]}, [r0,:32], r2 | vst1.32 {d16[1]}, [r0,:32], r2 | ||||
bgt 4b | bgt 4b | ||||
pop {r4-r7, pc} | |||||
5: vld1.32 {d4[0]}, [r1], r2 | |||||
vld1.32 {d4[1]}, [r1], r2 | |||||
vmull.u8 q8, d4, d0 | |||||
subs r3, r3, #2 | |||||
pld [r1] | |||||
.ifc \codec,h264 | |||||
vrshrn.u16 d16, q8, #6 | |||||
.else | |||||
vadd.u16 q8, q8, q11 | |||||
vshrn.u16 d16, q8, #6 | |||||
.endif | |||||
.ifc \type,avg | |||||
vld1.32 {d20[0]}, [lr,:32], r2 | |||||
vld1.32 {d20[1]}, [lr,:32], r2 | |||||
vrhadd.u8 d16, d16, d20 | |||||
.endif | |||||
pld [r1] | |||||
vst1.32 {d16[0]}, [r0,:32], r2 | |||||
vst1.32 {d16[1]}, [r0,:32], r2 | |||||
bgt 5b | |||||
pop {r4-r7, pc} | pop {r4-r7, pc} | ||||
endfunc | endfunc | ||||
.endm | .endm | ||||