You can not select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.

385 lines
13KB

  1. /*
  2. * Copyright (c) 2008 Mans Rullgard <mans@mansr.com>
  3. *
  4. * This file is part of FFmpeg.
  5. *
  6. * FFmpeg is free software; you can redistribute it and/or
  7. * modify it under the terms of the GNU Lesser General Public
  8. * License as published by the Free Software Foundation; either
  9. * version 2.1 of the License, or (at your option) any later version.
  10. *
  11. * FFmpeg is distributed in the hope that it will be useful,
  12. * but WITHOUT ANY WARRANTY; without even the implied warranty of
  13. * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the GNU
  14. * Lesser General Public License for more details.
  15. *
  16. * You should have received a copy of the GNU Lesser General Public
  17. * License along with FFmpeg; if not, write to the Free Software
  18. * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
  19. */
  20. #include "asm.S"
  21. preserve8
  22. .text
  23. function ff_h264_idct_add_neon, export=1
  24. vld1.64 {d0-d3}, [r1,:128]
  25. vswp d1, d2
  26. vadd.i16 d4, d0, d1
  27. vshr.s16 q8, q1, #1
  28. vsub.i16 d5, d0, d1
  29. vadd.i16 d6, d2, d17
  30. vsub.i16 d7, d16, d3
  31. vadd.i16 q0, q2, q3
  32. vsub.i16 q1, q2, q3
  33. vtrn.16 d0, d1
  34. vtrn.16 d3, d2
  35. vtrn.32 d0, d3
  36. vtrn.32 d1, d2
  37. vadd.i16 d4, d0, d3
  38. vld1.32 {d18[0]}, [r0,:32], r2
  39. vswp d1, d3
  40. vshr.s16 q8, q1, #1
  41. vld1.32 {d19[1]}, [r0,:32], r2
  42. vsub.i16 d5, d0, d1
  43. vld1.32 {d18[1]}, [r0,:32], r2
  44. vadd.i16 d6, d16, d3
  45. vld1.32 {d19[0]}, [r0,:32], r2
  46. vsub.i16 d7, d2, d17
  47. sub r0, r0, r2, lsl #2
  48. vadd.i16 q0, q2, q3
  49. vsub.i16 q1, q2, q3
  50. vrshr.s16 q0, q0, #6
  51. vrshr.s16 q1, q1, #6
  52. vaddw.u8 q0, q0, d18
  53. vaddw.u8 q1, q1, d19
  54. vqmovun.s16 d0, q0
  55. vqmovun.s16 d1, q1
  56. vst1.32 {d0[0]}, [r0,:32], r2
  57. vst1.32 {d1[1]}, [r0,:32], r2
  58. vst1.32 {d0[1]}, [r0,:32], r2
  59. vst1.32 {d1[0]}, [r0,:32], r2
  60. bx lr
  61. endfunc
  62. function ff_h264_idct_dc_add_neon, export=1
  63. vld1.16 {d2[],d3[]}, [r1,:16]
  64. vrshr.s16 q1, q1, #6
  65. vld1.32 {d0[0]}, [r0,:32], r2
  66. vld1.32 {d0[1]}, [r0,:32], r2
  67. vaddw.u8 q2, q1, d0
  68. vld1.32 {d1[0]}, [r0,:32], r2
  69. vld1.32 {d1[1]}, [r0,:32], r2
  70. vaddw.u8 q1, q1, d1
  71. vqmovun.s16 d0, q2
  72. vqmovun.s16 d1, q1
  73. sub r0, r0, r2, lsl #2
  74. vst1.32 {d0[0]}, [r0,:32], r2
  75. vst1.32 {d0[1]}, [r0,:32], r2
  76. vst1.32 {d1[0]}, [r0,:32], r2
  77. vst1.32 {d1[1]}, [r0,:32], r2
  78. bx lr
  79. endfunc
  80. function ff_h264_idct_add16_neon, export=1
  81. push {r4-r8,lr}
  82. mov r4, r0
  83. mov r5, r1
  84. mov r1, r2
  85. mov r2, r3
  86. ldr r6, [sp, #24]
  87. movrel r7, scan8
  88. mov ip, #16
  89. 1: ldrb r8, [r7], #1
  90. ldr r0, [r5], #4
  91. ldrb r8, [r6, r8]
  92. subs r8, r8, #1
  93. blt 2f
  94. ldrsh lr, [r1]
  95. add r0, r0, r4
  96. movne lr, #0
  97. cmp lr, #0
  98. adrne lr, ff_h264_idct_dc_add_neon
  99. adreq lr, ff_h264_idct_add_neon
  100. blx lr
  101. 2: subs ip, ip, #1
  102. add r1, r1, #32
  103. bne 1b
  104. pop {r4-r8,pc}
  105. endfunc
  106. function ff_h264_idct_add16intra_neon, export=1
  107. push {r4-r8,lr}
  108. mov r4, r0
  109. mov r5, r1
  110. mov r1, r2
  111. mov r2, r3
  112. ldr r6, [sp, #24]
  113. movrel r7, scan8
  114. mov ip, #16
  115. 1: ldrb r8, [r7], #1
  116. ldr r0, [r5], #4
  117. ldrb r8, [r6, r8]
  118. add r0, r0, r4
  119. cmp r8, #0
  120. ldrsh r8, [r1]
  121. adrne lr, ff_h264_idct_add_neon
  122. adreq lr, ff_h264_idct_dc_add_neon
  123. cmpeq r8, #0
  124. blxne lr
  125. subs ip, ip, #1
  126. add r1, r1, #32
  127. bne 1b
  128. pop {r4-r8,pc}
  129. endfunc
  130. function ff_h264_idct_add8_neon, export=1
  131. push {r4-r10,lr}
  132. ldm r0, {r4,r9}
  133. add r5, r1, #16*4
  134. add r1, r2, #16*32
  135. mov r2, r3
  136. ldr r6, [sp, #32]
  137. movrel r7, scan8+16
  138. mov ip, #7
  139. 1: ldrb r8, [r7], #1
  140. ldr r0, [r5], #4
  141. ldrb r8, [r6, r8]
  142. tst ip, #4
  143. addne r0, r0, r4
  144. addeq r0, r0, r9
  145. cmp r8, #0
  146. ldrsh r8, [r1]
  147. adrne lr, ff_h264_idct_add_neon
  148. adreq lr, ff_h264_idct_dc_add_neon
  149. cmpeq r8, #0
  150. blxne lr
  151. subs ip, ip, #1
  152. add r1, r1, #32
  153. bge 1b
  154. pop {r4-r10,pc}
  155. endfunc
  156. .macro idct8x8_cols pass
  157. .if \pass == 0
  158. qa .req q2
  159. qb .req q14
  160. vshr.s16 q2, q10, #1
  161. vadd.i16 q0, q8, q12
  162. vld1.16 {q14-q15},[r1,:128]!
  163. vsub.i16 q1, q8, q12
  164. vshr.s16 q3, q14, #1
  165. vsub.i16 q2, q2, q14
  166. vadd.i16 q3, q3, q10
  167. .else
  168. qa .req q14
  169. qb .req q2
  170. vtrn.32 q8, q10
  171. vtrn.16 q12, q13
  172. vtrn.32 q9, q11
  173. vtrn.32 q12, q2
  174. vtrn.32 q13, q15
  175. vswp d21, d4
  176. vshr.s16 q14, q10, #1
  177. vswp d17, d24
  178. vshr.s16 q3, q2, #1
  179. vswp d19, d26
  180. vadd.i16 q0, q8, q12
  181. vswp d23, d30
  182. vsub.i16 q1, q8, q12
  183. vsub.i16 q14, q14, q2
  184. vadd.i16 q3, q3, q10
  185. .endif
  186. vadd.i16 q10, q1, qa
  187. vsub.i16 q12, q1, qa
  188. vadd.i16 q8, q0, q3
  189. vsub.i16 qb, q0, q3
  190. vsub.i16 q0, q13, q11
  191. vadd.i16 q1, q15, q9
  192. vsub.i16 qa, q15, q9
  193. vadd.i16 q3, q13, q11
  194. vsub.i16 q0, q0, q15
  195. vsub.i16 q1, q1, q11
  196. vadd.i16 qa, qa, q13
  197. vadd.i16 q3, q3, q9
  198. vshr.s16 q9, q9, #1
  199. vshr.s16 q11, q11, #1
  200. vshr.s16 q13, q13, #1
  201. vshr.s16 q15, q15, #1
  202. vsub.i16 q0, q0, q15
  203. vsub.i16 q1, q1, q11
  204. vadd.i16 qa, qa, q13
  205. vadd.i16 q3, q3, q9
  206. vshr.s16 q9, q0, #2
  207. vshr.s16 q11, q1, #2
  208. vshr.s16 q13, qa, #2
  209. vshr.s16 q15, q3, #2
  210. vsub.i16 q3, q3, q9
  211. vsub.i16 qa, q11, qa
  212. vadd.i16 q1, q1, q13
  213. vadd.i16 q0, q0, q15
  214. .if \pass == 0
  215. vsub.i16 q15, q8, q3
  216. vadd.i16 q8, q8, q3
  217. vadd.i16 q9, q10, q2
  218. vsub.i16 q2, q10, q2
  219. vtrn.16 q8, q9
  220. vadd.i16 q10, q12, q1
  221. vtrn.16 q2, q15
  222. vadd.i16 q11, q14, q0
  223. vsub.i16 q13, q12, q1
  224. vtrn.16 q10, q11
  225. vsub.i16 q12, q14, q0
  226. .else
  227. vsub.i16 q15, q8, q3
  228. vadd.i16 q8, q8, q3
  229. vadd.i16 q9, q10, q14
  230. vsub.i16 q14, q10, q14
  231. vadd.i16 q10, q12, q1
  232. vsub.i16 q13, q12, q1
  233. vadd.i16 q11, q2, q0
  234. vsub.i16 q12, q2, q0
  235. .endif
  236. .unreq qa
  237. .unreq qb
  238. .endm
  239. function ff_h264_idct8_add_neon, export=1
  240. vld1.16 {q8-q9}, [r1,:128]!
  241. vld1.16 {q10-q11},[r1,:128]!
  242. vld1.16 {q12-q13},[r1,:128]!
  243. idct8x8_cols 0
  244. idct8x8_cols 1
  245. mov r3, r0
  246. vrshr.s16 q8, q8, #6
  247. vld1.8 {d0}, [r0,:64], r2
  248. vrshr.s16 q9, q9, #6
  249. vld1.8 {d1}, [r0,:64], r2
  250. vrshr.s16 q10, q10, #6
  251. vld1.8 {d2}, [r0,:64], r2
  252. vrshr.s16 q11, q11, #6
  253. vld1.8 {d3}, [r0,:64], r2
  254. vrshr.s16 q12, q12, #6
  255. vld1.8 {d4}, [r0,:64], r2
  256. vrshr.s16 q13, q13, #6
  257. vld1.8 {d5}, [r0,:64], r2
  258. vrshr.s16 q14, q14, #6
  259. vld1.8 {d6}, [r0,:64], r2
  260. vrshr.s16 q15, q15, #6
  261. vld1.8 {d7}, [r0,:64], r2
  262. vaddw.u8 q8, q8, d0
  263. vaddw.u8 q9, q9, d1
  264. vaddw.u8 q10, q10, d2
  265. vqmovun.s16 d0, q8
  266. vaddw.u8 q11, q11, d3
  267. vqmovun.s16 d1, q9
  268. vaddw.u8 q12, q12, d4
  269. vqmovun.s16 d2, q10
  270. vst1.8 {d0}, [r3,:64], r2
  271. vaddw.u8 q13, q13, d5
  272. vqmovun.s16 d3, q11
  273. vst1.8 {d1}, [r3,:64], r2
  274. vaddw.u8 q14, q14, d6
  275. vqmovun.s16 d4, q12
  276. vst1.8 {d2}, [r3,:64], r2
  277. vaddw.u8 q15, q15, d7
  278. vqmovun.s16 d5, q13
  279. vst1.8 {d3}, [r3,:64], r2
  280. vqmovun.s16 d6, q14
  281. vqmovun.s16 d7, q15
  282. vst1.8 {d4}, [r3,:64], r2
  283. vst1.8 {d5}, [r3,:64], r2
  284. vst1.8 {d6}, [r3,:64], r2
  285. vst1.8 {d7}, [r3,:64], r2
  286. sub r1, r1, #128
  287. bx lr
  288. endfunc
  289. function ff_h264_idct8_dc_add_neon, export=1
  290. vld1.16 {d30[],d31[]},[r1,:16]
  291. vld1.32 {d0}, [r0,:64], r2
  292. vrshr.s16 q15, q15, #6
  293. vld1.32 {d1}, [r0,:64], r2
  294. vld1.32 {d2}, [r0,:64], r2
  295. vaddw.u8 q8, q15, d0
  296. vld1.32 {d3}, [r0,:64], r2
  297. vaddw.u8 q9, q15, d1
  298. vld1.32 {d4}, [r0,:64], r2
  299. vaddw.u8 q10, q15, d2
  300. vld1.32 {d5}, [r0,:64], r2
  301. vaddw.u8 q11, q15, d3
  302. vld1.32 {d6}, [r0,:64], r2
  303. vaddw.u8 q12, q15, d4
  304. vld1.32 {d7}, [r0,:64], r2
  305. vaddw.u8 q13, q15, d5
  306. vaddw.u8 q14, q15, d6
  307. vaddw.u8 q15, q15, d7
  308. vqmovun.s16 d0, q8
  309. vqmovun.s16 d1, q9
  310. vqmovun.s16 d2, q10
  311. vqmovun.s16 d3, q11
  312. sub r0, r0, r2, lsl #3
  313. vst1.32 {d0}, [r0,:64], r2
  314. vqmovun.s16 d4, q12
  315. vst1.32 {d1}, [r0,:64], r2
  316. vqmovun.s16 d5, q13
  317. vst1.32 {d2}, [r0,:64], r2
  318. vqmovun.s16 d6, q14
  319. vst1.32 {d3}, [r0,:64], r2
  320. vqmovun.s16 d7, q15
  321. vst1.32 {d4}, [r0,:64], r2
  322. vst1.32 {d5}, [r0,:64], r2
  323. vst1.32 {d6}, [r0,:64], r2
  324. vst1.32 {d7}, [r0,:64], r2
  325. bx lr
  326. endfunc
  327. function ff_h264_idct8_add4_neon, export=1
  328. push {r4-r8,lr}
  329. mov r4, r0
  330. mov r5, r1
  331. mov r1, r2
  332. mov r2, r3
  333. ldr r6, [sp, #24]
  334. movrel r7, scan8
  335. mov r12, #16
  336. 1: ldrb r8, [r7], #4
  337. ldr r0, [r5], #16
  338. ldrb r8, [r6, r8]
  339. subs r8, r8, #1
  340. blt 2f
  341. ldrsh lr, [r1]
  342. add r0, r0, r4
  343. movne lr, #0
  344. cmp lr, #0
  345. adrne lr, ff_h264_idct8_dc_add_neon
  346. adreq lr, ff_h264_idct8_add_neon
  347. blx lr
  348. 2: subs r12, r12, #4
  349. add r1, r1, #128
  350. bne 1b
  351. pop {r4-r8,pc}
  352. endfunc
  353. .section .rodata
  354. scan8: .byte 4+1*8, 5+1*8, 4+2*8, 5+2*8
  355. .byte 6+1*8, 7+1*8, 6+2*8, 7+2*8
  356. .byte 4+3*8, 5+3*8, 4+4*8, 5+4*8
  357. .byte 6+3*8, 7+3*8, 6+4*8, 7+4*8
  358. .byte 1+1*8, 2+1*8
  359. .byte 1+2*8, 2+2*8
  360. .byte 1+4*8, 2+4*8
  361. .byte 1+5*8, 2+5*8