iOS procesa la transmisión de audio mientras se reproduce video

Estoy tratando de crear un reproductor de video para iOS, pero con algunas lecturas de pistas de audio adicionales. He estado mirando MPVideoPlayerController, y también AVPlayer en AV Foundation, pero todo es un poco vago. Lo que estoy tratando de hacer es reproducir un video (de un local .mp4), y mientras la película se está reproduciendo, obtén el búfer / fotogtwig de audio actual , así puedo hacer algunos cálculos y otras acciones (no de video / audio relevantes) que dependen en el audio actualmente reproducido. Esto significa que el video debe seguir reproduciéndose, con sus pistas de audio, pero también quiero que los datos de audio sin formatting en vivo sean calculados (como, por ejemplo, get la amplitud para ciertas frecuencias).

¿Alguien tiene un ejemplo o sugerencias para hacer esto? Por supuesto, revisé la documentation de la biblioteca AV Foundation de Apple, pero no fue lo suficientemente clara para mí.

Después de un time real (realmente) largo de Google, encontré una publicación de blog que describe MTAudioProcessingTap . Introducido en iOS 6.0, soluciona perfectamente mi problema.

El how-to / blogpost se puede encontrar aquí: http://chritto.wordpress.com/2013/01/07/processing-avplayers-audio-with-mtaudioprocessingtap/

Espero que ayude a cualquier otra persona ahora … La única cosa que aparece para mí en Google (con muchos términos diferentes) es mi propia publicación aquí. Y mientras no sepa que MTAudioProcessingTap existe, no sabe cómo hacerlo para Google 🙂