Cámara iPhone RTP: ¿Cómo leer el file AVAssetWriter mientras está siendo escrito?

Estoy intentando transmitir la captura de camera iPhone RTSP / RTP a un server Wowza.

La API de Apple no permite el acceso directo a las ttwigs codificadas H264, pero solo le permite escribirlas en un file contenedor '.mov'.

De cualquier manera, no puedo get acceso a ese contenido de file hasta que AVAssetWriter haya terminado de escribir, lo que no me permite transmitir la captura de camera en vivo.

Intenté acceder a él usando pipe con nombre para tener acceso al contenido del file en time real pero sin éxito allí. AVAssetWriter no escribirá en un file existente.

Alguien sabe como hacerlo?

¡Gracias!

Edición : A partir de iOS 8, el codificador y decodificador tiene API

Puede usar una AVCaptureVideoDataOutput para procesar / transmitir cada cuadro mientras la camera está en ejecución y AVAssetWriter para escribir el file de video al mismo time (anexando cada fotogtwig de la queue de salida de datos de video).

Consulte también AVCaptureVideoDataOutput simultánea y AVCaptureMovieFileOutput y puede usar AVCaptureVideoDataOutput y AVCaptureMovieFileOutput al mismo time?

Solo la solución que he encontrado funciona hasta ahora,
está capturando sin sonido , luego el file se escribe en la location que ha definido.
De lo contrario, probablemente esté escrito en una location temporal a la que no pueda llegar.

Aquí está el ejemplo de Apple para capturar video: AVCam
Deberá eliminar los canales de sonido.

Si alguien tiene una mejor manera, publíquelo aquí.