Tiempo de estiramiento y cambio de tono con IOS

En resumen: ¿Cómo hacer estiramientos de time y cambio de tono en iOS?

En detalle:

¿Qué estoy tratando de hacer?

La aplicación mostrará las miniaturas del video a los usuarios para seleccionar un cierto range de fotogtwigs del file de video.

Debo aplicar la rampa lenta Mo , solo a la duración o los fotogtwigs seleccionados del video.

Ramp Slow Mo: ( Estiramiento del time + cambio de tono ) dinámicamente . Tengo que variar el time y el tono en un bucle for para unas 10 iteraciones. No es más que el comportamiento de la letra inglesa "U". Por lo tanto, boosté el time y el tono y disminuiré.

¿Cómo lo estoy intentando?

  1. Encontrar la hora de inicio / finalización para los videos seleccionados por el usuario.
  2. Dividir el video y el audio por separado a través de AVFoundation Mutable Composition.
  3. Para video: aplicar el estiramiento de time solo durante el time de inicio / finalización. * No hay problema * en esto, está sucediendo como lo esperaba.
  4. Para audio: hacer que el time se estire y el tono cambie dinámicamente , lo que también es para el marco de time seleccionado. Estoy usando Dirac para esto. Ahora, me gustaría usar IOS SDK por sí mismo .
  5. La fusión de audio y video publica lentamente un file y lo almacena.

Análisis:

Hasta ahora, he encontrado que las unidades de Audio o Audio (que utilizan AUVarispeed solo o AUTimePitch y Time Rate juntos) pueden ayudar. Después de dividir el video y el audio, tendré la URL de audio para seguir adelante, ya sea con OpenAL o Audio Units.

Mis preguntas:

  1. ¿Alguien puede ayudarme a evitar Dirac (ref bullet 4)? Entonces, ¿cómo hacer que el estiramiento del time y el cambio de tono cambien dinámicamente?
  2. ¿Cómo hacer * solo para el marco seleccionado * s (entre la hora de inicio y finalización)?
  3. No estoy seguro de cómo combinar la URL de * AVFoundataion * con el búfer de OpenAL o de la unidad de audio y después de un efecto lento, ¿cómo combinar finalmente con la URL de reference de video de AVFoundation ?

Cualquier tipo de reference o códigos de muestra ayuda mucho.