FFmpeg AVFrame a la textura OpenGL sin conversión suave de YUV a RGB

Quiero decodificar un file de video H264 encriptado en iOS. Ya he portado nuestro algorithm de desencryption y está funcionando bien. Sin embargo, no podemos usar directamente el decodificador de hardware H264 debido a la falta de API en el SDK.

Por lo tanto, estoy tratando de encontrar una alternativa para decodificar el video H264. Estoy intentando usar FFmpeg para decodificar estos videos, incluso si hay algunos posibles problemas de licencia de LGPL. Decodifico el video H264 sin problemas y renderizo cuadros H264 gracias a la textura de OpenGL ES. Pero hay algunos problemas de performance. Instrumenté mi código y el cuello de botella es la reescala de ffmpeg y la conversión de YUV a RGB. Sé que puedo utilizar sombreadores OpenGL ES 2.0 para convertir YUV a RGB con aceleración de GPU (publicación relacionada alternativa a ffmpeg para iOS ). También sé cómo está compuesta la estructura AVFrame: datos [0] para datos Y, datos [1] para datos U y datos [1] para datos V. Pero no entiendo cómo puedo usar el tamaño de línea [x] con datos [x] para transmitir datos a la textura OpenGL.

¿Alguien tiene un ejemplo de AVFrame YUV a la textura OpenGL?

Gracias david