Articles of avcaptureoutput

AVFoundation captureOutput didOutputSampleBuffer Delay

Estoy usando AVFoundation captureOutput didOutputSampleBuffer para extraer una image y luego usarla para un filter. self.bufferFrameQueue = DispatchQueue(label: "bufferFrame queue", qos: DispatchQoS.background, attributes: [], autoreleaseFrequency: .inherit) self.videoDataOutput = AVCaptureVideoDataOutput() if self.session.canAddOutput(self.videoDataOutput) { self.session.addOutput(videoDataOutput) self.videoDataOutput!.alwaysDiscardsLateVideoFrames = true self.videoDataOutput!.videoSettings = [kCVPixelBufferPixelFormatTypeKey as String: Int(kCVPixelFormatType_32BGRA)] self.videoDataOutput!.setSampleBufferDelegate(self, queue: self.bufferFrameQueue) } func captureOutput(_ captureOutput: AVCaptureOutput!, didOutputSampleBuffer sampleBuffer: CMSampleBuffer!, from connection: […]

Cómo convertir CVImageBuffer a UIImage?

Tengo una variable temporal tmpPixelBuffer con datos de búfer de píxeles, que no es nil , y cuando se detectan objects de metadatos, quiero crear una image desde ese búfer, para poder recortar las imágenes de metadatos de esa image. La image es siempre nil , ¿qué hago mal? func captureOutput(captureOutput: AVCaptureOutput!, didOutputSampleBuffer sampleBuffer: CMSampleBuffer!, […]

iOS: error en __connection_block_invoke_2: connection interrumpida

Xcode / iOS 8 / AV Error relacionado con la fundación en la console: error in __connection_block_invoke_2: Connection interrupted Acabo de agregar AVCaptureVideoDataOutput a la aplicación de ejemplo de Apple 'AVCamManualUsingtheManualCaptureAPI' Lo que agregué fue: // CoreImage wants BGRA pixel format NSDictionary *outputSettings = @{ (id)kCVPixelBufferPixelFormatTypeKey : [NSNumber numberWithInteger:kCVPixelFormatType_32BGRA]}; // create and configure video data […]

Cómo grabar video usando AVCaptureVideoDataOutput

Estoy utilizando AVCaptureSession para get la salida de la camera y he agregado con éxito las inputs y salidas de audio y video. { var captureDevice = AVCaptureDevice.defaultDeviceWithMediaType(AVMediaTypeVideo) as AVCaptureDevice var error: NSError? = nil do { //remove the previous inputs let inputs = cameraSession.inputs as! [AVCaptureDeviceInput] for oldInput:AVCaptureDeviceInput in inputs { cameraSession.removeInput(oldInput) } cameraSession.beginConfiguration() […]