AVCaptureStillImageOutput vs AVCapturePhotoOutput en Swift 3

Estoy tratando de simplemente poner una vista de camera en mi controller de vista.

AVFoundation en la parte superior, así como las classs UIImagePickerControllerDelegate y UINavigationControllerDelegate .

Sin embargo, cada vez que trato de utilizar AVCaptureStillImageOutput , Xcode me dice que estaba en desuso en iOS10 y debería usar AVCapturePhotoOutput . Eso está completamente bien, sin embargo, tan pronto como quiera llamar a stillImageOutput.outputSettings , .outputSettings no está disponible. Por lo tanto, tengo que usar AVAVCaptureStillImageOutput para que funcione, pero tengo múltiples advertencias porque esta function estaba en desuso en iOS10.

Busqué y busqué, pero no pude encontrar realmente la solución a su alnetworkingedor. Realmente agradecería su ayuda. Estoy aprendiendo, ¡cualquier explicación sería genial! El código está debajo.

 import UIKit import AVFoundation class CameraView: UIViewController, UIImagePickerControllerDelegate, UINavigationControllerDelegate { var captureSession : AVCaptureSession? var stillImageOutput : AVCaptureStillImageOutput? var previewLayer : AVCaptureVideoPreviewLayer? @IBOutlet var cameraView: UIView! override func viewWillAppear(_ animated: Bool) { super.viewWillAppear(animated) captureSession = AVCaptureSession() captureSession?.sessionPreset = AVCaptureSessionPreset1920x1080 var backCamera = AVCaptureDevice.defaultDevice(withMediaType: AVMediaTypeVideo) var error : NSError? do { var input = try! AVCaptureDeviceInput (device: backCamera) if (error == nil && captureSession?.canAddInput(input) != nil) { captureSession?.addInput(input) stillImageOutput = AVCaptureStillImageOutput() stillImageOutput?.outputSettings = [AVVideoCodecKey: AVVideoCodecJPEG] if (captureSession?.canAddOutput(stillImageOutput) != nil) { captureSession?.addOutput(stillImageOutput) previewLayer = AVCaptureVideoPreviewLayer (session: captureSession) previewLayer?.videoGravity = AVLayerVideoGravityResizeAspect previewLayer?.connection.videoOrientation = AVCaptureVideoOrientation.portrait cameraView.layer.addSublayer(previewLayer!) captureSession?.startRunning() } } } catch { } } } 

AVCaptureStillImageOutput está en desuso significa que puede seguir usándolo en iOS 10, pero:

  • Apple no promete cuánto time pasará el iOS 10 y estará disponible.
  • a medida que se agreguen nuevas características de hardware y software en iOS 10 y posteriores, no tendrá acceso a todas ellas. Por ejemplo, puede configurar AVCaptureStillImageOutput para un color amplio, pero es mucho más fácil hacer un color amplio con AVCapturePhotoOutput . Y para captura RAW o Live Photos, AVCapturePhotoOutput es el único juego en la ciudad.

Si está contento de proceder a pesar de la desaprobación, su problema no es que outputSettings se elimine , todavía está ahí .

Algo que debe tener en count para la versión beta 6 y más allá (aunque resulta que no es un problema aquí): las API que usan NSDictionary sin keys explícitas y types de valores entran en Swift 3 como [AnyHashable: Any] y la Foundation o CoreFoundation le escribe podría usar en un dictionary ya no están vinculados implícitamente a los types Swift. (Algunas de las otras preguntas sobre las conversiones del dictionary beta 6 pueden apuntarte en la dirección correcta allí).

Sin embargo, no outputSettings ningún error de compilation para configurar outputSettings . Ya sea en su código completo o networkinguciéndolo a las partes esenciales de esa línea:

 var stillImageOutput : AVCaptureStillImageOutput? stillImageOutput = AVCaptureStillImageOutput() stillImageOutput?.outputSettings = [AVVideoCodecKey: AVVideoCodecJPEG] 

… las únicas advertencias que veo son sobre la desaprobación.

Hay mi implementación completa

 import UIKit import AVFoundation class ViewController: UIViewController, AVCapturePhotoCaptureDelegate { var captureSesssion : AVCaptureSession! var cameraOutput : AVCapturePhotoOutput! var previewLayer : AVCaptureVideoPreviewLayer! @IBOutlet weak var captunetworkingImage: UIImageView! @IBOutlet weak var previewView: UIView! override func viewDidLoad() { super.viewDidLoad() captureSesssion = AVCaptureSession() captureSesssion.sessionPreset = AVCaptureSessionPresetPhoto cameraOutput = AVCapturePhotoOutput() let device = AVCaptureDevice.defaultDevice(withMediaType: AVMediaTypeVideo) if let input = try? AVCaptureDeviceInput(device: device) { if (captureSesssion.canAddInput(input)) { captureSesssion.addInput(input) if (captureSesssion.canAddOutput(cameraOutput)) { captureSesssion.addOutput(cameraOutput) previewLayer = AVCaptureVideoPreviewLayer(session: captureSesssion) previewLayer.frame = previewView.bounds previewView.layer.addSublayer(previewLayer) captureSesssion.startRunning() } } else { print("issue here : captureSesssion.canAddInput") } } else { print("some problem here") } } // Take picture button @IBAction func didPressTakePhoto(_ sender: UIButton) { let settings = AVCapturePhotoSettings() let previewPixelType = settings.availablePreviewPhotoPixelFormatTypes.first! let previewFormat = [ kCVPixelBufferPixelFormatTypeKey as String: previewPixelType, kCVPixelBufferWidthKey as String: 160, kCVPixelBufferHeightKey as String: 160 ] settings.previewPhotoFormat = previewFormat cameraOutput.capturePhoto(with: settings, delegate: self) } // callBack from take picture func capture(_ captureOutput: AVCapturePhotoOutput, didFinishProcessingPhotoSampleBuffer photoSampleBuffer: CMSampleBuffer?, previewPhotoSampleBuffer: CMSampleBuffer?, resolvedSettings: AVCaptureResolvedPhotoSettings, bracketSettings: AVCaptureBracketedStillImageSettings?, error: Error?) { if let error = error { print("error occure : \(error.localizedDescription)") } if let sampleBuffer = photoSampleBuffer, let previewBuffer = previewPhotoSampleBuffer, let dataImage = AVCapturePhotoOutput.jpegPhotoDataRepresentation(forJPEGSampleBuffer: sampleBuffer, previewPhotoSampleBuffer: previewBuffer) { print(UIImage(data: dataImage)?.size as Any) let dataProvider = CGDataProvider(data: dataImage as CFData) let cgImageRef: CGImage! = CGImage(jpegDataProviderSource: dataProvider!, decode: nil, shouldInterpolate: true, intent: .defaultIntent) let image = UIImage(cgImage: cgImageRef, scale: 1.0, orientation: UIImageOrientation.right) self.captunetworkingImage.image = image } else { print("some error here") } } // This method you can use somewhere you need to know camera permission state func askPermission() { print("here") let cameraPermissionStatus = AVCaptureDevice.authorizationStatus(forMediaType: AVMediaTypeVideo) switch cameraPermissionStatus { case .authorized: print("Already Authorized") case .denied: print("denied") let alert = UIAlertController(title: "Sorry :(" , message: "But could you please grant permission for camera within device settings", prefernetworkingStyle: .alert) let action = UIAlertAction(title: "Ok", style: .cancel, handler: nil) alert.addAction(action) present(alert, animated: true, completion: nil) case .restricted: print("restricted") default: AVCaptureDevice.requestAccess(forMediaType: AVMediaTypeVideo, completionHandler: { [weak self] (granted :Bool) -> Void in if granted == true { // User granted print("User granted") DispatchQueue.main.async(){ //Do smth that you need in main thread } } else { // User Rejected print("User Rejected") DispatchQueue.main.async(){ let alert = UIAlertController(title: "WHY?" , message: "Camera it is the main feature of our application", prefernetworkingStyle: .alert) let action = UIAlertAction(title: "Ok", style: .cancel, handler: nil) alert.addAction(action) self?.present(alert, animated: true, completion: nil) } } }); } } }