Je veux lire une video (avec son) et save des videos de la camera frontale en même time. Le viseur de la camera devrait apparaître sous la forme d'une petite "image dans l'image" dans le coin inférieur droit de l'écran pendant que le film passe en plein écran. Est-ce possible? La stratification des classs appropriées les unes sur les autres est-elle possible?
Découvrez le framework AVFoundation
, qui est utilisé pour une grande partie de la programmation audio et video dans iOS.
Dans votre cas, vous pouvez utiliser AVPlayer
et AVPlayerLayer
pour lire votre film, et AVCaptureSession
, AVCaptureVideoPreviewLayer
et AVCaptureMovieFileOutput
pour save.
Si vous êtes familier avec Core Animation, vous pouvez définir les limites et append des sous-couches à AVPlayerLayer
et AVCaptureVideoPreviewLayer
pour get la disposition d'interface souhaitée.
Ces classs sont très bien documentées, et le Guide de programmation AVFoundation explique clairement leur interaction.
N'hésitez pas à commenter avec des questions.