Рендеринг видео в iOS с использованием Metal / OpenGL ES
Как я могу визуализировать видео с помощью Metal или OpenGL ES?
Я говорю о декодировании и отображении тот самый кадры сам по себе.
Я очень новичок в Metal
и OpenGL ES
, и я не знаю, с чего начать.
2 ответа:
То, что вы просите, не является тривиальным для кого-то, кто только начинает с этим, поэтому вы можете разбить это на более мелкие части. Тем не менее, я сделал это и могу описать общий процесс.
Во-первых, вы начнете с AVAssetReader и настроите AVAssetReaderOutputs для аудио-и видеодорожек. Из них вы перебираете CMSampleBufferRefs. Для каждого видеокадра вы будете извлекать CVImageBufferRef.
Загрузка видеокадров в OpenGL textures может идите двумя разными путями. Наиболее эффективный путь-работать с данными YUV и загружать плоскости Y и UV через кэш текстур iOS. Затем вы будете использовать шейдер YUV -> RGB для объединения этих плоскостей и преобразования в цветовое пространство RGB для обработки или отображения.
Вы также можете работать с данными BGRA из файла фильма и загружать их непосредственно в текстуру,но этот процесс требует больших затрат. Это проще, однако, и позволяет избежать необходимости ручного преобразования цвета шейдерный.
После этого вы возьмете текстуру и визуализируете ее в квадрате, используя шейдер вершин и фрагментов passthrough, или вы можете выполнить шейдерную обработку видео.
Подобные процессы и пути существуют для загрузки в металл, и отправная точка одна и та же.
Теперь, если вы не хотите реализовывать все это вручную, я написал фреймворк с открытым исходным кодом под названием GPUImage, который инкапсулирует это. Он входит в Objective-C и Swift разновидности. Если вы не хотите тянуть весь фреймворк, сосредоточьтесь на классах GPUImageMovie (для первого) или MovieInput (для второго). Они содержат весь код, необходимый для этого, так что вы можете извлечь реализации там и использовать их непосредственно.
Вот самый простой и быстрый способ начать работу:
@import UIKit; @import AVFoundation; @import CoreMedia; #import <MetalKit/MetalKit.h> #import <Metal/Metal.h> #import <MetalPerformanceShaders/MetalPerformanceShaders.h> @interface ViewController : UIViewController <MTKViewDelegate, AVCaptureVideoDataOutputSampleBufferDelegate> { NSString *_displayName; NSString *serviceType; } @property (retain, nonatomic) SessionContainer *session; @property (retain, nonatomic) AVCaptureSession *avSession; @end; #import "ViewController.h" @interface ViewController () { MTKView *_metalView; id<MTLDevice> _device; id<MTLCommandQueue> _commandQueue; id<MTLTexture> _texture; CVMetalTextureCacheRef _textureCache; } @property (strong, nonatomic) AVCaptureDevice *videoDevice; @property (nonatomic) dispatch_queue_t sessionQueue; @end @implementation ViewController - (void)viewDidLoad { NSLog(@"%s", __PRETTY_FUNCTION__); [super viewDidLoad]; _device = MTLCreateSystemDefaultDevice(); _metalView = [[MTKView alloc] initWithFrame:self.view.bounds]; [_metalView setContentMode:UIViewContentModeScaleAspectFit]; _metalView.device = _device; _metalView.delegate = self; _metalView.clearColor = MTLClearColorMake(1, 1, 1, 1); _metalView.colorPixelFormat = MTLPixelFormatBGRA8Unorm; _metalView.framebufferOnly = NO; _metalView.autoResizeDrawable = NO; CVMetalTextureCacheCreate(NULL, NULL, _device, NULL, &_textureCache); [self.view addSubview:_metalView]; self.sessionQueue = dispatch_queue_create( "session queue", DISPATCH_QUEUE_SERIAL ); if ([self setupCamera]) { [_avSession startRunning]; } } - (BOOL)setupCamera { NSLog(@"%s", __PRETTY_FUNCTION__); @try { NSError * error; _avSession = [[AVCaptureSession alloc] init]; [_avSession beginConfiguration]; [_avSession setSessionPreset:AVCaptureSessionPreset640x480]; // get list of devices; connect to front-facing camera self.videoDevice = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo]; if (self.videoDevice == nil) return FALSE; AVCaptureDeviceInput *input = [AVCaptureDeviceInput deviceInputWithDevice:self.videoDevice error:&error]; [_avSession addInput:input]; dispatch_queue_t sampleBufferQueue = dispatch_queue_create("CameraMulticaster", DISPATCH_QUEUE_SERIAL); AVCaptureVideoDataOutput * dataOutput = [[AVCaptureVideoDataOutput alloc] init]; [dataOutput setAlwaysDiscardsLateVideoFrames:YES]; [dataOutput setVideoSettings:@{(id)kCVPixelBufferPixelFormatTypeKey: @(kCVPixelFormatType_32BGRA)}]; [dataOutput setSampleBufferDelegate:self queue:sampleBufferQueue]; [_avSession addOutput:dataOutput]; [_avSession commitConfiguration]; } @catch (NSException *exception) { NSLog(@"%s - %@", __PRETTY_FUNCTION__, exception.description); return FALSE; } @finally { return TRUE; } } - (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection { CVPixelBufferRef pixelBuffer = CMSampleBufferGetImageBuffer(sampleBuffer); { size_t width = CVPixelBufferGetWidth(pixelBuffer); size_t height = CVPixelBufferGetHeight(pixelBuffer); CVMetalTextureRef texture = NULL; CVReturn status = CVMetalTextureCacheCreateTextureFromImage(kCFAllocatorDefault, _textureCache, pixelBuffer, NULL, MTLPixelFormatBGRA8Unorm, width, height, 0, &texture); if(status == kCVReturnSuccess) { _metalView.drawableSize = CGSizeMake(width, height); _texture = CVMetalTextureGetTexture(texture); _commandQueue = [_device newCommandQueue]; CFRelease(texture); } } } - (void)drawInMTKView:(MTKView *)view { // creating command encoder if (_texture) { id<MTLCommandBuffer> commandBuffer = [_commandQueue commandBuffer]; id<MTLTexture> drawingTexture = view.currentDrawable.texture; // set up and encode the filter MPSImageGaussianBlur *filter = [[MPSImageGaussianBlur alloc] initWithDevice:_device sigma:5]; [filter encodeToCommandBuffer:commandBuffer sourceTexture:_texture destinationTexture:drawingTexture]; // committing the drawing [commandBuffer presentDrawable:view.currentDrawable]; [commandBuffer commit]; _texture = nil; } } - (void)mtkView:(MTKView *)view drawableSizeWillChange:(CGSize)size { } @end