zoukankan      html  css  js  c++  java
  • Metal 四、视频采集预览渲染+YUV

    一、Metal 实现视频预览

    首先我们知道视频其实就是一帧帧的图片。

    渲染业务流程:

    (注:AVFoundation 有提供的预览图层: AVCaptureVideoPreviewLayer)

     

    0、初始化工作

        // 1.获取 MTKView 预览图层
        self.mtkView = [[MTKView alloc] initWithFrame:self.view.bounds];
        self.mtkView.device = MTLCreateSystemDefaultDevice();
        [self.view insertSubview:self.mtkView atIndex:0];
        self.mtkView.delegate = self;
        
        // 2.创建命令队列
        self.commandQueue = [self.mtkView.device newCommandQueue];
        
        // 3.注意: 在初始化MTKView 的基本操作以外. 还需要多下面2行代码.
        /*
         1. 设置MTKView 的drawable 纹理是可读写的(默认是只读);
         2. 创建CVMetalTextureCacheRef _textureCache; 这是Core Video的Metal纹理缓存
         */
        // 允许读写操作
        self.mtkView.framebufferOnly = NO;
        /*
         CVMetalTextureCacheCreate(CFAllocatorRef  allocator,
         CFDictionaryRef cacheAttributes,
         id <MTLDevice>  metalDevice,
         CFDictionaryRef  textureAttributes,
         CVMetalTextureCacheRef * CV_NONNULL cacheOut )
         功能: 创建纹理缓存区
    
         参数1: allocator 内存分配器.默认即可.NULL
         参数2: cacheAttributes 缓存区行为字典.默认为NULL
         参数3: metalDevice
         参数4: textureAttributes 缓存创建纹理选项的字典. 使用默认选项NULL
         参数5: cacheOut 返回时,包含新创建的纹理缓存。
         */
        CVMetalTextureCacheCreate(NULL, NULL, self.mtkView.device, NULL, &_textureCache);

    1、通过 AVFoundation 进行视频采集

     1     // 1.创建mCaptureSession
     2     self.mCaptureSession = [[AVCaptureSession alloc] init];
     3     // 设置视频采集的分辨率
     4     self.mCaptureSession.sessionPreset = AVCaptureSessionPreset1920x1080;
     5   
     6     // 2.创建串行队列
     7     self.mProcessQueue = dispatch_queue_create("mProcessQueue", DISPATCH_QUEUE_SERIAL);
     8    
     9     // 3.获取摄像头设备(前置/后置摄像头)
    10     NSArray *devices = [AVCaptureDevice devicesWithMediaType:AVMediaTypeVideo];
    11     AVCaptureDevice *inputCamera = nil;
    12     // 循环设备数组,找到后置摄像头.设置为当前inputCamera
    13     for (AVCaptureDevice *device in devices) {
    14         if ([device position] == AVCaptureDevicePositionBack) {
    15             inputCamera = device;
    16         }
    17     }
    18     
    19     // 4.将 AVCaptureDevice 转换为 AVCaptureDeviceInput
    20     self.mCaptureDeviceInput = [[AVCaptureDeviceInput alloc] initWithDevice:inputCamera error:nil];
    21     
    22     // 5. 将设备添加到 mCaptureSession 中
    23     if ([self.mCaptureSession canAddInput:self.mCaptureDeviceInput]) {
    24         [self.mCaptureSession addInput:self.mCaptureDeviceInput];
    25     }
    26     
    27     // 6.创建 AVCaptureVideoDataOutput 对象 --> 输出
    28     self.mCaptureDeviceOutput = [[AVCaptureVideoDataOutput alloc] init];
    29     
    30     /*设置视频帧延迟到底时是否丢弃数据.
    31      YES: 处理现有帧的调度队列在captureOutput:didOutputSampleBuffer:FromConnection:Delegate方法中被阻止时,对象会立即丢弃捕获的帧。
    32      NO: 在丢弃新帧之前,允许委托有更多的时间处理旧帧,但这样可能会内存增加.
    33      */
    34     [self.mCaptureDeviceOutput setAlwaysDiscardsLateVideoFrames:NO];
    35     
    36     // 这里设置格式为 BGRA,而不用YUV的颜色空间,避免使用Shader转换
    37     // 注意: 这里必须和 CVMetalTextureCacheCreateTextureFromImage 保存图像像素存储格式保持一致,否则视频会出现异常现象
    38     [self.mCaptureDeviceOutput setVideoSettings:[NSDictionary dictionaryWithObject:[NSNumber numberWithInt:kCVPixelFormatType_32BGRA] forKey:(id)kCVPixelBufferPixelFormatTypeKey]];
    39     
    40     // 设置视频捕捉输出的代理方法
    41     [self.mCaptureDeviceOutput setSampleBufferDelegate:self queue:self.mProcessQueue];
    42     
    43     // 7.添加输出
    44     if ([self.mCaptureSession canAddOutput:self.mCaptureDeviceOutput]) {
    45         [self.mCaptureSession addOutput:self.mCaptureDeviceOutput];
    46     }
    47     
    48     // 8.输入与输出链接
    49     AVCaptureConnection *connection = [self.mCaptureDeviceOutput connectionWithMediaType:AVMediaTypeVideo];
    50     
    51     // 9.设置视频方向
    52     // 注意: 一定要设置视频方向,否则视频会是朝向异常的
    53     [connection setVideoOrientation:AVCaptureVideoOrientationPortrait];
    54     
    55     // 10.开始捕捉
    56     [self.mCaptureSession startRunning];

    2、Metal 进行视图的渲染 -- 2个 delegate 方法

    #pragma mark - AVFoundation Delegate -
    // AVFoundation 视频采集回调方法
    - (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection {
        
        // 1.从sampleBuffer 获取视频像素缓存区对象
        CVPixelBufferRef pixelBuffer = CMSampleBufferGetImageBuffer(sampleBuffer);
       
        // 2.获取捕捉视频的宽和高
        size_t width = CVPixelBufferGetWidth(pixelBuffer);
        size_t height = CVPixelBufferGetHeight(pixelBuffer);
        
        /* 3. 根据视频像素缓存区 创建 Metal 纹理缓存区
         CVReturn CVMetalTextureCacheCreateTextureFromImage(CFAllocatorRef allocator,                         CVMetalTextureCacheRef textureCache,
         CVImageBufferRef sourceImage,
         CFDictionaryRef textureAttributes,
         MTLPixelFormat pixelFormat,
         size_t width,
         size_t height,
         size_t planeIndex,
         CVMetalTextureRef  *textureOut);
         
         功能: 从现有图像缓冲区创建核心视频Metal纹理缓冲区。
         参数1: allocator 内存分配器,默认kCFAllocatorDefault
         参数2: textureCache 纹理缓存区对象
         参数3: sourceImage 视频图像缓冲区
         参数4: textureAttributes 纹理参数字典.默认为NULL
         参数5: pixelFormat 图像缓存区数据的Metal 像素格式常量.注意如果MTLPixelFormatBGRA8Unorm和摄像头采集时设置的颜色格式不一致,则会出现图像异常的情况;
         参数6: width,纹理图像的宽度(像素)
         参数7: height,纹理图像的高度(像素)
         参数8: planeIndex.如果图像缓冲区是平面的,则为映射纹理数据的平面索引。对于非平面图像缓冲区忽略。
         参数9: textureOut,返回时,返回创建的Metal纹理缓冲区。
         
         // Mapping a BGRA buffer:
         CVMetalTextureCacheCreateTextureFromImage(kCFAllocatorDefault, textureCache, pixelBuffer, NULL, MTLPixelFormatBGRA8Unorm, width, height, 0, &outTexture);
         
         // Mapping the luma plane of a 420v buffer:
         CVMetalTextureCacheCreateTextureFromImage(kCFAllocatorDefault, textureCache, pixelBuffer, NULL, MTLPixelFormatR8Unorm, width, height, 0, &outTexture);
         
         // Mapping the chroma plane of a 420v buffer as a source texture:
         CVMetalTextureCacheCreateTextureFromImage(kCFAllocatorDefault, textureCache, pixelBuffer, NULL, MTLPixelFormatRG8Unorm width/2, height/2, 1, &outTexture);
         
         // Mapping a yuvs buffer as a source texture (note: yuvs/f and 2vuy are unpacked and resampled -- not colorspace converted)
         CVMetalTextureCacheCreateTextureFromImage(kCFAllocatorDefault, textureCache, pixelBuffer, NULL, MTLPixelFormatGBGR422, width, height, 1, &outTexture);
         */
        CVMetalTextureRef tmpTexture = NULL;
        CVReturn status = CVMetalTextureCacheCreateTextureFromImage(kCFAllocatorDefault, self.textureCache, pixelBuffer, NULL, MTLPixelFormatBGRA8Unorm, width, height, 0, &tmpTexture);
        
        // 4.判断tmpTexture 是否创建成功
        if(status == kCVReturnSuccess) {
    
            // 5.设置可绘制纹理的当前大小。
            self.mtkView.drawableSize = CGSizeMake(width, height);
            // 6.返回纹理缓冲区的Metal纹理对象。
            self.texture = CVMetalTextureGetTexture(tmpTexture);
            // 7.使用完毕,则释放tmpTexture
            CFRelease(tmpTexture);
        }
    }
    
    #pragma mark - MTKView Delegate -
    // 视图渲染则会调用此方法
    - (void)drawInMTKView:(MTKView *)view {
      
        // 1.判断是否获取了AVFoundation 采集的纹理数据
        if (self.texture) {
            
            // 2.创建指令缓冲
            id<MTLCommandBuffer> commandBuffer = [self.commandQueue commandBuffer];
            
            // 3.将MTKView 作为目标渲染纹理
            id<MTLTexture> drawingTexture = view.currentDrawable.texture;
            
            // 4.设置滤镜
            /*
             MetalPerformanceShaders是Metal的一个集成库,有一些滤镜处理的Metal实现;
             MPSImageGaussianBlur 高斯模糊处理;
             */
            // 创建高斯滤镜处理 filter
            // sigma 值越高图像越模糊
            MPSImageGaussianBlur *filter = [[MPSImageGaussianBlur alloc] initWithDevice:self.mtkView.device sigma:1];
            
            // 5.MPSImageGaussianBlur 以一个 Metal 纹理作为输入,以一个Metal 纹理作为输出;
            // 输入:摄像头采集的图像 self.texture
            // 输出:创建的纹理 drawingTexture (其实就是view.currentDrawable.texture)
            [filter encodeToCommandBuffer:commandBuffer sourceTexture:self.texture destinationTexture:drawingTexture];
            
            // 6.展示显示的内容
            [commandBuffer presentDrawable:view.currentDrawable];
            
            // 7.提交命令
            [commandBuffer commit];
            
            // 8.清空当前纹理,准备下一次的纹理数据读取.
            self.texture = NULL;
        }
    }
    // MTKView - 视图大小发生改变时.会调用此方法
    - (void)mtkView:(nonnull MTKView *)view drawableSizeWillChange:(CGSize)size {}

    二、视频处理

    1、一张图片的大小

    图片的渲染:jpg/png文件 --> 解压成位图 --> 片元着色器  对每个像素处理 --> 渲染显示

    视频的渲染:视频文件 --> 解码(解压缩) --> 视频 60帧/s, 60张图片的处理 --> 片元着色器

    举例:RGB 编码的一张 1280*720 的图片(这里忽略透明度A):

      有1280*720个像素点,每个像素点红绿蓝3个原色,每个原色占 8bit(1字节),那么一个像素即 3*8=24bit,即 3字节

      --> so 一张图片占用存储空间:1280*720 * 3 /1024/1024 = 2.63MB.

    对视频来讲,这种空间占用率太高,消耗太大了。

    如何解决此问题?

    1)视频压缩(编码) --> H264 格式视频(视频压缩) --> 压缩比可达到 102:1

    2)采集时,降低数据量 --> YUV 格式保存视频

    2、YUV

    2.1)YUV是什么

    YUV 颜色编码和 RGB颜色编码的红绿蓝三原色组合 不同,YUV采用的是 明亮度 和 色度 来指定像素的颜色。

    Y:明亮度(Luminance、Luma)

    U、V:色度(Chrominance、Chroma) -->

        色度又定义了颜色的:色调饱和度

    为什么用 YUV  -->  1、节省带宽 2、比 RGBA 占用 内存空间 更少

    2.2)YUV 采样格式

    和 RGB 表示图像类似,每个像素点都包含 YUV 三个分量。但它的Y分量和UV分量是可以拆分开的,没有UV 分量也是可以显示一张完整图片的,不过图片会是没有色彩的黑白的。

    对于 YUV 格式图像来说,并非每个像素点都包含了完整的 YUV 三个分量,根据不同的采样格式,每个 Y 分量可以对应自身的 UV 分量,也可以几个 Y 共用 UV 分量。

    a、采样格式 YUV4:4:4 

    YUV4:4:4 采样,YUV 三个分量的采样比例相同,在生成的图像里,每个像素点的三分量信息都是完整的8bit。

    采样码流 为:Y0 U0 V0 Y1 U2 V1 Y2 U2 V2 Y3 U3 V3

    映射还原的像素点:[Y0 U0 V0] [Y1 U2 V1] [Y2 U2 V2] [Y3 U3 V3]

    图片所占空间: 1280*720 * 3 /1024/1024 = 2.63MB,与RGB格式相同。此种采样格式实际业务中并不会使用。

    b、采样格式 YUV4:2:2

    YUV4:2:2 即,UV 分量是 Y 分量的一半,Y 和 UV 按照 2:1 的比例采样。如果水平方向有10个像素点,那么采样了 10 个 Y,5个UV。采样方式如上图,UV分量隔一个采一个,相当于前后2个像素 每次都借用彼此的V/U分量。

    采样码流:Y0 U0 Y1 V1 Y2 U2 Y3 V3

    映射还原像素点:[Y0 U0 V1] [Y1 U0 V1] [Y2 U2 V3] [Y3 U2 V3]

    此时,图片所占空间: 1280*720 * (8bit + 0.5*8 * 2) / 8  /1024/1024 = 1.76MB。相较RGB模型图像节省了 1/3 的存储空间,传递中占用带宽也随之减少。

    c、采样格式 YUV4:2:0

    YUV4:2:0 采样,在每一行扫描时,只扫一种色度分量(U 或 V),和Y 按 2:1 的方式采样。比如,第一行 YU 按 2:1 的方式采样,那么第二行则 YV 按 2:1 的方式采样。 对于每个色度分量来说,水平和竖直方向上的采样 和 Y 相比 都是 2:1。此种方式必粗要扫2行才能组成完整的UV分量。如上图,也可以理解为,4个一组,UV 分量共用。

    采样码流:Y0 U0 Y1 Y2 U2 Y3

        :   Y4 V4 Y5 Y6 V6 Y7

    映射还原像素点:[Y0 U0 V4] [Y1 U0 V4]  [Y2 U2 V6] [Y3 U2 V6]

            [Y4 U0 V4] [Y5 U0 V4]  [Y6 U2 V6] [Y7 U2 V6]

    此时,图片占用空间大小:1280*720 * (8 + 0.25*8 *2) / 8 /1024/1024 = 1.32M,进一步的缩小了占据中间,传输时带宽占用更少。

    YUV4:2:0 采样是目前业务开发中最常用的方式。

    视频捕获(采集)过程中,只需在片元着色器中,将RGBA转化成 YUV 即可。

    3、YUV 与 RGBA 转换

    对于图像显示器来说,是通过 RGB 模型来显示图像的,而在传输图像数据时,我们使用的是 YUV 模型,因为 YUV 可以节省带宽。因此,采集图像时,我们会将RGB 转换到YUV,但是,显示时我们要将 YUV 转回 RGB

    RGB 到 YUV 的转换,即 将图像所有的像素点的 RGB 分量转换到 YUV 分量。

    RGB ==> YUV:

    Y  = 0.299 * R + 0.587 * G + 0.114 * B

    U = -0.147 * R - 0.289 * G + 0.436 * B

    V = 0.615 * R - 0.515 * G - 0.100 * B

    YUV ==> RGB:

    R = Y + 1.14 * V

    G = Y - 0.39 * U - 0.58 * V

    B = Y + 2.03 * U

    以上。

    YUV 处理后,虽然图片占用空间已相对缩小,但,仍需要继续 对视频压缩处理,2者结合,进一步优化。

  • 相关阅读:
    在vue中使用pug
    【心无旁骛】vuex-simple
    Property 'validate' does not exist on type 'Element | Element[] | Vue | Vue[]'. Property 'valid...
    【心无旁骛】vue-ts-daily
    Vuex持久化存储之vuex-persist
    canvas 水滴图、液体进度条、仿加速球、圆球水波图
    stackoverflow愚人节彩蛋效果
    Windows平台网站图片服务器架构的演进[转]
    SQL Server AlwaysOn架构及原理
    AlwaysON同步的原理及可用模式
  • 原文地址:https://www.cnblogs.com/zhangzhang-y/p/13580175.html
Copyright © 2011-2022 走看看