zoukankan      html  css  js  c++  java
  • FFMPEG关于推流端降低延迟调节(一)

    FFMPEG关于推流端降低延迟调节(一)

    本文所写的是调节推流端降低延迟能调节的一些方案,有不足请补充,其他端方向类似,例如降低采集缓存,减少编码时间等等,如有需要请参考。本文以windows推流端为例做解释。

    1:减少采集缓存

        av_dict_set(&p_device_options,"rtbufsize",str_buf_size,0);
        av_dict_set(&p_device_options,"start_time_realtime",0,0);
    rtbufsize是缓存的大小摄像头和麦克风的数据采集出来之后会先放到这个buf中然后才能取出来做解码或编码,buf大小根据自己的需求算出来设定。

    2:减少音频采集sampels数量

        //设置了采样率也无效,设置这个是为了让音频采集每次samples少一些。
        //buffer大小是以采样率44100计算的,44100*30=1323000,即每次采集音频samples = 1323个。
        av_dict_set(&p_device_options, "audio_buffer_size","30", 0);    
    解释下为什么要设置这个,音频采集如果不设置一般是采集出来1920个samples,如果没记错android采集出来的samples更多应该超过10000个,这么多的samples做编码的时候aac格式lc的profile只需要1024个samples,he的需要2048个,就需要循环编完之后才能再次去取新的麦克风数据,所以需要减少。

    3:gopsize减少

    编码一旦有gopsize很大的时候或者用了opencodec,有些播放器会等待I帧,无形中增加延迟。

    4:B帧减少

    编码时如果有B帧会再解码时缓存很多帧数据才能解B帧,因此只留下I帧和P帧。

    5:编码形式修改

    av_opt_set(cctext->priv_data, "preset", "superfast", 0); 
    可根据图像质量调整。

    6:实时编码

    av_opt_set(cctext->priv_data, "tune", "zerolatency", 0);
    一般的编码时进去很多帧yuv数据才能出来一帧sps,pps ,sei(可选)+I帧 等等。减少编码缓存会减少延迟。

    7:图像质量与编码速度调节

            output_codec_context->me_range = p_TaskSreamInfo->VideoCodecInfo.me_range;  
            output_codec_context->max_qdiff = p_TaskSreamInfo->VideoCodecInfo.max_qdiff;  
            output_codec_context->qmin = p_TaskSreamInfo->VideoCodecInfo.qmin; //调节清晰度和编码速度 //这个值调节编码后输出数据量越大输出数据量越小,越大编码速度越快,清晰度越差  
            output_codec_context->qmax = p_TaskSreamInfo->VideoCodecInfo.qmax; //调节清晰度和编码速度 
    这几个参数需要跟图像质量做平衡。
    ref:https://blog.csdn.net/zhuweigangzwg/article/details/82223011

  • 相关阅读:
    我的Java学习推荐书目
    BTrace使用简介
    BTrace使用小结
    如何在生产环境使用Btrace进行调试
    BTrace : Java 线上问题排查神器
    淘宝Tprofiler工具实现分析
    JVM 性能调优实战之:使用阿里开源工具 TProfiler 在海量业务代码中精确定位性能代码
    性能工具TProfiler介绍文档
    分布式系统理论基础
    微信小程序
  • 原文地址:https://www.cnblogs.com/lidabo/p/15071117.html
Copyright © 2011-2022 走看看