FFMPEG关于推流端降低延迟调节(一)

FFMPEG关于推流端降低延迟调节(一)

本文所写的是调节推流端降低延迟能调节的一些方案,有不足请补充,其他端方向类似,例如降低采集缓存,减少编码时间等等,如有需要请参考。本文以windows推流端为例做解释。

1:减少采集缓存

    av_dict_set(&p_device_options,"rtbufsize",str_buf_size,0);
    av_dict_set(&p_device_options,"start_time_realtime",0,0);
rtbufsize是缓存的大小摄像头和麦克风的数据采集出来之后会先放到这个buf中然后才能取出来做解码或编码,buf大小根据自己的需求算出来设定。

2:减少音频采集sampels数量

    //设置了采样率也无效,设置这个是为了让音频采集每次samples少一些。
    //buffer大小是以采样率44100计算的,44100*30=1323000,即每次采集音频samples = 1323个。
    av_dict_set(&p_device_options, "audio_buffer_size","30", 0);    
解释下为什么要设置这个,音频采集如果不设置一般是采集出来1920个samples,如果没记错android采集出来的samples更多应该超过10000个,这么多的samples做编码的时候aac格式lc的profile只需要1024个samples,he的需要2048个,就需要循环编完之后才能再次去取新的麦克风数据,所以需要减少。

3:gopsize减少

编码一旦有gopsize很大的时候或者用了opencodec,有些播放器会等待I帧,无形中增加延迟。

4:B帧减少

编码时如果有B帧会再解码时缓存很多帧数据才能解B帧,因此只留下I帧和P帧。

5:编码形式修改

av_opt_set(cctext->priv_data, "preset", "superfast", 0); 
可根据图像质量调整。

6:实时编码

av_opt_set(cctext->priv_data, "tune", "zerolatency", 0);
一般的编码时进去很多帧yuv数据才能出来一帧sps,pps ,sei(可选)+I帧 等等。减少编码缓存会减少延迟。

7:图像质量与编码速度调节

        output_codec_context->me_range = p_TaskSreamInfo->VideoCodecInfo.me_range;  
        output_codec_context->max_qdiff = p_TaskSreamInfo->VideoCodecInfo.max_qdiff;  
        output_codec_context->qmin = p_TaskSreamInfo->VideoCodecInfo.qmin; //调节清晰度和编码速度 //这个值调节编码后输出数据量越大输出数据量越小,越大编码速度越快,清晰度越差  
        output_codec_context->qmax = p_TaskSreamInfo->VideoCodecInfo.qmax; //调节清晰度和编码速度 
这几个参数需要跟图像质量做平衡。
ref:https://blog.csdn.net/zhuweigangzwg/article/details/82223011

原文地址:https://www.cnblogs.com/lidabo/p/15071117.html