libav 由显卡中读取数据制作视频

参考源代码中 libformat/output-example.c

参考代码 libavcodec/api-example.c 例子

http://howto-pages.org/ffmpeg/

http://en.wikipedia.org/wiki/Mpeg4

一个完整的视频包含 video 和 audio 两部分,采用不同的压缩算法,再采用某种方法将两个流压入到一个container 中, 从而组成一个完成的视频。

因此一个叫做xxx.mp4 的文件,表示的是如何将两个流数据压入container中的方法,而这个容器内部的视频流,音频流采用的是其它的压缩算法。

常见的视频压缩算法:H.263,  H.264,  Mpeg4 simple profile

其中android 支持播放 Mpeg4 simple profile, 并且libav 也可以直接生成mpeg4 simple profile 格式的视频,因此以这种视频格式为例子。


视频录制分成3个步骤:

初始化资源,写入视频头;

读取显卡数据,逐帧压入到流中;

释放资源,写入视频尾。

首先分析需要什么资源:

    需要输出的文件的格式等信息 AVFormatContext 

        需要给输出文件 加入一个视频流 AVStream

            对于一个视频流 需要 一个编码器 用来存放编码器的状态 AVCodecContext  

                编码器有对应的算法实现 AVCodec

                需要一个buffer 临时存放编码的结果

            需要一个AVFrame 用来存放没有被压缩的视频数据 通常格式是YUV420

                需要一个buffer 实际存放 没有压缩的视频数据

初始化的流程:

    建立AVFormatContext

    添加流 AVStream

    设置流的AVCodecContext 编码器状态

    打开输出文件

压缩过程:

    glReadPixel 读取显卡数据

    sws_scale() 转化数据格式 从RGB 到 YUV

    编码数据 avcodec_encode_video()

    建立一个AVPacket 指向编码后的数据 和 流的编号 

    将AVPacket 写入container 中。

清理过程:

    写入文件尾部

    释放编码器

    释放AVFrame

     释放AVStream

    释放AVFormatContext

    关闭输出文件   

      


   


            



原文地址:https://www.cnblogs.com/liyonghelpme/p/4273750.html