zoukankan      html  css  js  c++  java
  • (转译)用FFmpeg和SDL写播放器01视频帧提取

    指导1:制作视频帧提取
    概要
    电影文件有很多基本的组成部分。首先,文件本身被称为容器Container,容器的类型决定了信息
    被存放在文件中的位置。AVI和Quicktime就是容器的例子。接着,你有一组,例如,你经常有
    的是一个音频流和一个视频流。(一个流只是一种想像出来的词语,用来表示一连串的通过时间
    来串连的数据元素)。在流中的数据元素被称为帧Frame。每个流是由不同的编码器来编码生成
    的。编解码器描述了实际的数据是如何被编码Coded和解码DECoded的,因此它的名字叫做CODEC。
    Divx和MP3就是编解码器的例子。接着从流中被读出来的叫做包Packets。包是一段数据,它包
    含了一段可以被解码成方便我们最后在应用程序中操作的原始帧的数据。根据我们的目的,每个包
    包含了完整的帧或者对于音频来说是许多格式的完整帧。
    基本上来说,处理视频和音频流是很容易的:
    10 从video.avi文件中打开视频流video_stream
    20 从视频流中读取包到帧中
    30 如果这个帧还不完整,跳到20
    40 对这个帧进行一些操作
    50 跳回到20
    在这个程序中使用ffmpeg来处理多种媒体是相当容易的,虽然很多程序可能在对帧进行操作的时候
    非常的复杂。因此在这篇指导中,我们将打开一个文件,读取里面的视频流,而且我们对帧的操作
    将是把这个帧写到一个PPM文件中。

    打开文件
    首先,来看一下我们如何打开一个文件。通过ffmpeg,你必需先初始化这个库。
    (注意最新的ffmpeg把功能分开了,下面的代码用<libavcodec/avcodec.h>和<libavformat/avformat.h>
    来替换)

    #include<avcodec.h>
    #include<avformat.h>
    ...
    int main(int argc,char *argv[]){
    av_register_all();
    (注一些数据结构
    AVFormatContext:保存需要读入的文件的格式信息,比如流的个数以及流数据等 
    AVCodecCotext:保存了相应流的详细编码信息,比如视频的宽、高,编码类型等。 
    AVCodec:编码解码器
    AVFrame:用于保存数据帧的数据结构,这里的两个帧分别是保存颜色转换前后的两帧图像 
    AVPacket:解析文件时会将音/视频帧读入到packet中)

    这里注册了所有的文件格式和编解码器的库,所以它们将被自动的使用在被打开的合适格式的文件上。
    注意你只需要调用av_register_all()一次,因此我们在主函数main()中来调用它。如果你喜欢,也可以只注册特定的格式和编解码器,但是通常你没有必要这样做。
    现在我们可以真正的打开文件:
    AVFormatContext *pFormatCtx = NULL;
    //Openvideofile
    if(avformat_open_input(&pFormatCtx, argv[1], NULL, NULL)!=0)
    return-1;//Couldn'topenfile
    (根据打开的文件信息填充AVFormatContext,需要注意的是,此处的pFormatContext必须为NULL或由avformat_alloc_context分配得到)我们通过第一个参数来获得文件名(注以0开始)。这个函数读取文件的头部并且把信息保存到我们给的AVFormatContext结构体中。最后两个参数用来指定特殊的文件格式
    AVInputFormat和额外参数AVDictionary,但如果把它们设置为空NULL,libavformat将自动检测这些参数。
    这个函数只是检测了文件的头部,所以接着我们需要检查在文件中的流的信息:
    //Retrieve stream information
    if(av_find_stream_info(pFormatCtx)<0)
    return-1;//Couldn't find stream information
    这个函数为pFormatCtx->streams填充上正确的信息。我们引进一个手工调试的函数来看一下里面有什么:
    //Dump information about file onto standard error
    av_dump_format(pFormatCtx,0,argv[1],0);
    现在pFormatCtx->streams仅仅是一组大小为pFormatCtx->nb_streams的指针,所以让我们先跳过它直到我
    们找到一个视频流。
    int i,videoStream;
    AVCodecContext *pCodecCtx;
    //Find the first video stream
    videoStream=-1;
    for(i=0;i<pFormatCtx->nb_streams;i++)
    if(pFormatCtx->streams->codec->codec_type==AVMEDIA_TYPE_VIDEO){
    videoStream=i;
    break;
    }
    if(videoStream==-1)
    return -1;//Didn't find a videostream
    //Get a pointer to the codec context for the videostream
    pCodecCtx=pFormatCtx->streams[videoStream]->codec;
    流中关于编解码器的信息就是被我们叫做"codeccontext"(编解码器上下文)
    的东西。这里面包含了流中所使用的关于编解码器的所有信息,现在我们有了一个指向他的指针。但是我们
    必需要找到真正的编解码器并且打开它:
    AVCodec*pCodec;
    //Find the decoder for the video stream
    pCodec=avcodec_find_decoder(pCodecCtx->codec_id);
    if(pCodec==NULL){
    fprintf(stderr,"Unsupported codec!\n");
    return-1;//Codec not found
    }
    //Open codec
    if(avcodec_open2(pCodecCtx, pCodec, &optionsDict)<0)
    return-1;//Could not open codec
    有些人可能会从旧的指导中记得有两个关于这些代码其它部分:添加CODEC_FLAG_TRUNCATED到pCodecCtx->flags和添加一个hack来粗糙的修正帧率。这两个修正已经不在存在于ffplay.c中。因此,我必需
    假设它们不再必要。我们移除了那些代码后还有一个需要指出的不同点:pCodecCtx->time_base现在已经保
    存了帧率的信息。time_base是一个结构体,它里面有一个分子和分母(AVRational)。我们使用分数的方式来
    表示帧率是因为很多编解码器使用非整数的帧率(例如NTSC使用29.97fps)。

    保存数据
    现在我们需要找到一个地方来保存帧:
    AVFrame*pFrame;
    // Allocate video frame
    pFrame=avcodec_alloc_frame();
    因为我们准备输出保存24位RGB色的PPM文件,我们必需把帧的格式从原来的转换为RGB。FFMPEG将为我们
    做这些转换。在大多数项目中(包括我们的这个)我们都想把原始的帧转换成一个特定的格式。让我们先为
    转换工作申请一帧的内存。
    // Allocate video frame
    pFrameRGB=avcodec_alloc_frame();
    if(pFrameRGB==NULL)
    return-1;
    即使我们申请了一帧的内存,当转换的时候,我们仍然需要一个地方来放置原始
    的数据。我们使用avpicture_get_size来获得我们需要的大小,然后手工申请内存空间:
    uint8_t*buffer;
    int numBytes;
    // Determine required buffer size and allocate buffer
    numBytes=avpicture_get_size(PIX_FMT_RGB24,pCodecCtx->width,
    pCodecCtx->height);
    buffer=(uint8_t*)av_malloc(numBytes*sizeof(uint8_t));
    av_malloc是ffmpeg的malloc,用来实现一个简单的malloc的包装,这样来保证内存地址是对齐的(4字节对
    齐或者2字节对齐)。它并不能保护你不被内存泄漏,重复释放或者其它malloc的问题所困扰。
    现在我们使用avpicture_fill来把帧和我们新申请的内存来结合。关于AVPicture的结成:AVPicture结构体是
    AVFrame结构体的子集――AVFrame结构体的开始部分与AVPicture结构体是一样的。
    // Assign appropriate parts of buffer to image planes in pFrameRGB
    // Note that pFrameRGB is an AVFrame, but AVFrame is a superset of AVPicture
    avpicture_fill((AVPicture*)pFrameRGB,buffer,PIX_FMT_RGB24,pCodecCtx->width,pCodecCtx->height);
    最后,我们已经准备好来从流中读取数据了。

    读取数据
    我们将要做的是通过读取包来读取整个视频流,然后
    把它解码成帧,最好后转换格式并且保存。
    //(sws_getContext返回SwsContext结构,用来变换图像格式)
    sws_ctx = sws_getContext(pCodecCtx->width, pCodecCtx->height,pCodecCtx->pix_fmt,
    pCodecCtx->width,pCodecCtx->height,PIX_FMT_RGB24, SWS_BILINEAR,NULL,NULL,NULL);

    // Read frames and save first five frames to disk
    i=0;
    while(av_read_frame(pFormatCtx, &packet)>=0) {
    // Is this a packet from the video stream?
    if(packet.stream_index==videoStream) {
    // Decode video frame
    avcodec_decode_video2(pCodecCtx, pFrame, &frameFinished,
    &packet);

    // Did we get a video frame?
    if(frameFinished) {
    // Convert the image from its native format to RGB
    //(sws_scale图像缩放和格式转换)
    sws_scale (sws_ctx, (uint8_t const * const *)pFrame->data,pFrame->linesize,0,
    pCodecCtx->height,pFrameRGB->data,pFrameRGB->linesize);

    // Save the frame to disk
    if(++i<=5)
    SaveFrame(pFrameRGB, pCodecCtx->width, pCodecCtx->height,
    i);
    }
    }

    // Free the packet that was allocated by av_read_frame
    av_free_packet(&packet);
    }


    这个循环过程是比较简单的:av_read_frame()读取一个包并且把它保存到AVPacket结构体中。注意我们仅仅
    申请了一个包的结构体――ffmpeg为我们申请了内部的数据的内存并通过packet.data指针来指向它。这些数
    据可以在后面通过av_free_packet()来释放。函数avcodec_decode_video()把包转换为帧。然而当解码一个包
    的时候,我们可能没有得到我们需要的关于帧的信息。因此,当我们得到下一帧的时候,
    avcodec_decode_video()为我们设置了帧结束标志frameFinished。最后,我们使用sws_scale()函数来把帧
    从原始格式(pCodecCtx)转换成为RGB格式。要记住,你可以把一个AVFrame结构体的指针转换为
    AVPicture结构体的指针。最后,我们把帧和高度宽度信息传递给我们的SaveFrame函数。

    (关于包Packets的注释,从技术上讲一个包可以包含部分或者其它的数据,但是ffmpeg的解释器保证了我们得到的包Packets包含的要么是完整的要么是多种完整的帧。)
    现在我们需要做的是让SaveFrame函数能把RGB信息定存到一个PPM格式的文件中。我们将生成一个简单的
    PPM格式文件,请相信,它是可以工作的。
    void SaveFrame(AVFrame *pFrame, int width, int height, int iFrame) {
    FILE *pFile;
    char szFilename[32];
    int y;

    // Open file
    sprintf(szFilename, "frame%d.ppm", iFrame);
    pFile=fopen(szFilename, "wb");
    if(pFile==NULL)
    return;

    // Write header
    fprintf(pFile, "P6\n%d %d\n255\n", width, height);

    // Write pixel data
    for(y=0; y<height; y++)
    fwrite(pFrame->data[0]+y*pFrame->linesize[0], 1, width*3, pFile);

    // Close file
    fclose(pFile);
    }

    我们做了一些标准的文件打开动作,然后写入RGB数据。我们一次向文件写入一行数据。PPM格式文件的是
    一种包含一长串的RGB数据的文件。如果你了解HTML色彩表示的方式,那么它就类似于把每个像素的颜色头
    对头的展开,就像#ff0000#ff0000....就表示了了个红色的屏幕。(它被保存成二进制方式并且没有分隔符,
    但是你自己是知道如何分隔的)。文件的头部表示了图像的宽度和高度以及最大的RGB值的大小。
    现在,回顾我们的main()函数。一旦我们开始读取完视频流,我们必需清理一切:

    // Free the RGB image
    av_free(buffer);
    av_free(pFrameRGB);

    // Free the YUV frame
    av_free(pFrame);

    // Close the codec
    avcodec_close(pCodecCtx);

    // Close the video file
    avformat_close_input(&pFormatCtx);


    你会注意到我们使用av_free来释放我们使用avcode_alloc_fram和av_malloc分配的内存。
    我们将使用Linux或者其它类似的平台,你将运行:
    gcc -o tutorial01 tutorial01.c -lavutil -lavformat -lavcodec -lz -lavutil -lm
    大多数的图像处理函数可以打开PPM文件。可以使用一些电影文件来进行测试。

    代码在此 https://github.com/chelyaev/ffmpeg-tutorial


    作者:半山
    出处:http://www.cnblogs.com/xdao/
    本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,否则保留追究法律责任的权利。

  • 相关阅读:
    省选模拟27
    省选模拟26
    省选模拟25
    省选模拟23
    PHP 各个框架的优缺点(超详细)
    windows 下安装中文版Git
    支付宝APP支付里设置应用网关和授权回调地址是不必填的
    linux服务器下安装phpstudy 如何命令行进入mysql
    js金钱转大写
    多个 (li) 标签如何获取获取选中的里面的某个特定值??
  • 原文地址:https://www.cnblogs.com/xdao/p/ffmpeg_tutor01.html
Copyright © 2011-2022 走看看