zoukankan      html  css  js  c++  java
  • QT+FFMPEG实现视频播放

    开发环境:MinGW+QT5.9+FFMPEG20190212

    一、开发环境搭建

    FFMPEG的开发环境部署比如容易,在官网下载库文件,然后在QT里面指定路径,把相关dll文件放到exe目录下就可以了,不需要根据开发工具重新编译。

    (1)下载工具

    https://ffmpeg.zeranoe.com/builds/下载对应版本。链接方式有三种,

    Static:这个版本只包含了ffmpeg.exeffplay.exeffprobe.exe三个可执行程序,没有头文件和库文件。

    Shared:这个版本包含了ffmpeg.exeffplay.exeffprobe.exe三个可执行程序和相关动态库文件。

    Dev:开发版,这个包含了头文件和库文件。

    我们需要下载SharedDev两个版本,Dev有我们程序开发需要的头文件和库文件,这里面包含的库是动态调用的,所依赖的动态库在Shared这个版本里面,所以两个版本都要下载。

    (2)添加库

    将下载的文件解压缩,然后新建一个QT工程,在pro添加lib目录和include目录的路径。

    INCLUDEPATH +="E:\Lib\ffmpeg\include"
    
    LIBS += -LE:Libffmpeglib -lavutil -lavformat -lavcodec -lavdevice -lavfilter -lpostproc -lswresample -lswscale

    然后将shared下的动态库添加到exe目录下。

    二、代码实现播放功能

    在界面上放置一个QLabel和QPushButton控件,当点击按钮时实现以下功能:

    #include <QTime>
    extern "C"{
    #include <libavcodec/avcodec.h>
    #include <libavformat/avformat.h>
    #include <libswscale/swscale.h>
    #include <libavutil/imgutils.h>
    }
    void Delay(int msec)
    {
        QTime dieTime = QTime::currentTime().addMSecs(msec);
        while( QTime::currentTime() < dieTime )
            QCoreApplication::processEvents(QEventLoop::AllEvents, 100);
    }
    
    void MainWindow::on_btnPlay_clicked()
    {
        AVFormatContext    *pFormatCtx;
        int                i, videoindex;
        AVCodecContext    *pCodecCtx;
        AVCodec            *pCodec;
        AVFrame    *pFrame, *pFrameRGB;
        unsigned char *out_buffer;
        AVPacket *packet;
        int ret, got_picture;
        struct SwsContext *img_convert_ctx;
    
        char filepath[] = "E:\media\1.avi";
        //初始化编解码库
        av_register_all();//创建AVFormatContext对象,与码流相关的结构。
        pFormatCtx = avformat_alloc_context();
        //初始化pFormatCtx结构
        if (avformat_open_input(&pFormatCtx, filepath, NULL, NULL) != 0){
            printf("Couldn't open input stream.
    ");
            return ;
        }
        //获取音视频流数据信息
        if (avformat_find_stream_info(pFormatCtx, NULL) < 0){
            printf("Couldn't find stream information.
    ");
            return ;
        }
        videoindex = -1;
        //nb_streams视音频流的个数,这里当查找到视频流时就中断了。
        for (i = 0; i < pFormatCtx->nb_streams; i++)
            if (pFormatCtx->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO){
                videoindex = i;
                break;
        }
        if (videoindex == -1){
            printf("Didn't find a video stream.
    ");
            return ;
        }
        //获取视频流编码结构
        pCodecCtx = pFormatCtx->streams[videoindex]->codec;
        //查找解码器
        pCodec = avcodec_find_decoder(pCodecCtx->codec_id);
        if (pCodec == NULL){
            printf("Codec not found.
    ");
            return ;
        }
        //用于初始化pCodecCtx结构
        if (avcodec_open2(pCodecCtx, pCodec, NULL) < 0){
            printf("Could not open codec.
    ");
            return ;
        }
        //创建帧结构,此函数仅分配基本结构空间,图像数据空间需通过av_malloc分配
        pFrame = av_frame_alloc();
        pFrameRGB = av_frame_alloc();
        //创建动态内存,创建存储图像数据的空间
        //av_image_get_buffer_size获取一帧图像需要的大小
        out_buffer = (unsigned char *)av_malloc(av_image_get_buffer_size(AV_PIX_FMT_RGB32, pCodecCtx->width, pCodecCtx->height, 1));
        av_image_fill_arrays(pFrameRGB->data, pFrameRGB->linesize, out_buffer,
            AV_PIX_FMT_RGB32, pCodecCtx->width, pCodecCtx->height, 1);
    
        packet = (AVPacket *)av_malloc(sizeof(AVPacket));
        //Output Info-----------------------------
        printf("--------------- File Information ----------------
    ");
        //此函数打印输入或输出的详细信息
        av_dump_format(pFormatCtx, 0, filepath, 0);
        printf("-------------------------------------------------
    ");
        //初始化img_convert_ctx结构
        img_convert_ctx = sws_getContext(pCodecCtx->width, pCodecCtx->height, pCodecCtx->pix_fmt,
            pCodecCtx->width, pCodecCtx->height, AV_PIX_FMT_RGB32, SWS_BICUBIC, NULL, NULL, NULL);
        //av_read_frame读取一帧未解码的数据
        while (av_read_frame(pFormatCtx, packet) >= 0){
            //如果是视频数据
            if (packet->stream_index == videoindex){
                //解码一帧视频数据
                ret = avcodec_decode_video2(pCodecCtx, pFrame, &got_picture, packet);
                if (ret < 0){
                    printf("Decode Error.
    ");
                    return ;
                }
                if (got_picture){
                    sws_scale(img_convert_ctx, (const unsigned char* const*)pFrame->data, pFrame->linesize, 0, pCodecCtx->height,
                        pFrameRGB->data, pFrameRGB->linesize);
                    QImage img((uchar*)pFrameRGB->data[0],pCodecCtx->width,pCodecCtx->height,QImage::Format_RGB32);
                    ui->label->setPixmap(QPixmap::fromImage(img));
                    Delay(40);
                }
            }
            av_free_packet(packet);
        }
        sws_freeContext(img_convert_ctx);
        av_frame_free(&pFrameRGB);
        av_frame_free(&pFrame);
        avcodec_close(pCodecCtx);
        avformat_close_input(&pFormatCtx);
    }

    以上就是QT显示视频图像的简单例子,对于对FFMPEG感兴趣想学习更多内容的,推荐看看下面博主的博文,对FFMPEG的介绍非常详细:

    https://blog.csdn.net/leixiaohua1020/article/details/15811977

  • 相关阅读:
    Java关键字instanceof
    java中equals和==的区别
    Servlet、Filter、Listener总结
    struts2 拦截器配置
    Struts2技术详解
    构建Java并发模型框架
    基于MINA框架快速开发网络应用程序
    Spring的IOC原理
    Spring AOP原理及拦截器
    JAVA三大框架SSH和MVC
  • 原文地址:https://www.cnblogs.com/WushiShengFei/p/10837264.html
Copyright © 2011-2022 走看看