zoukankan      html  css  js  c++  java
  • [转]Qt + ffmpeg+SDl

    Qt + ffmpeg+SDl (转)

    (1)先转QT中.pro原文档的写法

    1.  注释

    从“ #” 开始,到这一行结束。

    2.  指定源文件

    SOURCES = *.cpp

    对于多源文件,可用空格分开,如: SOURCES = 1.cpp 2.cpp3.cpp

    或者每一个文件可以被列在一个分开的行里面,通过反斜线另起一行,就像这样 :

    SOURCES = hello.cpp

         main.cpp

    一个更冗长的方法是单独地列出每一个文件,就像这样:

        SOURCES+= hello.cpp

        SOURCES +=main.cpp

    这种方法中使用“ +=” 比“ =” 更安全,因为它只是向已有的列表中添加新的文件,而不是替换整个列表。

    3.  指定头文件

    HEADERS = hello.h 或者 HEADERS += hello.h

    列出源文件的任何一个方法对头文件也都适用。

    4.  配置信息

    CONFIG 用来告诉 qmake 关于应用程序的配置信息。

        CONFIG+= qt warn_on release

    在这里使用“ +=” ,是因为我们添加我们的配置选项到任何一个已经存在中。这样做比使用“ =” 那样替换已经指定的所有选项是更安全的。

    A> qt 部分告诉 qmake 这个应用程序是使用 Qt 来连编的。这也就是说 qmake 在连接和为编译添加所需的包含路径的时候会考虑到 Qt 库的。

    B> warn_on 部分告诉 qmake 要把编译器设置为输出警告信息的。

    C> release 部分告诉 qmake 应用程序必须被连编为一个发布的应用程序。在开发过程中,程序员也可以使用 debug 来替换 release

    5.  指定目标文件名

    TARGET = filename

    如果不设置该项目,目标名会被自动设置为跟项目文件一样的名称

    6.  添加界面文件 (ui)

    INTERFACES = filename.ui

    7.  平台相关性处理

    我们在这里需要做的是根据 qmake 所运行的平台来使用相应的作用域来进行处理。为 Windows 平台添加的依赖平台的文件的简单的作用域看起来就像这样:

    win32 {

    SOURCES += hello_win.cpp

    }

    所以如果 qmake 运行在 Windows 上的时候,它就会把 hello_win.cpp 添加到源文件列表中。如果 qmake 运行在其它平台上的时候,它会很简单地把这部分忽略。

    8.  如果一个文件不存在,停止 qmake

    如果某一个文件不存在的 时候,你也许不想生成一个 Makefile 。我们可以通过使用 exists() 函数来检查一个文件是否存在。我们可以通过使用 error() 函数把正在运 行的 qmake 停下来。这和作用域的工作方式一样。只要很简单地用这个函数来替换作用域条件。对 main.cpp 文件的检查就像这样:

    !exists( main.cpp ) {

      error( "No main.cpp file found")

    }

    “!” 用来否定这个测试,比如,如果文件存在, exists( main.cpp) 是真,如果文件不存在, !exists( main.cpp ) 是真。

    9.  检查多于一个的条件

    假设你使用 Windows 并且当你在命令 行运行你的应用程序的时候你想能够看到 qDebug() 语句。除非你在连编你的程序的时候使用 console 设置,你不会看到输出。我们可以很容易地把 console 添加到 CONFIG 行中,这样在 Windows 下, Makefile 就会有这个设置。但是如果告诉你我们只是想在当我们的应用程序运行在 Windows 下并且当 debug 已经在 CONFIG 行中的时候,添加 console 。这需要两个嵌套的作用域;只要生成一个作用域,然后在它里面再生成 另一个。把设置放在最里面的作用域里,就像这样:

    win32 {

      debug {

         CONFIG += console

      }

    }

    嵌套的作用域可以使用冒号连接起来,像这样:

    win32:debug {

    CONFIG += console

    }

    10.  摸板

    模板变量告诉 qmake 为这个应用程序生成哪种 makefile 。下面是可供使用的选择:

    A> app - 建立一个应用程序的 makefile 。这是默认值,所以如果模板没有被指定,这个将被使用。

    B> lib - 建立一个库的 makefile 。

    C> vcapp - 建立一个应用程序的 VisualStudio 项目文件。

    D> vclib - 建立一个库的 VisualStudio 项目文件。

    E> subdirs - 这是一个特殊的模板,它可以创建一个能够进入特定目录并且为一个项目文件生成 makefile 并且为它调用 make 的 makefile 。

    11.  生成 Makefile

    当你已经创建好你的项目文件,生成 Makefile 就很容易了,你所要做的就是先到你所生成的项目文件那里然后输入:

    Makefile 可以像这样由“ .pro” 文件生成:

        qmake -oMakefile hello.pro

    对于 VisualStudio 的用户, qmake 也可以生成“ .dsp” 文件,例如:

        qmake -tvcapp -o hello.dsp hello.pro

    源文档 <http://blog.csdn.net/metasearch/archive/2008/03/05/2148207.aspx >

    Qmake 不仅仅只用于QT其他地方也用到了,根据模板的值可以生成app,lib,vclib等待makefile文件

    (2)声明其他的库

    如果你需要在工程中使用其他的库 , 需要在工程文件里面指定

    让 qmake 找到库的路径和相应需要连接的库 , 可以在 LIBS 变量里面添加 . 库的路径要给出 , 或者常见的 unix 样式的符号来指定库和库的路径

    例如下面的展示了如何使用指定的库

            LIBS += -L/usr/local/lib -lmath

    可以用类似的方法来指定头文件的路径 , 不过是使用 INCLUDEPATH 变量 , 如下面可能添加好几个头文件的路径

            INCLUDEPATH = c:/msdev/include d:/stl/include

    不过我的习惯是下面这样的 , 比较清晰还有 , 最好 windows 的路径不要有空格 , 中文也不要有 , 斜杠也推荐用 / 而不是 windows 的 \ 因为跟分行符号 \ 相同了 / 可以在 unix 和 windows 用 , 但是 \ 貌似到了 unix 或 linux 就不行了 , 所以用 / 是通用的

            INCLUDEPATH = c:/msdev/include \

                                        d:/stl/include

    见别人是这样添加到

    在 .pro文件中添加LIBS += -lavformat  -lavcodec -lavutil lz -lavutil -lm `sdl-config --cflags --libs`

    (3)因为ffmpeg是c程序,所以在编译的时候需要在头文件中加入
    extern "C" {
    #include <ffmpeg/avcodec.h>
    #include <ffmpeg/avformat.h>
    }

    注:这里的C是大写。我之前好久没动手编程,这也查了蛮久,打击自信心啊!!!!

    解释如下:

    1.extern 是 C/C++ 语言中表明函数和全局变量作用范围(可见性)的关键字,该关键字告诉编译器 其声明的函数和变量可以在本模块或其它模块中使用;

    2.与 extern 对应的关键字是 static ,被它修饰的全局变量和函数只能在本模块中使用。因此,一个函数或变量只可能被本模块使用时,其不可能被 extern “C” 修饰;

    3. 被 extern "C" 修饰的变量和函数是按照 C 语言方式编译和连接的;

    4.C编译器和c++编译器对函数的翻译不一样,如:int  root(int a,int b);c对应的是_root,c++对应的是_root_int_int,因为c不支持重载而c++支持,因此需要识别函数的参数。

    (4)直接运行可执行文件出现缺少minwm10.dll错误提示,将D:\Qt\2009.05\mingw\bin;D:\Qt\2009.05\qt\bin添加到环境变量就可以了。

    (5)因为现在比较熟悉opencv,就用opencv+qt尝试qt连接库

    INCLUDEPATH +=   C:\OpenCV\cv\include \
      C:\OpenCV\cvaux\include \
      C:\OpenCV\cxcore\include \
      C:\OpenCV\otherlibs\highgui
    LIBS +=   C:\OpenCV\lib\cv.lib \
      C:\OpenCV\lib\cvaux.lib \
      C:\OpenCV\lib\cxcore.lib \
      C:\OpenCV\lib\highgui.lib \

    程序可以编译运行,但是出现could not initialize ole的错误,不知道该怎么解决,在网上没查到有用的信息 !以后用的时候再解决这个问题,反正现在也可以编译了。

    (6)接着用同样的方法改下.pro文件,添加头文件和库文件

    INCLUDEPATH +=

                   D:\Qt\2009.05\ffmpeg\include\libavcodec \
                   D:\Qt\2009.05\ffmpeg\include\libavdevice \
                   D:\Qt\2009.05\ffmpeg\include\libavfilter \
                   D:\Qt\2009.05\ffmpeg\include\libavformat \
                   D:\Qt\2009.05\ffmpeg\include\libavutil \
                   D:\Qt\2009.05\ffmpeg\include\libswscale \
                   D:\Qt\2009.05\ffmpeg\include \
    LIBS +=

    D:\Qt\2009.05\ffmpeg\lib\avcodec.lib \
    D:\Qt\2009.05\ffmpeg\lib\avdevice.lib \
    D:\Qt\2009.05\ffmpeg\lib\avfilter.lib \
    D:\Qt\2009.05\ffmpeg\lib\avformat.lib \
    D:\Qt\2009.05\ffmpeg\lib\avutil.lib \
    D:\Qt\2009.05\ffmpeg\lib\swscale.lib \

    (7)添加Sdl库

    同理在文件中添加

    D:\Qt\2009.05\SDL\include \

    D:\Qt\2009.05\SDL\lib\SDL.lib \
    D:\Qt\2009.05\SDL\lib\SDLmain.lib \

    并加入头文件

    #include <SDL.h>
    #include <SDL_thread.h>

    编译会出现一个错误

    undefined reference to `qMain(int, char**)'
    这是因为sdl中的 SDL _main.h已经定义了main,加上#undef main就可以解决了

    (8)在av_register_all();时遇到 exited with code -1073741515错误

    这是因为ffmpeg没有配置好,出现这个错误的原因是没有找到dll,dll一般是放在C:\WINDOWS\system32目录下的,我把他ffmpeg的库

    复制到该目录下就ok了 ×— —×

    (9)将tutorial02.c的代码改改,如下:

    #include <QtGui/QApplication>
    #include "mainwindow.h"
    #include <stdio.h>
    #include <QLabel>
    #include <QWidget>

    extern "C"{
    #include <avcodec.h>
    #include <avformat.h>
    #include <swscale.h>
    #include <SDL.h>
    #include <SDL_thread.h>
    }

    #ifdef __MINGW32__
    #undef main /* Prevents SDL from overriding main() */
    #endif

    int main(int argc, char *argv[])
    {
         QApplication a(argc, argv);

         AVFormatContext *pFormatCtx;
         int             i, videoStream;
         AVCodecContext  *pCodecCtx;
         AVCodec         *pCodec;
         AVFrame         *pFrame;
         AVPacket        packet;
         int             frameFinished;
         float           aspect_ratio;
         static struct   SwsContext *img_convert_ctx;
         static int sws_flags = SWS_BICUBIC;

         SDL_Overlay     *bmp;
         SDL_Surface     *screen;
         SDL_Rect        rect;
         SDL_Event       event;

         MainWindow w;
         QLabel *frame_pre;
         frame_pre = new QLabel;
         QWidget *widget_player;
         widget_player = new QWidget();
         widget_player->setAttribute(Qt::WA_PaintOnScreen);
         widget_player->setAttribute(Qt::WA_NoSystemBackground);
         widget_player->show();
         w.show();
         frame_pre->show();

         av_register_all();

        /*set sdl env*/
        char variable[64];
        #ifdef Q_OS_WIN
        sprintf(variable, "SDL_WINDOWID=0x%lx", widget_player->winId());
        #else
        sprintf(variable, "SDL_WINDOWID=0x%lx", this->winId());
        #endif
        putenv(variable);

        if(SDL_Init(SDL_INIT_VIDEO | SDL_INIT_AUDIO | SDL_INIT_TIMER)) {
            fprintf(stderr, "Could not initialize SDL - %s\n", SDL_GetError());
            exit(1);
          }

        // Open video file
        if(av_open_input_file(&pFormatCtx, "D:\\Flyhigh.wmv", NULL, 0, NULL)!=0)
          return -1; // Couldn't open file

        // Retrieve stream information
        if(av_find_stream_info(pFormatCtx)<0)
           return -1; // Couldn't find stream information

        // Dump information about file onto standard error
        dump_format(pFormatCtx, 0, "D:\\Flyhigh.wmv", 0);

        // Find the first video stream
        videoStream=-1;
        for(i=0; i<pFormatCtx->nb_streams; i++)
            if(pFormatCtx->streams[i]->codec->codec_type==CODEC_TYPE_VIDEO) {
              videoStream=i;
              break;
            }
        if(videoStream==-1)
             return -1; // Didn't find a video stream

        // Get a pointer to the codec context for the video stream
        pCodecCtx=pFormatCtx->streams[videoStream]->codec;

        // Find the decoder for the video stream
        pCodec=avcodec_find_decoder(pCodecCtx->codec_id);
          if(pCodec==NULL) {
            fprintf(stderr, "Unsupported codec!\n");
            return -1; // Codec not found
          }

        // Open codec
        if(avcodec_open(pCodecCtx, pCodec)<0)
          return -1; // Could not open codec

        // Allocate video frame
        pFrame=avcodec_alloc_frame();

        // Make a screen to put our video
        #ifndef __DARWIN__
                screen = SDL_SetVideoMode(pCodecCtx->width, pCodecCtx->height, 0, 0);
        #else
                screen = SDL_SetVideoMode(pCodecCtx->width, pCodecCtx->height, 24, 0);
        #endif
        if(!screen) {
            fprintf(stderr, "SDL: could not set video mode - exiting\n");
            exit(1);
          }

        // Allocate a place to put our YUV image on that screen
        bmp = SDL_CreateYUVOverlay(pCodecCtx->width,
                                           pCodecCtx->height,
                                           SDL_YV12_OVERLAY,
                                           screen);

        // Read frames and save first five frames to disk
        i=0;

        while(av_read_frame(pFormatCtx, &packet)>=0) {
        // Is this a packet from the video stream?
        if(packet.stream_index==videoStream) {
        // Decode video frame
        avcodec_decode_video(pCodecCtx, pFrame, &frameFinished,
                                       packet.data, packet.size);
        // Did we get a video frame?
        if(frameFinished) {
                          SDL_LockYUVOverlay(bmp);
                          AVPicture *pict;
                          pict = new AVPicture;
                          pict->data[0] = bmp->pixels[0];
                          pict->data[1] = bmp->pixels[2];
                          pict->data[2] = bmp->pixels[1];

                          pict->linesize[0] = bmp->pitches[0];
                          pict->linesize[1] = bmp->pitches[2];
                          pict->linesize[2] = bmp->pitches[1];

                          // Convert the image into YUV format that SDL uses
                          if (pCodecCtx->pix_fmt == PIX_FMT_YUV420P) {
                          /* as we only generate a YUV420P picture, we must convert it
                            to the codec pixel format if needed */
                          img_convert_ctx = sws_getContext(pCodecCtx->width, pCodecCtx->height,
                                                                   pCodecCtx->pix_fmt,
                                                                   pCodecCtx->width, pCodecCtx->height,
                                                                   PIX_FMT_YUV420P,
                                                                   sws_flags, NULL, NULL, NULL);
                              if (img_convert_ctx == NULL) {
                                   fprintf(stderr, "Cannot initialize the conversion context\n");
                                   exit(1);
                                   }
                              sws_scale(img_convert_ctx, pFrame->data, pFrame->linesize,
                                               0, pCodecCtx->height, pict->data, pict->linesize);
                            }
    //                    img_convert(&pict, PIX_FMT_YUV420P,
    //                                (AVPicture *)pFrame, pCodecCtx->pix_fmt,
    //                                pCodecCtx->width, pCodecCtx->height);
                          SDL_UnlockYUVOverlay(bmp);
                          rect.x = 0;
                          rect.y = 0;
                          rect.w = pCodecCtx->width;
                          rect.h = pCodecCtx->height;
                          SDL_DisplayYUVOverlay(bmp, &rect);
                        }
              }

                      // Free the packet that was allocated by av_read_frame
                      av_free_packet(&packet);
                      SDL_PollEvent(&event);
                      switch(event.type) {
                      case SDL_QUIT:
                        SDL_Quit();
                        exit(0);
                        break;
                        default:
                        break;
                      }

         }
         // Free the YUV frame
         av_free(pFrame);

         // Close the codec
         avcodec_close(pCodecCtx);

         // Close the video file
         av_close_input_file(pFormatCtx);
         return a.exec();
    }
    就可以看到图像了,哈哈。

    本文来自CSDN博客,转载请标明出处:http://blog.csdn.net/wuxianfeng/archive/2010/03/12/5374958.aspx

  • 相关阅读:
    Best Practices for Using Alpha
    Android手机 Fildder真机抓包
    Android调用MediaScanner进行新产生的媒体文件扫描
    读书笔记-----Java并发编程实战(二)对象的共享
    项目经验谈---IM新消息界面刷新异常处理记录
    读书笔记-----Java并发编程实战(一)线程安全性
    OnScroll与OnTouchEvent方法的区别与联系
    View的getLeft, getRight, getTop, getBottom
    如何用DNS+GeoIP+Nginx+Varnish做世界级的CDN
    更改ubuntu mysql data目录位置
  • 原文地址:https://www.cnblogs.com/foxhengxing/p/1915432.html
Copyright © 2011-2022 走看看