zoukankan      html  css  js  c++  java
  • Windows 视频Directshow开发介绍

    在Windows平台上实现一个文件播放器有什么好的开发库和方案呢?方案有很多,比如基于FFmpeg,VLC的插件,mplayer,Directshow。用FFmpeg来实现文件格式解析、分离视频音频流、解码是很方便的,但是要实现一个播放器,还要实现视音频的显示和回放、视音频同步的处理,要做很多额外的开发工作,比较麻烦。而用VLC的插件不方便调试,扩充功能要改VLC的源代码,不灵活。而用Directshow来做播放器在Windows平台上是比较成熟和简单的方案,所以特别给大家介绍一下。

    微软的Directshow是一个实现多媒体播放,视音频处理等功能的多媒体库,并且提供了Filter的机制使得多媒体任务的各个处理单元(读取数据、分离、解码、编码、回放)达到模块化,提高了复用性。开发者可以用别人提供的Filter,也可以实现自己的Filter来处理特定的任务。每个Filter至少有一个Pin,Pin分输入Pin和输出Pin,按照Filter的类型输入Pin和输出Pin的数目不等。每个Pin都有自己接受的媒体格式,比如视频渲染器Filter的输入Pin只接受RGB或YUV的格式。两个Filter的Pin连接前需要对Pin进行媒体类型协商(确定两方的Pin的媒体类型是否一致),如果协商成功,两个Pin就可以连接起来。一连串的Filter通过这种机制连接形成一个Graph,从而完成复杂的多媒体任务,比如播放文件,录制麦克风的音频,采集摄像头图像。下面演示了一个播放AVI文件的Graph的Filter连接图:

    在上面的Graph图中,包括几种Filter:Source Filter,Splitter,Video Decoder,Audio Decoder,Video Renderer,Audio Renderer。而这些Filter大部分系统已经提供了,还有少数功能需要第三方的Filter来完成。因为多媒体文件的格式众多,所以播放文件的Graph需要加入支持不同格式的Filter,其中最主要的Filter是:分离器,解码器。解码器Filter目前有很多了,免费的而又出名的解码器Filter有FFDshow。FFDshow底层用到了FFmpeg,基于Directshow框架来实现,解码效率很高,但是比较庞大和臃肿,现在已基本不维护了。并且FFDshow只提供了编码器和解码器,还没有实现分离器。以前微软平台上的Directshow开发员会了支持尽量多的媒体格式,想尽办法从各处收集到各种分离器Filter,结果程序打包之后体积很大,并且兼容各种格式要插入不同的的Filter使程序变得复杂。很多第三方Filter不开源,加上测试不够,稳定性不好,容易产生很多问题。幸好,现在有个老外开发了一套Directshow插件,叫LAV Filters。不错,是一套,包括分离器,视频解码器和音频解码器。只要安装这套插件,播放大多数的多媒体格式基本上没问题了,省了开发员很多功夫。还有,这个LAV Filters套件还是开源的,作者对工程的更新速度很快,已经修复了很多Bug,现在变得很稳定了,连大名鼎鼎的开源播放器MPC也使用了LAV Filters,将它列为优先选用的插件。

    说了那么多,大家一定很想使用LAV Filters来做开发吧?不用急,我下面就介绍如何在Directshow Graph中使用它。
    首先,我们要知道这几个Filter的CLSID,下面是这几个Filter的CLSID定义:
      DEFINE_GUID(CLSID_LAVSplitter,

                    0x171252A0, 0x8820, 0x4AFE, 0x9D, 0xF8, 0x5C, 0x92, 0xB2, 0xD6, 0x6B, 0x04);

      DEFINE_GUID(CLSID_LAVVideoDecoder, 
                    0xEE30215D, 0x164F, 0x4A92, 0xA4, 0xEB, 0x9D, 0x4C, 0x13, 0x39, 0x0F, 0x9F);

      DEFINE_GUID(CLSID_LAVAudioDecoder,

                    0xE8E73B6B, 0x4CB3, 0x44A4, 0xBE, 0x99, 0x4F, 0x7B, 0xCB, 0x96, 0xE4, 0x91);

      另外还有一个LAV Source Filter,CLSID是:

      DEFINE_GUID(CLSID_LAVSource, 

                    0xB98D13E7, 0x55DB, 0x4385, 0xA3, 0x3D, 0x09, 0xFD, 0x1B, 0xA2, 0x63, 0x38);

     这个LAV Source Filter的功能跟LAVSplitter差不多,都是分离器,不同的是它没有输入Pin,它集成了了Async Source Filter + LAVSplitter的功能。
    下面我们就准备在Directshow的Graph中加入这些Filter。首先,我们需要实现一个类来封装播放文件的所有接口,下面是类的声明:

    class CDXGraph
    {
    private:
    	IGraphBuilder *     mGraph;  
    	IMediaControl *	    mMediaControl;
    	IMediaEventEx *	    mEvent;
    	IBasicVideo *	    mBasicVideo;
    	IBasicAudio *	    mBasicAudio;
    	IVideoWindow  *	    mVideoWindow;
    	IMediaSeeking *	    mSeeking;
    	IBaseFilter *       m_pSourceFilter;
    	IBaseFilter *       m_pDumpFilter;
     
    	DWORD		    mObjectTableEntry; 
    	UINT                m_GraphMsg;
     
    public:
    	bool           m_bEnableSound;
    	int            m_nJPEGQuality;
    	SIZE           m_PictureSize;
    	UINT           m_nFramerate;
     
    public:
    	CDXGraph();
    	virtual ~CDXGraph();
     
    public:
    	virtual bool Create(void);
    	virtual void Release(void);
    	virtual bool Attach(IGraphBuilder * inGraphBuilder);
     
    	IGraphBuilder * GetGraph(void); // Not outstanding reference count
    	IMediaEventEx * GetEventHandle(void);
     
            UINT   GetGraphState();
     
    	bool   SetClipSourceRect(RECT rcSource);
    	bool   SetDisplayWindow(HWND inWindow, LPRECT  rcTarget);
    	bool   SetNotifyWindow(HWND inWindow, long lMsg);
    	bool   ResizeVideoWindow(long inLeft, long inTop, long inWidth, long inHeight);
     
    	void   HandleEvent(LONG * eventCode);
     
    	bool   Run(void);        // Control filter graph
    	bool   Stop(void);
    	bool   Pause(void);
     
    	bool   IsRunning(void);  // Filter graph status
    	bool   IsStopped(void);
    	bool   IsPaused(void);
     
    	//bool SetFullScreen(BOOL inEnabled);
    	//bool GetFullScreen(void);
     
    	// IMediaSeeking
    	bool    GetCurrentPosition(LONGLONG * outPosition); //获得当前播放时间(单位为100纳秒, 等于10^(-4) ms )
    	bool    GetStopPosition(LONGLONG * outPosition);
    	bool    SetCurrentPosition(LONGLONG inPosition); //设置当前播放时间(单位为100纳秒, 等于10^(-4) ms )
    	bool    SetStartStopPosition(LONGLONG inStart, LONGLONG inStop);
    	bool    GetDuration(LONGLONG * outDuration); //获得文件时间长度(单位为100纳秒, 等于10^(-4) ms )
    	bool    SetPlaybackRate(double inRate); //设置播放速度
    	bool    GetPlaybackRate(double * outRate);
     
    	// Attention: range from -10000 to 0, and 0 is FULL_VOLUME.
    	bool    SetAudioVolume(long inVolume);//调节音量
    	long    GetAudioVolume(void);
    	// Attention: range from -10000(left) to 10000(right), and 0 is both.
    	bool    SetAudioBalance(long inBalance);
    	long    GetAudioBalance(void);
     
    	bool    RenderFile(const TCHAR * inFile, DWORD & dwError);
    	bool    SnapshotBitmap(const TCHAR * outFile);
    	bool    GetTotalFrames(LONGLONG * outNum);
     
    private:
    	void    AddToObjectTable(void) ;
    	void    RemoveFromObjectTable(void);
    	
    	bool    QueryInterfaces(void);
     
    	HRESULT ConnectFilters(IPin * inOutputPin, IPin * inInputPin, const AM_MEDIA_TYPE * inMediaType = 0);
    	void    DisconnectFilters(IPin * inOutputPin);
     
    	HRESULT  RenderFilter(IBaseFilter * pFilter);
    	HRESULT  GetVideoProps(IPin * pVideoOutputPin);
    };
    

      

     接着列出最核心的一个函数CDXGraph::RenderFile,它负责创建FilterGraph,将各个Filter添加到Graph和连接起来。下面是函数的实现:

    bool CDXGraph::RenderFile(const TCHAR * inFile, DWORD & dwError)
    {
    	if (mGraph == NULL)
    	{
    	   dwError = ERROR_INVALID_POINTER;
               return false;
    	}
     
    	dwError = 0;
     
    	HRESULT hr;
    	
    	bool bVideoPinConnected = false;
    	bool bAudioPinConnected = false;
    	bool bPrivateStreamPinConnected = false;
     
    #ifndef UNICODE
    	WCHAR   wszFilePath[MAX_PATH] = {0};
    	MultiByteToWideChar(CP_ACP, 0, inFile, -1, wszFilePath, MAX_PATH);
    #else
    	TCHAR   wszFilePath[MAX_PATH] = {0};
        lstrcpy(wszFilePath, inFile);
    #endif
         
    	CComPtr<IFileSourceFilter> pFileSource;
    	CComPtr<IBaseFilter> pSplitter;
    	CComPtr<IBaseFilter> pVideoDecoder;
    	CComPtr<IBaseFilter> pVideoRenderer;
     
    #if 0
    	hr = AddFilterByCLSID(mGraph, CLSID_MpegSourceFilter, L"Mpeg Splitter ", &pSplitter );
    	if(FAILED(hr))
    	{
    		OutputDebugString("Add Mpeg Splitter Filter Failed 
    ");
    		return FALSE;
    	}
    #else
    	hr = AddFilterByCLSID(mGraph, CLSID_LAVSource, L"LAV Source Splitter ", &pSplitter );
    	if(FAILED(hr))
    	{
    		OutputDebugString("Add LAV Splitter Filter Failed 
    ");
    		return FALSE;
    	}
    #endif
    	hr  = pSplitter->QueryInterface(IID_IFileSourceFilter, (void**)&pFileSource);
    	if(FAILED(hr))
    	{
    		dwError = ERROR_GET_INTERFACE_FAIL;
    		return false;
    	}
     
    	hr = pFileSource->Load(wszFilePath, NULL);
    	if(FAILED(hr))
    	{
    		dwError = ERROR_LOADFILE_FAIL;
    		return false;
    	}
     
    	hr = AddFilterByCLSID(mGraph, CLSID_LAVVideoDecoder, L"LAV Video Decoder", &pVideoDecoder);
    	if(FAILED(hr))
    	{
    		OutputDebugString("Add LAV Video Filter Failed 
    ");
    		//return FALSE;
    	}
    		  
    	hr = AddFilterByCLSID(mGraph, CLSID_VideoMixingRenderer9, L"VMR9 Renderer ", &pVideoRenderer);
    	if(FAILED(hr))
    	{
    		OutputDebugString("Add VMR9 Renderer Filter Failed 
    ");
    		return FALSE;
    	}
     
    	hr = RenderFilter(pSplitter);
    	if(SUCCEEDED(hr))
    		bVideoPinConnected = true;
    	else
    		bVideoPinConnected = false;
     
    	if(!bAudioPinConnected && !bVideoPinConnected)
    	{
    	    OutputDebugString("RenderFilter Failed!
    ");
     
    	    OutputDebugString("第二次尝试用RenderFile自动连接
    ");
     
    		if (FAILED(mGraph->RenderFile(wszFilePath, NULL)))
    		{
    			OutputDebugString("RenderFile Failed!
    
    ");
     
    			dwError = ERROR_AUTO_RENDERFILE_FAIL;
    			return false;
    		}
    		
    		IBaseFilter * pVideoRenderer = NULL;
    		hr = FindVideoRenderer(mGraph, &pVideoRenderer);
    		if(SUCCEEDED(hr))
    		{
    		  CComPtr<IPin> pVideoPin = GetInPin(pVideoRenderer, 0);
    		  GetVideoProps(pVideoPin);
    		}
    	}
     
    	if(!m_bEnableSound)
    	{
    	   SetAudioVolume(-10000);
    	}
     
    	OutputDebugString("RenderFile Succeeded!
    ");
     
       return true;
    }

    CDXGraph::RenderFile函数显示加入了这几个Filter:LAV Source,LAV Video Decoder,VMR9。其中,VMR9是视频渲染器,负责渲染图像和根据时间戳控制视频帧何时显示;LAVSource负责读取文件和从文件容器里分离出视频流和音频流,当我们调用AddFilterByCLSID函数(实际上调用了COM接口CoCreateInstance函数)创建这个Filter实例时,它是没有加载文件的,我们必须查询它的IFileSourceFilter接口指针,通过这个接口指针设置文件路径,把文件加载进去,如果文件加载成功,LAV Source会根据文件容器里媒体流的数目生成对应的OutputPin。接着,加入LAV Video Decoder,然后调用RenderFilter函数把LAV Source的每个OutputPin自动与下游的Filter进行连接,因为连接Filter的时候Graph Manager会优先选用已经添加到Graph中的Filter,那么LAV Source的Video Output Pin就会尝试与Video Decoder进行连接,而Audio Output Pin也一样,但是由于我们没有显示加入任何的Audio Decoder,Graph Manager会从系统安装的Filter中找到一个合适的解码器Filter插入进去,然后自动连接两个Filter的OutputPin与InputPin。如果所有Filter连接成功,那么播放文件Graph的Filter链路图就像下面这样子:

    上面所讲的内容是Directshow开发很基本的操作,相信熟悉Directshow的读者看了觉得很熟悉和简单。

    Mitov组件商使用的就是Directshow和Windows Api模式。

  • 相关阅读:
    Red packet
    Pie
    River Hopscotch
    5.spring使用注解开发
    11.Java邮件发送
    10.Java文件传输
    HTML中标签的嵌套原则
    9.SMBMS超市订单管理系统
    8.MVC和过滤器Filter
    7.JSP基础语法,指令和标签以及Java Bean
  • 原文地址:https://www.cnblogs.com/sttchengfei/p/10471939.html
Copyright © 2011-2022 走看看