/*没有系统地看过opencv的书籍,但是这段时间想做一个摄像头识别、定位特定色块的程序,就从现有程序改起了。这是一个从摄像头从采集实时画面的程序,同时会显示出采集图片的前景和后景图片,按照个人理解做了一下注释。*/
#include <stdio.h>
#include <cv.h>
#include <cxcore.h>
#include <highgui.h>
int main( int argc, char** argv )
{
//声明IplImage指针,IplImage指针在之后的摄像头图像传递,图像处理,图像显示中都作为主要处理的参数。按照说明书,成员主要有:大小,版本,通道数,位深数,颜色通道(是否交叉存取),顶/底左结构,宽像素,高像素,图像感兴趣区域,图像数据大小,指向排列,排列图像行大小;而被opencv忽略、或者置空的成员有alphaChannel,colorModel[4]等。
IplImage* pFrame = NULL;
IplImage* pFrImg = NULL;
IplImage* pBkImg = NULL;
//声明CvMat指针。根据本程序,初步理解是CvMat主要用在图像处理中,可由cvConvert(src,dst)完成同IplImage同CvMat的相互转换。CvMat的成员包括:类型,行数据长度,数据引用计数,行列信息(几个union),看来比较类似图像的矩阵模型,按理解是便于进行数学计算的,按一份资料的说法,是初学者需要熟练应用的。资料如下:CvMat的用法详解及实例
CvMat* pFrameMat = NULL;
CvMat* pFrMat = NULL;
CvMat* pBkMat = NULL;
//CvCapture没有公共接口,只能视为视频获取的一个参数
CvCapture* pCapture = NULL;
int nFrmNum = 0;
//创建窗口,原型:int cvNameWindow (const char *name,int flag=CV_WINDOW_AUTOSIZE)
cvNamedWindow("video", 1);
cvNamedWindow("background",1);
cvNamedWindow("foreground",1);
//使窗口有序排列
cvMoveWindow("video", 30, 0);
cvMoveWindow("background", 360, 0);
cvMoveWindow("foreground", 690, 0);
if( argc > 2 )
{
fprintf(stderr, "Usage: bkgrd [video_file_name]\n");
return -1;
}
//打开摄像头,原型:IplImage* cvQueryFrame( CvCapture* capture );函数cvQueryFrame从摄像头或者文件中抓取一帧,然后解压并返回这一帧。这个函数仅仅是函数cvGrabFrame和函数cvRetrieveFrame在一起调用的组合。返回的图像不可以被用户释放或者修改。
if (argc ==1)
if( !(pCapture = cvCaptureFromCAM(-1)))
{
fprintf(stderr, "Can not open camera.\n");
return -2;
}
//打开视频文件
if(argc == 2)
if( !(pCapture = cvCaptureFromFile(argv[1])))
{
fprintf(stderr, "Can not open video file %s\n", argv[1]);
return -2;
}
//逐帧读取视频
while(pFrame = cvQueryFrame( pCapture ))
{
nFrmNum++;
//如果是第一帧,需要申请内存,并初始化,初始化需要的是(cvSize(宽高),深度,交叉存取)
if(nFrmNum == 1)
{
pBkImg = cvCreateImage(cvSize(pFrame->width, pFrame->height), IPL_DEPTH_8U,1);
pFrImg = cvCreateImage(cvSize(pFrame->width, pFrame->height), IPL_DEPTH_8U,1);
pBkMat = cvCreateMat(pFrame->height, pFrame->width, CV_32FC1); //初始化矩阵
pFrMat = cvCreateMat(pFrame->height, pFrame->width, CV_32FC1);
pFrameMat = cvCreateMat(pFrame->height, pFrame->width, CV_32FC1);
//其中图像处理的函数不多说啦,才入门么
//转化成单通道图像再处理
cvCvtColor(pFrame, pBkImg, CV_BGR2GRAY);
cvCvtColor(pFrame, pFrImg, CV_BGR2GRAY);
cvConvert(pFrImg, pFrameMat);
cvConvert(pFrImg, pFrMat);
cvConvert(pFrImg, pBkMat);
}
else
{
cvCvtColor(pFrame, pFrImg, CV_BGR2GRAY);
cvConvert(pFrImg, pFrameMat);
//高斯滤波先,以平滑图像
//cvSmooth(pFrameMat, pFrameMat, CV_GAUSSIAN, 3, 0, 0);
//当前帧跟背景图相减
cvAbsDiff(pFrameMat, pBkMat, pFrMat);
//二值化前景图
cvThreshold(pFrMat, pFrImg, 60, 255.0, CV_THRESH_BINARY);
//进行形态学滤波,去掉噪音
//cvErode(pFrImg, pFrImg, 0, 1);
//cvDilate(pFrImg, pFrImg, 0, 1);
//更新背景
cvRunningAvg(pFrameMat, pBkMat, 0.003, 0);
//将背景转化为图像格式,用以显示
cvConvert(pBkMat, pBkImg);
//显示图像
cvShowImage("video", pFrame);
cvShowImage("background", pBkImg);
cvShowImage("foreground", pFrImg);
//如果有按键事件,则跳出循环
//此等待也为cvShowImage函数提供时间完成显示
//等待时间可以根据CPU速度调整
if( cvWaitKey(2) >= 0 )
break;
}
}
//销毁窗口
cvDestroyWindow("video");
cvDestroyWindow("background");
cvDestroyWindow("foreground");
//释放图像和矩阵
cvReleaseImage(&pFrImg);
cvReleaseImage(&pBkImg);
cvReleaseMat(&pFrameMat);
cvReleaseMat(&pFrMat);
cvReleaseMat(&pBkMat);
cvReleaseCapture(&pCapture);
return 0;
}
总结一下这个程序的所得吧,这个程序标注主要精力用在了图像获取及显示上,而没有注意是如何处理的。摄像头通过CvCapture * cvCaptureFromCAM(int index)将实时图像信息传递给IplImage,最后将处理好IplImage由cvShowImage(窗口, IplImage *)函数显示。而CvMat只局限于图像处理中,和输入输出无关。
后面是一些笔记
每个元素(像素)通道号.可以是 1, 2, 3 或 4.通道是交叉存取的,例如通常的彩色图像数据排列是:b0 g0 r0 b1 g1 r1 ... 虽然通常 IPL 图象格式可以存贮非交叉存取的图像,并且一些OpenCV 也能处理他, 但是这个函数只能创建交叉存取图像.
http://baike.baidu.com/view/3440672.htm
HighGUI参考手册
http://fsa.ia.ac.cn/opencv-doc-cn/opencv-doc-cn-0.9.7/ref/opencvref_highgui.cn.htm#decl_cvReleaseCapture
很经典,竟然是自动化所fsa的于仕琪,张兆翔前辈译的。
cvCvtColor
http://baike.baidu.com/view/2816025.htm
cvConvert
地位低精度向高位高精度转化
http://hi.baidu.com/megachan/blog/item/8b166dc520f1f1bb8226acbc.html
cvConvert(src,dst)执行两个操作:将src图像数据类型改变为dst图像数据类型;将src的数据赋值到dst
void cvAbsDiff( const CvArr* src1, const CvArr* src2, CvArr* dst );
dst(I)c = abs(src1(I)c - src2(I)c).
所有数组必须有相同的数据类型相同的大小(或ROI大小)