zoukankan      html  css  js  c++  java
  • opencv使用记录

    /*2017-1-14*/
    
    /*视频的读取。。。*/
    
    int g_n=0;
    void on_change(int pos,void *)//看来void*不能省! 
    {
    	printf("g_n id %d
    ",pos);
    }
    
    int main()
    {
    	//结构体第一个字母都是大写,函数小写 
    	//打开视频文件:其实就是建立一个VideoCapture结构  
    	VideoCapture capture("E:\vedio\01.avi");
    	//检测是否正常打开:成功打开时,isOpened返回ture  
        if(!capture.isOpened())  
            cout<<"fail to open!"<<endl; 
    		 
        //获取整个帧数
        //capture.get(宏)可以获取各种属性信息 
        long total = capture.get(CV_CAP_PROP_FRAME_COUNT);  
        cout<<"视频"<<total<<"帧"<<endl;
        namedWindow("视频",1);
        
        createTrackbar("position","视频",&g_n,total,&on_change);
    	on_change(g_n,0);
    	
    	Mat frame;  
        while(capture.read(frame)){
    		//frame 保存当前读取帧文件,会保存读取信息,读到结尾会返回NULL 
    		imshow("car",frame);
    		
    		char c = waitKey(1);//这一步很重要,不然看不到视频内容,延时30ms(每秒30帧)
       	
    	   	while( c ==' '){//可以使用空格暂停 
        		c=waitKey(0);
        	}
    	}
        capture.release();
    
    	waitKey(0);  
    	return 0;
    }
    
    /*
    Mat这个类有两部分数据。
    一个是matrixheader,这部分的大小是固定的,包含矩阵的大小,存储的方式,矩阵存储的地址等等。
    另一个部分是一个指向矩阵包含像素值的指针。
    */
    
    /*,使用矩阵为Mat赋值的时候,位数一定要匹配,CV_8U是8位,而一个int有4个字节,*/
    
    int main()
    {
    	char data[]={1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,18};
    	//尼玛,我说怎么搜到的程序上有使用char定义数组给Mat赋值的,这TMD位数不匹配,所以用char 
    	Mat M = Mat(1, 18, CV_8U, data);
    	//CV_8U是8位,而一个int有4个字节,这是不是说明,
    	//这样成立的话,是不是说明,即使是64位的编译器,一个字节也是8位(废话!!) 
    	//Mat M(3,3,CV_8UC2); 
    	//M=(Mat_<int>(3,3) <<);
    //	for(int y=0;y<M.rows;y++){
    //		for(int x=0;x<M.cols;x++){
    //			 int value = M.at<int>(y,x);
    //			 printf("%2d",value);
    //		}
    //		cout<<endl;
    //	}
    	
    	cout<<sizeof(int)<<endl;
    	cout<<M<<endl;
    
    
    	waitKey(0);  
    	return 0;
    	
    }
    
    
    /* 函数 M.channels()  M.ptr()  分别返回M的通道数和行地址
    尽管M是以两个通道类型保存的数据,并且二维矩阵,但是,返回指针任然是一维,行式存储
     */
    
    	char* p =(char *)M.ptr(0);//ptr<>()函数返回第i行的地址 
    	cout<<(int)++data[2]<<endl;
    	//尽管M是以两个通道类型保存的数据,并且二维矩阵,但是,返回指针任然是一维,行式存储 
    	//只能通过逐步移动指针,访问同一元素的不同通道的值 
    	//不做强制转换,就会输出字符,看来上面是自动强制了 
    
    /*2017-1-16*/
    /*分离通道,看来,使用*/char* p =(char *)M.ptr(0)/*返回的行地址,增加也是以单个字节为单位*/
    
    int main()
    {
    	Mat M=imread("E:\visio\1.jpg",1);
    
    	Mat rtemp=Mat::zeros(M.size(),CV_8UC1); 
    	Mat gtemp=Mat::zeros(M.size(),CV_8UC1); 
    	Mat btemp=Mat::zeros(M.size(),CV_8UC1); 
    	
    	for(int i=0;i<M.rows;i++){
    		char* data = M.ptr<char>(i);
    		
    		for(int j=0;j<M.cols;j++){
    
    			rtemp.at<uchar>(i,j) = (data+3*j)[0];
    			gtemp.at<uchar>(i,j) = (data+3*j)[1];
    			btemp.at<uchar>(i,j) = (data+3*j)[2];
    		}
    	}	
    	imshow("Rtongdao",rtemp);
    	imshow("Gtongdao",gtemp);
    	imshow("Btongdao",btemp);
    	waitKey(0);
    } 
    
    //彩色版本  并且使用 Vec3b 
    //template<typename_Tp, int n> class Vec : public Matx<_Tp, n, 1> {...};
    typedef Vec<uchar, 3> Vec3b;
    //其实这句就是定义一个uchar类型的数组,长度为3
    
    	Mat rtemp=Mat::zeros(M.size(),CV_8UC3); 
    	Mat gtemp=Mat::zeros(M.size(),CV_8UC3); 
    	Mat btemp=Mat::zeros(M.size(),CV_8UC3); 
    	
    	for(int i=0;i<M.rows;i++){
    		char* data = M.ptr<char>(i);
    		char* bdata = btemp.ptr<char>(i);
    		char* gdata = gtemp.ptr<char>(i);
    		char* rdata = rtemp.ptr<char>(i);
    		for(int j=0;j<M.cols;j++){
    			
    			(bdata+3*j)[0] = (data+3*j)[0];
    			gtemp.at<Vec3b>(i,j)[1]=(data+3*j)[1];
    			////其实这句就是定义一个uchar类型的数组,长度为3
    			(rdata+3*j)[2] = (data+3*j)[2];
    	
    		}
    	}	
    
    /*绘制一维直方图*/
    
    int main()
    {
    	//【1】载入原图并显示
    	Mat srcImage = imread("E:\visio\1.jpg", 1);
    	imshow("原图",srcImage);
    	if(!srcImage.data) {cout << "fail to load image" << endl; 	return 0;}
    	Mat btemp(srcImage.size(),CV_8UC1);
    	Mat gtemp(srcImage.size(),CV_8UC1);
    	Mat rtemp(srcImage.size(),CV_8UC1);
    	
    	vector<Mat> channel;
    	//创建mat为元素的可变数组; 
    	split(srcImage,channel);
    	//使用split函数分离通道为三个元素,存放到channles[]
    	btemp = channel.at(0);
    	gtemp = channel.at(1);
    	rtemp = channel.at(2);
    	 
    	imshow("b",btemp);
    	imshow("g",gtemp);
    	imshow("r",rtemp);
    	
    	//【2】定义变量
    	MatND bdstHist,gdstHist,rdstHist;
    	
    	int dims = 1;//几维直方图 
    	float hranges[] = {0, 255};//范围数组 
    	const float *ranges[] = {hranges};// 这里需要为const类型,几维,从这取几个范围,元素是数组 
    	int size[] = {256};//每一维度尺寸的大小,几维,就有几个尺寸,里面的元素是数 
    	int channels = 0;
    
    	//【3】计算图像的直方图
    	calcHist(&btemp, 1, &channels, Mat(), bdstHist, dims, size, ranges);  
    	calcHist(&gtemp, 1, &channels, Mat(), gdstHist, dims, size, ranges);
    	calcHist(&rtemp, 1, &channels, Mat(), rdstHist, dims, size, ranges);
    	
    	
    	int scale = 5;//可以根据用户的需求调节显示图像 
    	Mat bdstImage(256 , 64*scale, CV_8U, Scalar(0));//保存白色高度,8位的,单通道图像
    	Mat gdstImage(256 , 64*scale, CV_8U, Scalar(0));
    	Mat rdstImage(256 , 64*scale, CV_8U, Scalar(0));
    	
    	
    	//【4】获取最大值和最小值
    	double bminValue = 0,gminValue = 0,rminValue = 0;
    	double bmaxValue = 0,gmaxValue = 0,rmaxValue = 0;
    	minMaxLoc(bdstHist,&bminValue, &bmaxValue, 0, 0);  
    	minMaxLoc(gdstHist,&gminValue, &gmaxValue, 0, 0);
    	minMaxLoc(rdstHist,&rminValue, &rmaxValue, 0, 0);
    	
    	//【5】绘制出直方图
    	int hpt = 64 ;
    	for(int i = 0; i < 256; i++)//有256组,所以要画256次 
    	{
    		float binValue = bdstHist.at<float>(i);//获取对应直方柱的值
    		//感觉当Mat.at<>()[],,如果对象的元素是单通道,不需要[],当元素为数组vec3b,需要[] 
    		
    		int realValue = saturate_cast<int>(binValue * hpt/bmaxValue);
    		//是加是减,乘除,都会超出一个像素灰度值的范围
    		//当运算完之后,结果为负,则转为0,结果超出255,则为255。
    		
    		rectangle(bdstImage,//对角两个点,画矩形
    				Point(i*scale, 64 - 1), //原点在左上角,所以点在下水平轴上 
    				Point((i+1)*scale - 3, 64 - realValue), // -3,应该是柱与柱之间测间隔。 
    				Scalar(255));// scalar(255),边框填充白色 
    	}
    	
    	for(int i = 0; i < 256; i++)
    	{
    		float binValue = gdstHist.at<float>(i);
    		int realValue = saturate_cast<int>(binValue * hpt/gmaxValue);
    	
    		rectangle(gdstImage,
    				Point(i*scale, 64 - 1),  
    				Point((i+1)*scale - 3, 64 - realValue),   
    				Scalar(255));  
    	}
    	
    	for(int i = 0; i < 256; i++)
    	{
    		float binValue = rdstHist.at<float>(i);
    		int realValue = saturate_cast<int>(binValue * hpt/rmaxValue);
    	
    		rectangle(rdstImage,
    				Point(i*scale, 64 - 1),  
    				Point((i+1)*scale - 3, 64 - realValue),   
    				Scalar(255));  
    	}
    	imshow("一维直方图b", bdstImage);
    	imshow("一维直方图g", gdstImage);
    	imshow("一维直方图r", rdstImage);
    	waitKey(0);
    	return 0;
    }
    
    /*以灰度图像加载图像是通过公式Y=0.2..*b+0.5*g+0.1..*r=R=G=B计算*/
    
    /*RGB颜色空间中,对角线上,没有颜色,只有亮度,即当R=G=B*/
    
    /*色相(Hue):指物体传导或反射的波长。定义各种颜色,取值范围0度-360度,直径两端,是互补色(混在一起是白色)
    饱和度(Saturation):又称色度,是指色彩的强度或纯度。越靠近内轴,似乎就掺了白色,变得淡了
    亮度 (brightness/Intensity):是指颜色的相对明暗度(可以理解为光照),通常以 0% (黑色) 到 100% (白色) 的百分比来衡量。
    */
    
    /*没必要value非得定义成char,定义成int完全能覆盖,CV-8U所有数值 */
    /*当Mat型数据的元素是,三通道时,使用(vec3b)访问时可以使用下标定位 hsvImage.at<Vec3b>(i,j)[1]*/
    	
    	int value;
    	for(int i=0;i<hsvImage.rows;i++){
    		for(int j=0;j<hsvImage.cols;j++)
    			{
    				value = hsvImage.at<Vec3b>(i,j)[1];//当char被赋值170时可能已经发生了溢出, 
    				cout<<value<<" ";					//所以之后无论怎么处理都挽回不了,
    				 
    			}
    	}
    //	imshow("hsv",hsvImage); 
    	cout<<endl<<format(srcImage,"python")<<endl<<endl;
    	cout<<format(hsvImage,"python");
    	
    /*srcImage.copyTo(hsvImage);//这个函数应该是把数据类型也改了 */
    /*copy的使用*/
    C++: void Mat::copyTo(OutputArray m) const
    C++: void Mat::copyTo(OutputArray m, InputArray mask) const
    /*一般情况下使用第一种复制的方法,目的矩阵和数据矩阵大小需要相同
    (一半设置为图像的感兴趣区域,用来赋值LOGO)
    第二种使用方式,有一个mask(只需要单通道),
    mask需要与数据矩阵等大,其非零区域表明需要使用的地方,零的不会用来复制,所以目的矩阵的对应区域不变
    */
    
    /*2016-1-18*/
    
    /*
    cvConvertScale(IplImage*,IplImage*,1.0,0)函数似乎只能使用IplImage=cvLoadImage加载的图像才能运行;
    在Mat数据类型中有个函数convertTo()函数,如下,也可以转换数据类型
    */
    /*
    使用cout显示的方式,不如使用循环指针访问得到的真实
    */
    
    /*
    保存HSV格式的图像,图像数据只能用char大小的数据
    */
    
    int main(int argc, char** argv)  
    {  
    	char data[]={1,2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,18};
        Mat src2 = Mat(3, 2, CV_8UC3, data);
    	Mat src3;
     
    	src2.convertTo(src3,CV_32FC3,1.0,0.1);
    	
    	float value[3];
    	for(int i=0;i<src3.rows;i++){
    		for(int j=0;j<src3.cols;j++)
    			{
    				value[0] = src3.at<Vec3f>(i,j)[0];
    				value[1] = src3.at<Vec3f>(i,j)[1];
    				value[2] = src3.at<Vec3f>(i,j)[2];
    				cout<<"<"<<value[0]<<" "<<value[1]<<" "<<value[2]<<endl;
    				 
    			}
    	}
    	
    		
    	//保存HSV格式的图像,图像数据只能用char大小的数据
    	hsvImage.convertTo(hsvImage,CV_8UC3,(1.0/360)*255,0); 
    	 
    	imshow("hsv",hsvImage); 
      	cout<<endl<<format(src3,"python");
      	imshow("jieguo",src3); 
        getchar();  
        return 0;  
    }
    
    /*
    自定义结构体元素,进行腐蚀操作:如果B的原点平移到点(x,y),那么B将完全包含于X中。输入的二值图像只包含黑色(0)和白色(255)像素,因此结构元素覆盖的图像区域中有黑色像素,则锚点所在像素(x,y)将会被替换成黑色0,否则替换成白色255。而物体的边界通常会有黑色像素,所以腐蚀相当于收缩边界。
    
    另一种理解,腐蚀就是把当前像素替换成所定义的像素集中的最小像素值。
    
    
    */
    int main()
    {
    	char data[20][20]={0};
    	for(int i=3;i<8;i++){
    		for(int j=4;j<10;j++){
    			data[i][j]=255;
    		}
    	} 
    	for(int i=8;i<16;i++){
    		for(int j=2;j<8;j++){
    			data[i][j]=255;
    		}
    	}
    	Mat srcImage(20,20, CV_8UC1, data);
    	cout<<format(srcImage,"python");
    	
    	//使用自定义结构元素进行腐蚀的正确姿势,
    	//网上说自己定义麻烦,确实自己赋值结构元素是有点麻烦,
    	//自定义一个有“形状”的mat,erode 自动可以判断其他参数 
    	char vaule[16]={ 0,0,0,0,
    					 0,0,1,0,
    					 0,1,1,0,
    					 0,0,0,0};
    	Mat element(4,4,CV_8UC1,vaule);
    	Mat result(srcImage.size(),CV_8UC1,Scalar::all(0));
    	erode(srcImage,result,element);//默认腐蚀操作一次
    	cout<<endl<<endl<<format(result,"python");
    	
    					 
    
    	waitKey(0);
    	return 0;
    }
    
    /*2016-1-17*/
    /*轮廓提取
    1、提取前应该先使用边缘算子处理,才能提取到单根轮廓
    2、看来转为灰度图,保存的通道也是 cvtColor
    3、vector<Vec4i> hierarchy;保存轮廓关系一维数组,元素是4个数
    	vector< vector<Point> > contours;保存轮廓数据的“二维数组”,元素是点
    4、//hierarchy[][]后一个轮廓、前一个轮廓、内嵌轮廓,父轮廓的contours数组索引编号(行)
    5、反过来用(y,x)srcImage.at<Vec3b>(y,x)[2]=255;//对对,这样使用是先返回行,对应于坐标是y 
    */
    int main()
    {
    	Mat srcImage=imread("E:/visio/lunkuo.jpg");
    	
    	//cvtColor(srcImage,srcImage,CV_BGR2GRAY,0);
    	//这就是单通道了,看来转为灰度图,保存的通道也是 1 
    	 
    	imshow("jiegou",srcImage);
    //	cout<<format(srcImage,"python")<<endl;
    	Mat gimage;  
        GaussianBlur(srcImage,gimage,Size(3,3),0);//高斯模糊 
    //    imshow("GAUSS Image",gimage);//这里还是彩色的 
        Mat cimage;
        Canny(gimage,cimage,100,250); //图像处理之Canny 边缘检测 1
    //    imshow("Cann Image",cimage);
     // cout<<format(image,"python")<<endl;//这里已经变成单通道了 
          
    	Mat lunkuo=Mat::zeros(srcImage.size(),CV_8UC3);  //绘制 
    	vector<Vec4i> hierarchy;  
    	vector< vector<Point> > contours;
    	//第二个参数:contours,定义为“vector<vector<Point>> contours”,
    	//是一个向量,并且是一个双重向量,向量
        //内每个元素保存了一组由连续的Point点构成的点的集合的向量,每一组Point点集就是一个轮廓。  
        //有多少轮廓,向量contours就有多少元素。
    
    	//使用cvFindContours的返回值为int型,指检测出来的轮廓的个数
    	findContours(cimage,contours,hierarchy,1,CV_CHAIN_APPROX_NONE);//没有返回值 
    	//只有以第四种模式寻找轮廓,hierarchy的数组,才能完全被附上应有的值! 
     	int idx = 0;
     	int i=0;
        for( ; idx<contours.size(); idx++){
        	 for(int j=0;j<contours[idx].size();j++){
        	 	int x=contours[idx][j].x,y=contours[idx][j].y;
    		 	if(idx % 2 == 0) lunkuo.at<Vec3b>(y,x)[2]=255;
    			if(idx % 2 != 0) lunkuo.at<Vec3b>(y,x)[1]=255;
    			//除了模式0之外,
    			//1,2,3模式每一个轮廓都有两个存储数组,仅有几个点有差别,8个轮廓共16个数组 
    //      Scalar color(0,0,255 );
    //		drawContours( lunkuo, contours, idx, color, 1, 8, hierarchy );
    //		使用drawContours,可以顺便给线复颜色值,idx是contour数组的行变量,
    //		应该还不至于操作父子结构。。之后的参数掠过 
    		}
    		imshow("lunkuo",lunkuo);
        }
    
    //	imshow("lunkuo",lunkuo);
    	
    	
    /*	模式2-1 查找所有轮廓,全部输出 
    	for(i=0;i<contours.size();i++)  
        {  
            //contours[i]代表的是第i个轮廓,
    		//contours[i].size()代表的是第i个轮廓上所有的像素点数  
            for(int j=0;j<contours[i].size();j++)   
            {  
                //绘制出contours向量内所有的像素点
    			//这里要想画在原图上,要画gimage,因为gimage已经与原图像不一样了
    			//并且原图像画边界的部分是白色,都是255,所以会有截断似乎
    			//还有一种办法,更改原图像  
                int x=contours[i][j].x,y=contours[i][j].y;  
                //还有一种办法,更改原图像 ,数组的话还不能整体赋值呢,就先一步一步操作吧 
    			//这里居然要反过来用,像素点(x,y),,这里要输入(y,x) 
    			//不然就使用Point point(x,y),,srcImage.at<Vec3b>(p)[] 
    			srcImage.at<Vec3b>(y,x)[2]=255;//对对,这样使用是先返回行,对应于坐标是y 
    			srcImage.at<Vec3b>(y,x)[0]=0; //那么使用的时候,也得反着用 
    			srcImage.at<Vec3b>(y,x)[1]=0;  
    		
            }
            
            //输出hierarchy向量内容  
            cout<<"向量hierarchy的第" <<i<<" 个元素内容为:"<<endl
    		<<hierarchy[i]<<endl<<endl;  
    	}
    	imshow("lunkuo",srcImage);
    */	
    	
    /*  模式 	RETR_EXTERNAL==0  只查找最外层轮廓,
    	轮廓保存数组,仍然是二维,尽管只保存一个轮廓
    	没有使用层次关系 hierarchy
    	for(int i=0;i<contours.size();i++)  
        {  
            //contours[i]代表的是第i个轮廓,contours[i].size()代表的是第i个轮廓上所有的像素点数  
            for(int j=0;j<contours[i].size();j++)   
            {  
               //绘制出contours向量内所有的像素点  
                Point P=Point(contours[i][j].x,contours[i][j].y);  
                lunkuo.at<uchar>(P)=255;  
            }
            
             //输出hierarchy向量内容  
            char ch[256];  
            sprintf(ch,"%d",i);  
            string str=ch;
        //hierarchy[][]后一个轮廓、前一个轮廓、内嵌轮廓的索引编号,父轮廓、应该是contours的行号 
            cout<<"向量hierarchy的第" <<str<<" 个元素内容为:"<<endl<<hierarchy[i]<<endl<<endl;  
      
    	}
    	imshow("lunkuo",lunkuo);
    */
    	waitKey(0);
    	return 0;
    }
    
    /*2017-1-19*/
    //图像的细化,先有原图得到灰度图cvtColor
    //在有灰度图得到二值化threshold
    //由程序中判断边缘点的方法将其记录到edg,再由索引表八连通图的方法判断是否为删除点,记录到delete,之后删除
    //之后再有边缘函数fincontours试试..........
    void deletecontours(Mat &srcImage)  
    { 
        unsigned char deletemark[256] = {  
            0,0,0,0,0,0,0,1,    0,0,1,1,0,0,1,1,  
            0,0,0,0,0,0,0,0,    0,0,1,1,1,0,1,1,  
            0,0,0,0,0,0,0,0,    1,0,0,0,1,0,1,1,  
            0,0,0,0,0,0,0,0,    1,0,1,1,1,0,1,1,  
            0,0,0,0,0,0,0,0,    0,0,0,0,0,0,0,0,  
            0,0,0,0,0,0,0,0,    0,0,0,0,0,0,0,0,  
            0,0,0,0,0,0,0,0,    1,0,0,0,1,0,1,1,  
            1,0,0,0,0,0,0,0,    1,0,1,1,1,0,1,1,  
            0,0,1,1,0,0,1,1,    0,0,0,1,0,0,1,1,  
            0,0,0,0,0,0,0,0,    0,0,0,1,0,0,1,1,  
            1,1,0,1,0,0,0,1,    0,0,0,0,0,0,0,0,  
            1,1,0,1,0,0,0,1,    1,1,0,0,1,0,0,0,  
            0,1,1,1,0,0,1,1,    0,0,0,1,0,0,1,1,  
            0,0,0,0,0,0,0,0,    0,0,0,0,0,1,1,1,  
            1,1,1,1,0,0,1,1,    1,1,0,0,1,1,0,0,  
            1,1,1,1,0,0,1,1,    1,1,0,0,1,1,0,0  
        };//索引表  
    
    	Mat image;
        Mat copyImage;
        cvtColor(srcImage,image,CV_BGR2GRAY);
        threshold(image, copyImage, 128, 1, THRESH_BINARY);//这样,像素点就变成0 1 //image = image * 255  显示图像 
       // cout<<endl<<endl<<format(copyImage,"python");
        //仅使用最外一层轮廓,不用做预处理,并且只有一层
    	vector<Point> edg;
    	vector<Point> detele;
    	
    	bool flag = true;
     	int times = 0;
     	int sum;
     	char vaule[8] = { 0 };
     	while( flag ) {
     		
    	 	times++;
    	 	flag = false;
    	 	
    		int number0=0;
    	 	//记得之前使用一种函数,返回的是行号 注意像素点的表示(行号,列号)
    		//若想之后正确使用,一开始就得按照规矩来
    	 	for(int i=1;i<copyImage.rows-1;i++){
    	 		for(int j=1;j<copyImage.cols-1;j++){
    				int x=i,y=j;
    				if( copyImage.at<char>(x,y) == 1 ){
    				
    				vaule[0] = copyImage.at<char>(x-1,y-1);
    				vaule[1] = copyImage.at<char>(x-1,y);
    				vaule[2] = copyImage.at<char>(x-1,y+1);
    				vaule[3] = copyImage.at<char>(x,y+1);
    				vaule[4] = copyImage.at<char>(x+1,y+1);
    				vaule[5] = copyImage.at<char>(x+1,y);
    				vaule[6] = copyImage.at<char>(x+1,y-1);
    				vaule[7] = copyImage.at<char>(x,y-1);
    
    					sum = vaule[0] & vaule[1] & vaule[2] & vaule[3] & vaule[4] & vaule[5] & vaule[6] & vaule[7];
    				
    					if(sum == 0) {
    						edg.push_back(Point (x,y));
    					}
    				}
    			 }
    		 }
     
    		 for(int i=0 ; i<edg.size() ; i++){
    		 	
    		 	int x,y;
    			x = edg[i].x;
    			y = edg[i].y;
    		
    			vaule[0] = copyImage.at<char>(x-1,y-1);
    			vaule[1] = copyImage.at<char>(x-1,y);
    			vaule[2] = copyImage.at<char>(x-1,y+1);
    			vaule[3] = copyImage.at<char>(x,y+1);
    			vaule[4] = copyImage.at<char>(x+1,y+1);
    			vaule[5] = copyImage.at<char>(x+1,y);
    			vaule[6] = copyImage.at<char>(x+1,y-1);
    			vaule[7] = copyImage.at<char>(x,y-1);
    		//由于字符转换int使得数值变成0了估计!!!!!!!!!!!!!	
    			vaule[1]*=2;
    			vaule[2]*=4;
    			vaule[3]*=8;
    			vaule[4]*=16;
    			vaule[5]*=32;
    			vaule[6]*=64;
    			vaule[7]*=128;
    			
    			sum = vaule[0] + vaule[1] + vaule[2] + vaule[3] + vaule[4] + vaule[5] + vaule[6] + vaule[7] ;
    		//若发现该点是可删除点,即立即删除.删除会影响到以后的判断,故先做标记
    			if(deletemark[sum] == 1){
    				detele.push_back(Point (x,y));//vertor的插入
    		 	}
    
    		}		
    		if(detele.size() > 0)//vector的成员函数.size()
    			flag = true;
    		 	for(int i=0;i<detele.size();i++){
    				 int x,y;
    				 x=detele[i].x,y=detele[i].y;
    				 copyImage.at<char>(x,y)=0;
    			 }
    		cout<<endl<<"time"<<times<<endl;
    		detele.clear();
    		edg.clear();
    	}
    	
    	imshow("jieguo",copyImage*255);
    }
    
    /*2017-2-2*/
    
    /*
    hu矩
    质量中心的简称,它同作用于质点系上的力系无关。设?n个质点组成的质点系?,其各质点的质量分别为m1,m2,…,mn。若用?r1?,r2,……,rn分别表示质点系中各质点相对某固定点的矢径,rc?表示质心的矢径,则有rc=(m1r1+m2r2+……+mnrn)/(m1+m2+……+mn)。当物体具有连续分布的质量时,质心C的矢径?rc=∫ρrdτ/∫ρdτ,式中ρ为体(或面、线)密度;dτ为相当于ρ的体(或面?、线)元?;积分在具有分布密度ρ的整个物质体(或面、线)上进行。由牛顿运动定律或质点系的动量定理,可推导出质心运动定理:质心的运动和一个位于质心的质点的运动相同,
    
    中心矩具有平移不变性,它与中心做差了
    归一化中心矩,应该具有缩放平移不变性
    Hu矩具有平移,缩放,旋转不变性,应该是综合了好多矩的向量
    中心矩是20 11 02开始,,因为00就是p+q 00 ;01 10中心矩不存在
    */
    
    int main()
    {
    	char data[100]={0};
    	for(int i=3;i<6;i++){
    		for(int j=3;j<6;j++)
    			data[10*i+j]=255;		
    	}
    	Mat srcImage= Mat(10, 10, CV_8U, data);
    	Moments mts=moments(srcImage,2);//2是非零的意思,会将图像中大于零的都认为1
    	//这应该是库中的函数,可以直接使用,计算各阶矩(原点矩,中心矩)0,1,2
    	double hu[7]; 
        HuMoments(mts, hu);//只需要接受各阶矩,计算得到hu矩,存入hu数组
    	 
        for (int i=0; i<7; i++) 
        { 
            cout << log(abs(hu[i])) <<endl; 
        } 
    }
    
    
    /*2017-2-3*/
    /*
    resylt = matchShapes(contours[],contours [],1 ) 函数的使用方法,输入比较的边缘数组,比较方法1 2 3、 
    返回值是个浮点数,显示比较距离,越小越相似
    其内部还是先计算出两个图像的hu矩,然后通过一些数学方法计算两个hu矩之间的差距				
    */
    int main()
    {
    	Mat srcImage0=imread("E:/visio/dev/xin.JPG");
    	Canny(srcImage0,srcImage0,100,250);
    	//即使看似很规整,还是直接检测最外层轮廓,还是会检测到前一个后一个的关系,不是继承 
    	
    	Mat srcImage1=imread("E:\visio\dev\youxin.JPG");
    	Canny(srcImage1,srcImage1,100,250);
    
    	Mat lunkuo0=Mat::zeros(srcImage0.size(),CV_8U);  //绘制
    	Mat lunkuo1=Mat::zeros(srcImage1.size(),CV_8U);  //绘制
    	vector<Vec4i> hierarchy;  
    	vector< vector<Point> > contours0;
    	vector< vector<Point> > contours1;
    	findContours(srcImage0,contours0,hierarchy,0,CV_CHAIN_APPROX_NONE);//没有返回值 
    	findContours(srcImage1,contours1,hierarchy,0,CV_CHAIN_APPROX_NONE);//没有返回值 
    	
    	drawContours( lunkuo0, contours0, 0, 255, 1, 8 );
    	drawContours( lunkuo1, contours1, 0, 255, 1, 8 );
    	
    	//通过上面的边缘检测之后,一幅图才能寻找出一个边缘。
    	 
    	imshow("lunkuo0",lunkuo0);
    	imshow("lunkuo1",lunkuo1);
    	
    	double result;
    	
    	result=matchShapes(contours0[0],contours1[0],1,0);
    	//比较方法的宏定义有三个,只是这里竟然输入的是边缘数组,而不是二值化图像,1,2,3 
    	//使用这种方法,比较结果不能提钱限定只能从总的比较结果中选取一个最小的 
    	cout<<result<<endl;
    	waitKey(0);
    }
    
    /*matchTempate()模版匹配到的使用*/
    //计算一个二维矩阵中最大值最小值,以及他们的位置
    
    minMaxLoc(	//取出矩阵中最大最小值  
        const CvArr* arr,//目标矩阵  
        double* min_val,//最小值  
        double* max_val,//最大值  
        CvPoint* min_loc = NULL,//最小值位置  
        CvPoint* max_loc = NULL,//最大值位置  
        const CvArr* mask = NULL//掩膜,以便做区域操作
    );  
    
    int main()
    {
    	Mat srcImage=imread("zong.jpg");
    	Mat temp=imread("ling.jpg");
    	
    	int srcw=srcImage.rows,srch=srcImage.cols,tempw=temp.rows,temph=temp.rows;
    	int resultw=srcw-tempw+1;//储存匹配结果的矩阵,按照上述原理,应该的长度和宽度就是这样
    	int resulth=srch-temph+1;
    	Mat result(resultw,resulth,CV_8U,Scalar::all(0));
    	//结果矩阵,保存着匹配信息,估计之后需要能够对矩阵计算的相关函数 
    	matchTemplate(srcImage,temp,result,1);
    	//这个函数类型为void,
    	//使用一个与temp大小的框,遍历原图像,然后对比temple(对比方法6中) 
    	//有6种比较计算方法,估计也是计算矩,不同的方法,result中值的大小意义不同
    
    	double min,max;
    	Point minpoint,maxpoint,rightpoint;
    	minMaxLoc(result,&min,&max,&minpoint,&maxpoint,Mat()); 
    	//查找矩阵中最大值最小值,及其他们的位置 
    	
    	rightpoint=minpoint;//使用了第一种方法,最小值表示最相似 
    	rectangle(srcImage,rightpoint,Point(rightpoint.x+tempw,rightpoint.y+temph),Scalar(0,0,255));
    	//画矩形函数,输入图像,座上,右下点,颜色(使用了构造函数,构造了一个每名的量)
    	 
    	imshow("jieguo",srcImage);
    	waitKey(0);
    }
    
    //上面的版本只能实现在众多图像中匹配一个最相似的结果,并不能识别
    //比模版大的相似对象(由匹配原理),后者,多个与模版大小相同(只能圈出一个最相似的,识别多个需要设计,视频的最后一节)
    //由于这个方法并不能很好的实现刀闸的识别,所以,识别多个的项目就先放一放
    
    /*2017-2-13*/
    /*
    仿照houghcircles的思想改写的检测圆形曲线,但结果似乎并不好,发现大多说的图像经过处理后
    半径很小的圆,往往峰值很大,这也学是因为半径越小,其边缘越能近似到同一个(半径)圆心
    半径大的,却能近似到几个有那么一点点差别的圆心,从而导致峰值分散,不能与半径小的圆相比 
    */
    int main()
    {
    	Mat src=imread(".//刀闸图片//data.jpg");
    	int radius=50;//定义半径范围 
    	float interval=1;//定义角度范围 
    	
    	Mat result;
    	src.copyTo(result);
    	
    	cvtColor(src,src,CV_RGB2GRAY);
    	GaussianBlur(src,src,Size(3,3),0);
    	Canny(src,src,100,250);
    	 
    	imshow("src",src);
    	//三维矩阵,下标为各种圆(不同半径时以各个像素为圆心),值代表有多少像素点在它上面 
    	vector<vector<vector<int> > > count(radius,vector<vector<int> >(src.rows,vector<int>(src.cols)));
    	//只知道这样创建不知道为什么?
    	
    	
    	int x0,y0;
    	for(int k=1;k<radius;k++){
    	
    		for(int i=0;i<src.rows;i++){
    			for(int j=0;j<src.cols;j++){
    				
    				unsigned char color = src.at<uchar>(i,j);
    				
    				if(color > 0){//如果是前景点 
    					for (int theta = 0; theta < (1 / interval) * 360; theta++){
    						//计算圆心的方法也是独特,就是图中转换后的圆(以点代圆)
    						double t = ( (1 / interval) * theta * CV_PI ) / 180;
    						x0 = (int)cvRound(j - k * cos(t));//对一个double型的数进行四舍五入
    						y0 = (int)cvRound(i - k * sin(t));
    						//计算圆心。k是半径,这里是根据r计算a,b(圆心),因为r有界可做外层循环。
    						if (x0 < src.cols && x0 > 0 && y0 < src.rows && y0 > 0){
    							count[k][y0][x0]++;
    						}
    					}
    				}
    			}
    		}
    	}
    	int max = 0;
    	int r = 0;
    	int x = 0, y = 0;
    	
    	for(int k=1;k<50;k++){
    		
    		for(int i=0;i<src.rows;i++){
    			for(int j=0;j<src.cols;j++){
    			
    				if (count[k][i][j] > max){
    					max = count[k][i][j];
    					x = j;
    					y = i;
    					r = k;
    				}
    				
    			}
    		}
    	}
    
    	cout << x << endl;
    	cout << y << endl;
    	cout << r << endl;
    	cout<<"峰值"<<max<<endl;
    	
    	Point point;
    	point.x = x;
    	point.y = y;
    	//画圆
    	circle(result, point, r, Scalar(0, 0, 255));
    	
    	imshow("yuan",result);
    	waitKey(0); 
    	return 0;
    }
    
    /*霍夫圆检测函数*/ HoughCircles(src,circles,CV_HOUGH_GRADIENT,1,3,100,45,0,0);
    	//8位图,存储变量,检测方法,步长(确定累加器的大小,越大,累加器空间越小)
    	//圆心之间可合并的最大距离,canny检测因子,判断累加器阈值大小已确定那些点是圆心
    	//半径的最小,最大
    	//总之效果并不好用 
    	vector<Vec3f> circles;
    
    	HoughCircles(src,circles,CV_HOUGH_GRADIENT,1,3,100,45,0,0);
    	
    	for(int i=0;i<circles.size();i++){
    		Point center(cvRound(circles[i][0]),cvRound(circles[i][1]));
    		int radius = cvRound(circles[i][2]);
    		//绘制圆心 
    		circle(result,center,3,Scalar(0,0,255),-1,8,0);
    		//绘制轮廓
    		circle(result,center,radius,Scalar(155,50,255),3,8,0); 
    		
    	}
    	cout<<circles.size()<<endl;
    	
    	
    /*直线检测*/
    
    	Mat src=imread(".//刀闸图片//01.jpg",1);//"./"此文件夹 
    	
    	Mat edg;
    //霍夫直线检测,可以检测出直线,,,,,转换了参数空间
    	Canny(src,edg,50,100); 
    	imshow("edg",edg);
    	vector<Vec4i> lines; 
    	HoughLinesP(edg,lines,1,CV_PI/180,150,50,10);	
    //输入二值化图像,存储空间,(转化后)半径的步长,角度的步长,阈值(待定直线),
    //最小直线阈值(小于该值,则不被认为是一条直线),阈值(两条直线间隙大于该值,则被认为是两条线段,否则是一条。) 
    	for(int i=0;i<lines.size();i++){ //这种使用方法要学会 
    		Vec4i l=lines[i];
    		line(src,Point(l[0],l[i]),Point(l[2],l[3]),Scalar(0,0,255));
    	}
    	imshow("jieguo",src);
    	
    	
    	
    	
    /*2017-2-15*/
    /*Moravec角点检测算法*/
    //输入二值化图像,存储角点坐标指针,角点阈值(有计算方式确定)
    int getMoravec(Mat& src,Point* corners , float threshold)  
    {  
        int winsize=5;//窗口的大小 即 5*5 win[5,5]  
        int halfwinsize=winsize/2;  
        Mat diffDst(src.size(),CV_32FC1,Scalar::all(0));  
    
        int conersCount=0;  
        int x,y;  
     
        for (y=halfwinsize ; y<src.rows-halfwinsize ; y++)//先y(行),每次移动一个像素
        {  
            for (x=halfwinsize;x<src.cols-halfwinsize; x++)//后x(列),从第一个浮动框的中点开始  
            {  
                float reaction[4],minVal;
      
                reaction[0]=0;  
                reaction[1]=0;  
                reaction[2]=0;    
                reaction[3]=0;//应该是记录四个方向的差值  
              
                int i;  
    //在我们的算法中,(u,v)的取值是((1,0),(1,1),(0,1),(-1,1).//上半平面,每隔45度,取一个角
    //当然,你自己可以改成(1,0),(1,1),(0,1),(-1,1),(-1,0),(-1,-1),(0,-1),(1,-1) 8种情况
                //0  
                for (i=-halfwinsize;i<halfwinsize;i++)//-2 -1 0 -1  
                {//当然要加,要计算所有框内的差值平方和
    			
                    reaction[0]+= pow(src.at<uchar>(y,x+i)-src.at<uchar>(y,x+i+1),2);  
                }  
      
                //45  
                for (i=-halfwinsize;i<halfwinsize;i++)//-2 -1 0 -1  
                {  
                    reaction[1]+= pow(src.at<uchar>(y+i,x+i)-src.at<uchar>(y+i+1,x+i+1),2);  
                }  
      
                //90  
                for (i=-halfwinsize;i<halfwinsize;i++)//-2 -1 0 -1  
                {  
                    reaction[2]+= pow(src.at<uchar>(y+i,x)-src.at<uchar>(y+i+1,x),2);  
                }  
      
                //-45  
                for (i=-halfwinsize;i<halfwinsize;i++)//-2 -1 0 -1  
                {  
                    reaction[3]+= pow(src.at<uchar>(y+i,x-i)-src.at<uchar>(x-i-1),2);  
                }  
      
                //-----------------------------  
                //取最小值  
              
                minVal=reaction[0];  
                minVal=reaction[1]<minVal?reaction[1]:minVal;  
                minVal=reaction[2]<minVal?reaction[2]:minVal;  
                minVal=reaction[3]<minVal?reaction[3]:minVal;  
      
    			//将最小值保存在准备好的模版中,且与原图对应像素
                diffDst.at<float>(y,x)=minVal;  
            }  
        }
      
    	//获取角点坐标  判断当前点的局部极大值!!! 对对 局部区域最大值
        for (y=halfwinsize;y<src.rows-halfwinsize;y+=halfwinsize){  
            for (x=halfwinsize;x<src.cols-halfwinsize;x+=halfwinsize){  
                
    			float max=0;  
                int flag=0;  
                Point maxLoc;//保存最大值的位置
                maxLoc.x=-1;//初始化
                maxLoc.y=-1;
    			//在局部区域里面找最大值!
                for (int winy=-halfwinsize;winy<halfwinsize;winy++){  
                    for (int winx=-halfwinsize;winx<halfwinsize;winx++){  
                        float value;
    					
                        value= diffDst.at<float>(y+winy,x+winx);//取像素点的值
                        
    					if (value>max){
                            max=value;
                            flag=1;//存在候选角点,还没设置阈值
                            maxLoc.x=x+winx;  
                            maxLoc.y=y+winy;
                        }  
      
                    }  
                }
      
                if (flag==1 && max>threshold){  
                    corners[conersCount].x=maxLoc.x;  
                    corners[conersCount].y=maxLoc.y;  
                    conersCount++;  
                }  
      
            }  
    
        }
        return conersCount;  
    }
    
    /*2017-2-17*/
    /*
    .h文件,与相应的.cpp文件的使用
    感觉只能在项目文件中使用这种方法两节两个.cpp文件(主文件通过.h使用另一个.cpp )
    1、原理上并不要求这两个文件(.h .cpp)同名,但为了使用方便,一半设置为同名
    2、.cpp里可以只用各种函数,没有主函数,因为在一个整体中只要又一个函数入口就行了
    3、但是即使是非主的.cpp文件也需要他自己编译通过所需的库的头文件引用
    4、根据文本替代远离的.h文件在主文件的位置也有讲究,例如若.h文件中使用了Mat,
    那么他在主文件中的位置须在命名空间的后面,
    不然,根据文本替代原理,编译器不会识别.h文件中的陌生符号
    */
    
    
    /*输出字符到文本文件*/
    #include <fstream>
    
    	ofstream outfile("data.txt");//打开
    	outfile<<"下标从小到大";
    	for(int i=0;i<256;i++){
    		outfile<<","<<(int)result[i];
    	}
    	outfile.close();关闭
    
    	
    /*可视化编程,滑动小框*/
    for(int i=0;i<contours.size();i++){
    		for(int j=0;j<contours[i].size();j++){
    		
    				int x,y;
    				x=contours[i][j].x; 
    				y=contours[i][j].y;
    				int sum[2];
    				
    				//则以此点为中心,考察一个框 
    				Mat temp;
    				src.copyTo(temp);
    				circle(temp, Point(x,y),round,Scalar(255));
    				imshow("temp",temp);
    				waitKey(100);
    		}
    	}
    	
    
    //Point像素点坐标访问,X是横向的坐标轴是
    //at(i,j),矩阵数据访问,i是行号
    
    	Point point(10,100);
    	srcImage.at<uchar>(point.x,point.y)=255;//x,y==>行,列 
    	cout<<point.x<<" "<<point.y<<endl;
    	srcImage.at<uchar>(50,100)=255;//同上,先行后列 
    		//这种用法很特殊,,似乎自己做了转换
    	point.x=20;
    	point.y=100;
    	srcImage.at<uchar>(point)=255;//这样使用x,y就代表  列,行了 
    	
    	Mat m=Mat::zeros(200,200,CV_8UC3);
    	Point point(10,100);
    	circle(m,point,1,Scalar(0,0,255));//使用point的数据,x列,y行 
    	circle(m,Point(20,100),1,Scalar(0,0,255));//同上,x列,y行 
    	cout<<point.x;//或者说对于Point来讲,point.x就是cols 
    	
    	m.at<Vec3b>(10,100)[2]=255; //因为这里(i,j)并不是代表像素点的坐标,而是cols号 
    	
    	
    	imshow("jieguo",m);
    	
    	
    //多边形逼近
       
    	Mat lunkuo=Mat::zeros(srcImage.size(),CV_8UC3);  //绘制 
    	vector<Vec4i> hierarchy;  
    	vector< vector<Point> > contours;
    
    	findContours(srcImage,contours,hierarchy,0,CV_CHAIN_APPROX_NONE);//没有返回值 
    	vector<vector<Point> > approxPoint(contours.size()); 
    	 
        for (int i = 0; i < (int)contours.size(); i++){  
            approxPolyDP(contours[i], approxPoint[i], 3, true);  
        }  
      
    	for(int i=0;i<approxPoint.size();i++){
            drawContours(lunkuo, approxPoint, i, Scalar(255, 255, 255), 1);
        }
        imshow("black",lunkuo);
    	
    //角度计算
    double=atan(y/x);
    //计算在不在圆里面,是带入公式
    {x1-x}^2+{y1-y}^2==r
    
    
    
    /*2017-2-18*/
    /*卷积*/
    //有的图像处理方法是把象素的颜色(灰度)值变换为周围图像颜色(灰度)值的调和(周围象素颜色(灰度)值乘以一个权重值求和,效果会使得图像效果变得朦胧),这个过程也符合卷积的物理意义(一组值乘以他们相应的“权重”系数的和),所以这个处理也被称为卷积。
    
    
    /*2017-2-19*/
    /*
    1、关于h文件的引用,没主函数的cpp文件也需要引入相关的系统库,才能通过编译
    or*///将所有需要的引入库都写在这里h文件中是可以的,,但,,  
    //不将所有的库都写在这里的原因是,
    //并不知道那个函数所需要引入那个库,
    //倒不如,每个函数的库,他自己负责引入  
    //这里这样写只是证明这样写是可以的,并不建议这样写!
    
    /**.h文件*/
    #include <iostream>  
    #include <string>  
    #include <list>  
    #include <vector>  
    #include <map>  
    #include <stack>
    #include <opencv2/opencv.hpp>
    #include <iostream>
    
    using namespace std;
    using namespace cv;
    
    Scalar icvprGetRandomColor();
    void icvprCcaByTwoPass(const Mat& _binImg, Mat& _lableImg);
    void icvprCcaBySeedFill(const Mat& _binImg, Mat& _lableImg);
    void icvprLabelColor(const Mat& _labelImg, Mat& _colorLabelImg);
    
    /*
    2、防止h文件引用自己
    */
    
    /*2017-2-20*/
    //goodFeatureToTrack()函数
    
    /*
    1、//eig是最小特征值矩阵,并不是二值化矩阵,对其膨胀效果不同
    //默认用3*3的核膨胀,膨胀之后,除了局部最大值点和原来相同,其它非局部最大值点被 
    //3*3邻域内的最大值点取代,如不理解,可看一下灰度图像的膨胀原理
    dilate( eig, tmp, Mat() );
    
    2、Size imgsize = image.size(); //?还有这个类型?!
    
    3、vector<const float*> tmpCorners;  //这里使用指针,是要访问他在内存中的真正地址,?指向浮点数的地址?
    
    4、//size_t类型  
    //而数组下标的正确类型则是size_t,是标准C库中定义的一种类型,应为unsigned int
    size_t i, j
    
    5、eig.data
    返回eig内存块的首地址?还有eig.data这样的使用法? 
    角点在原图像中的行?eig.step也许是一行的大小吧? 
    */
    oid cv::goodFeaturesToTrack(InputArray _image, 
    							OutputArray _corners,  
                                int maxCorners, 
    							double qualityLevel, 
    							double minDistance,  
                                InputArray _mask, 
    							int blockSize,  
                                bool useHarrisDetector, 
    							double harrisK 
    							)  
    {
        //如果需要对_image全图操作,则给_mask传入cv::Mat(),否则传入感兴趣区域  
        Mat image = _image.getMat(), mask = _mask.getMat();    
      
        CV_Assert( qualityLevel > 0 && minDistance >= 0 && maxCorners >= 0 );  //对参数有一些基本要求  
        CV_Assert( mask.empty() || (mask.type() == CV_8UC1 && mask.size() == image.size()) );  
      
        Mat eig, tmp;   //eig存储每个像素协方差矩阵的最小特征值,tmp用来保存经膨胀后的eig
    					//?协方差矩阵 大概就是可以表征角的特点的一个矩阵吧?
    					//?注意计算完之后,eig就变成float类型的了?					
        if( useHarrisDetector )  
            cornerHarris( image, eig, blockSize, 3, harrisK ); //blockSize是计算2*2协方差矩阵的窗口大小,sobel算子窗口为3,harrisK是计算Harris角点时需要的值  
        else
            cornerMinEigenVal( image, eig, blockSize, 3 );  //计算每个像素对应的协方差矩阵的最小特征值,保存在eig中  
      
        double maxVal = 0;  
        minMaxLoc( eig, 0, &maxVal, 0, 0, mask );   //只有一个最大值(最小值)没保存,maxVal保存了eig的最大值  
        threshold( eig, eig, maxVal*qualityLevel, 0, THRESH_TOZERO );  
    	//阈值设置为  maxVal乘以qualityLevel(图像质量水平),
    	//大于此阈值的保持不变,小于此阈值的都设为0   
    
    	//eig是最小特征值矩阵,并不是二值化矩阵,对其膨胀效果不同
    	//默认用3*3的核膨胀,膨胀之后,除了局部最大值点和原来相同,其它非局部最大值点被 
    	//3*3邻域内的最大值点取代,如不理解,可看一下灰度图像的膨胀原理
        dilate( eig, tmp, Mat() );  //tmp中保存了膨胀之后的eig,?保存膨胀之后的干什么?
      
        Size imgsize = image.size(); //?还有这个类型?!
    
        vector<const float*> tmpCorners;  //存放粗选出的角点地址,?指向浮点数的地址?
    	//这里使用指针,是要访问他在内存中的真正地址
       
        for( int y = 1; y < imgsize.height - 1; y++ )//从第二行开始,到倒数第二行  
        {  
            const float* eig_data = (const float*)eig.ptr(y);  //获得eig第y行的首地址 
            const float* tmp_data = (const float*)tmp.ptr(y);  //获得tmp第y行的首地址  
            const uchar* mask_data = mask.data ? mask.ptr(y) : 0;  
    
            for( int x = 1; x < imgsize.width - 1; x++ ){  
                
    			float val = eig_data[x];  
                
    			if( val != 0 && val == tmp_data[x] && (!mask_data || mask_data[x]) )  
    				//val == tmp_data[x]说明这是局部极大值
                    tmpCorners.push_back(eig_data + x);  
    				//保存其位置 		?eig_data已经是y行首地址了? 
            } 
        }  
      
        //-----------此分割线以上是根据特征值粗选出的角点,我们称之为弱角点----------//  
      //----------此分割线以下还要根据minDistance进一步筛选角点,仍然能存活下来的我们称之为强角点----------//  
    	//tmpCorners,数组  保存弱角点的 内存像素地址
        sort( tmpCorners, greaterThanPtr<float>() );  //按特征值降序排列,注意这一步很重要,后面的很多编程思路都是建立在这个降序排列的基础上 
      
    	vector<Point2f> corners;
    	
    	//size_t类型  
    	//而数组下标的正确类型则是size_t,是标准C库中定义的一种类型,应为unsigned int
        size_t i, j, total = tmpCorners.size(), ncorners = 0;
    
        //下面的程序有点稍微难理解,需要自己仔细想想
    	//minDistance是传入参数	
        if(minDistance >= 1){  
            int w = image.cols;  
            int h = image.rows;  
      
            const int cell_size = cvRound(minDistance);   //向最近的整数取整  
    
        /*	这里根据cell_size构建了一个矩形窗口grid(虽然下面的grid定义的是vector<vector>,而并不是我们这里说的矩形窗口,但为了便于理解,还是将grid想象成一个   grid_width*grid_height 的矩形窗口比较好),
    	
    	除以cell_size说明grid窗口里相差一个像素相当于_image里相差minDistance个像素,至于为什么加上cell_size - 1后面会讲
    	*/
            //w,h是整个图像的,所以grid_width的大小也是对于整个图像的
    		const int grid_width = (w + cell_size - 1) / cell_size;   
            const int grid_height = (h + cell_size - 1) / cell_size;  
    		
    		//vector里面是vector,grid用来保存获得的强角点坐标,?注意grid中保存的是坐标,但为什么是Point2f?
            std::vector<std::vector<Point2f> > grid(grid_width*grid_height);
    		
            minDistance *= minDistance;//平方,方面后面计算,省的开根号  
      
            for( i = 0; i < total; i++ ) // 刚刚粗选的弱角点,都要到这里来接收新一轮的考验  
            {  
                int ofs = (int)( (const uchar*)tmpCorners[i] - eig.data );  //tmpCorners中保存了角点的地址,eig.data返回eig内存块的首地址?还有eig.data这样的使用法? 
    			
                int y = (int)(ofs / eig.step);   //角点在原图像中的行?eig.step也许是一行的大小吧?  
                int x = (int)((ofs - y*eig.step)/sizeof(float));  //在原图像中的列  
      
                bool good = true;//先认为当前角点就是强角点  
      
                int x_cell = x / cell_size;//x_cell,y_cell是角点(y,x)在grid中的对应坐标  
                int y_cell = y / cell_size;//全部图像分成若干个 grid,,这个x_cell,y_cell处于的grid的坐标  
    			
    			//现在知道为什么前面grid_width定义时要加上cell_size - 1了吧,这是为了使得(y,x)在grid中的4邻域像素都存在,也就是说(y_cell,x_cell)不会成为边界像素 // (y_cell,x_cell)的4邻域像素  
                int x1 = x_cell - 1;  
                int y1 = y_cell - 1;  
                int x2 = x_cell + 1;    
                int y2 = y_cell + 1;  
      
                // boundary check,再次确认x1,y1,x2或y2不会超出grid边界  
                x1 = std::max(0, x1);  //比较0和x1的大小  
                y1 = std::max(0, y1);  
                x2 = std::min(grid_width-1, x2);  
                y2 = std::min(grid_height-1, y2);  
      
                //记住grid中相差一个像素,相当于_image中相差了minDistance个像素  
                for( int yy = y1; yy <= y2; yy++ ){ // 行  
                    for( int xx = x1; xx <= x2; xx++ ){  //列  
                      
                        vector <Point2f> &m = grid[yy*grid_width + xx];  //grid中元素的是Point2f引用  
    					
    					//如果(y_cell,x_cell)的4邻域像素,
    					//也就是(y,x)的minDistance邻域像素中已有被保留的强角点
    					
                        if( m.size() ){//m指向一个坐标点                
                            for(j = 0; j < m.size(); j++){   //当前角点周围的强角点都拉出来跟当前角点比一比  
                             
                                float dx = x - m[j].x;  
                                float dy = y - m[j].y;  
                   //注意如果(y,x)的minDistance邻域像素中已有被保留的强角点,则说明该强角点是在(y,x)之前就被测试过的,又因为tmpCorners中已按照特征值降序排列(特征值越大说明角点越好),这说明先测试的一定是更好的角点,也就是已保存的强角点一定好于当前角点,所以这里只要比较距离,如果距离满足条件,可以立马扔掉当前测试的角点
    			   
    			   //也就是在一定范围内,只保留一个角点,就是强角点,只不过这里用的转变思想很好啊
                                if( dx*dx + dy*dy < minDistance ){ 
    								good = false;  
                                    goto break_out;  
                                }  
                            }  
                        }  
                    }   // 列  
                }    //行  
      
                break_out:  
      
                if(good)  
                {  
                    // printf("%d: %d %d -> %d %d, %d, %d -- %d %d %d %d, %d %d, c=%d
    ",  
                    //    i,x, y, x_cell, y_cell, (int)minDistance, cell_size,x1,y1,x2,y2, grid_width,grid_height,c); 
    				
                    grid[y_cell*grid_width + x_cell].push_back(Point2f((float)x, (float)y));  
    				//再从grid中转变会原来图像中的坐标点
    				
                    corners.push_back(Point2f((float)x, (float)y));  
                    ++ncorners;  
      
                    if( maxCorners > 0 && (int)ncorners == maxCorners )  //由于前面已按降序排列,当ncorners超过maxCorners的时候跳出循环直接忽略tmpCorners中剩下的角点,反正剩下的角点越来越弱  
                    
    				break;  
                }  
            }  
        }  
        else    //除了像素本身,没有哪个邻域像素能与当前像素满足minDistance < 1,因此直接保存粗选的角点  
        {  
            for( i = 0; i < total; i++ )  
            {  
                int ofs = (int)((const uchar*)tmpCorners[i] - eig.data);  
                int y = (int)(ofs / eig.step);   //粗选的角点在原图像中的行  
                int x = (int)((ofs - y*eig.step)/sizeof(float));  //在图像中的列  
      
                corners.push_back(Point2f((float)x, (float)y));  
                ++ncorners;  
                if( maxCorners > 0 && (int)ncorners == maxCorners )    
                    break;  
            }  
        }  
      
        Mat(corners).convertTo(_corners, _corners.fixedType() ? _corners.type() : CV_32F);  
    
    }  
    
    
    
    /*
    使用Harris()函数找角点
    
    1、还是使用轮库图查找效果明显一点,只是为什么平滑区域,检测出来的值这么大
    2、首先使用normlize()函数,将float的矩阵归一化到0-255 float(),
    	convertScaleAbs在转化到CV8U,减少了之后的计算量
    3、根据赋值 = -数 的原理想  +=才是另一种 
    */
    
    
    #include "harris2.h"
    
    /*
    对输入的图像使用Harris检测,src
    之后对于设置的局部框进行抑制,thresh
    减少了连续角点的出现
    */ 
    void cornerHarris_demo( Mat& src,int size, int thresh)  
    {  
      Mat dst, dst_norm;  
      dst = Mat::zeros( src.size(), CV_32FC1 );  
      
      //harris函数的参数设置 
      int blockSize = 3;  
      int apertureSize = 3;  
      double k = 0.04;  
      
      /// Detecting corners  
      cornerHarris( src, dst, blockSize, apertureSize, k, BORDER_DEFAULT );  
      
      ///这一步仅仅是为了好让其能够转换成到CV8U  
      normalize( dst, dst_norm, 0, 255, NORM_MINMAX, CV_32FC1, Mat() );
    	//归一化函数,结果仍是float型    
    	convertScaleAbs(dst_norm,dst_norm,1,0); 
    	
    	imshow("dst_norm",dst_norm);
    	
    	
    	Mat show=Mat::zeros(src.size(),CV_8UC3);
    	vector<vector<Point> > contours;
    	vector<Vec4i> hierarchy;
    	findContours(src, contours, hierarchy, 0, CV_CHAIN_APPROX_NONE);	
    	drawContours(show, contours, -1, Scalar(255,255,255), 1, 8, hierarchy);
      
     
    //根据Harris函数计算得到的矩阵,进行阈值判断 
    //	for( int j = 0; j < dst_norm.rows ; j++ ){ 
    //		for( int i = 0; i < dst_norm.cols; i++ ){
    //            if( (int) dst_norm.at<float>(j,i) > thresh ){  
    //               circle( show, Point( i, j ), 1,  Scalar(0,0,255));  
    //            }  
    //        }  
    //	}
    
    
    	//另一个版本的阈值抑制 
    	//(20*20)的窗口 
    	//设定局部抑制时的窗口,也就是21的窗口有一个极大值点并且设定,变相的减少连续点 
    	//同时进行阈值抑制 
    	for( int i = size ; i < dst_norm.rows-size ; i+=size ){ 
    		for( int j = size ; j < dst_norm.cols-size ; j+=size ){
                int max=0;
                Point point;
                
    			for(int u = -size;u<size;u++){//根据赋值 = -数 的原理想  +=才是另一种 
                	for(int v =-size;v<size;v++){
                		
    					if(max < dst_norm.at<uchar>(i+u,j+v)){
                			max = dst_norm.at<uchar>(i+u,j+v);
                			point.y = i+u;
                			point.x = j+v;
                			
    					}	
    				}
    			}
    			if(max > thresh) circle( show, point, 1,  Scalar(0,0,255) );  
            }
    	}
    	
      //画出角点  
    	imshow( "result", show );  
    }  
    
    /*2017-3-17*/
    
    //加一个括号 初始化为零
    bufferGray2= new uchar[m_width*m_height]();
    
    /*2017-3-28*/
    /*CvTermCriteria  迭代算法的终止准则  */
    #define CV_TERMCRIT_ITER    1  
    #define CV_TERMCRIT_NUMBER  CV_TERMCRIT_ITER  
    #define CV_TERMCRIT_EPS     2  
      
    typedef struct CvTermCriteria  
     {  
      int    type;  /* CV_TERMCRIT_ITER 和CV_TERMCRIT_EPS二值之一,或者二者的组合 */  
      int    max_iter; /* 最大迭代次数 */  
      double epsilon; /* 结果的精确性 */  
     }
     
     //得尽快将opencv 的矩阵的使用方法熟悉
     	//1、指定随机数种子
    	RNG rng(100);
    	rng.fill
    	//2、从整个数据集中取出前[0,89]行
    	//注:*Range的范围是[a,b)
    	Mat trainClass = trainData.rowRange(0,nLinearSamples);
    	//取出第一列
    	Mat c = trainClass.colRange(0,1);
    	
    	
    	
    	
    //2017-4-6
    //使用canny算子,在查找轮廓,会造成轮廓数据混乱,每个轮廓会走两遍,并且有差别 
    Canny(srcImage,srcImage,100,250);
    	
        
        
    //2017-12-12
    积分直方图:http://blog.csdn.net/linear_luo/article/details/52725358
    梯度直方图:https://www.leiphone.com/news/201708/ZKsGd2JRKr766wEd.html
    

      

  • 相关阅读:
    记一个诡异的.net framework问题造成的系统问题(visual studio不能build或不能正常运行代码,所有基于.net framework的代码无法运行)
    Dependency Walker工具:定位DLL缺失位置
    (转)MVC4.0教程
    剑灵-控制技能图及武器升级图
    (转)哑铃健身图解大全
    Python-第三方库requests详解
    Mac更改PHP默认目录的方法
    MySQL语句之数据的增删改查
    mysql语句之DDL
    linux下查看某个文件位置的方法
  • 原文地址:https://www.cnblogs.com/kanuore/p/8059054.html
Copyright © 2011-2022 走看看