zoukankan      html  css  js  c++  java
  • OpenCV Machine Learning 之 K近期邻分类器的应用 K-Nearest Neighbors

    版权声明:本文为博主原创文章,未经博主同意不得转载。 https://blog.csdn.net/zhjm07054115/article/details/28441837
    OpenCV Machine Learning 之 K近期邻分类器的应用
    以下的程序实现了对高斯分布的点集合进行分类的K近期令分类器

    #include "ml.h"
    #include "highgui.h"
    
    int main( int argc, char** argv )
    {
        const int K = 10; //每一个输入向量的邻居个数
        int i, j, k, accuracy;
        float response;   //输出响应
        int train_sample_count = 100; //训练样本的数量
        CvRNG rng_state = cvRNG(-1);  //随机数发生器
        CvMat* trainData = cvCreateMat( train_sample_count, 2, CV_32FC1 ); //训练数据集,每一行有两个特征
        CvMat* trainClasses = cvCreateMat( train_sample_count, 1, CV_32FC1 );//训练样本的响应
        IplImage* img = cvCreateImage( cvSize( 500, 500 ), 8, 3 ); //绘制训练样本的图像
        float _sample[2];
        CvMat sample = cvMat( 1, 2, CV_32FC1, _sample ); //单个样本特征向量
        cvZero( img );
    
        CvMat trainData1, trainData2, trainClasses1, trainClasses2;
    
        // 形成训练样本集
        cvGetRows( trainData, &trainData1, 0, train_sample_count/2 );  //总样本中的前面一半样本
    	//第一类样本 :每一个特征的均值为200,标准差为50
        cvRandArr( &rng_state, &trainData1, CV_RAND_NORMAL, cvScalar(200,200), cvScalar(50,50) );
    
        cvGetRows( trainData, &trainData2, train_sample_count/2, train_sample_count );//总样本中的后面一半样本
    	//第二类样本 :每一个特征的均值为300。标准差为50
        cvRandArr( &rng_state, &trainData2, CV_RAND_NORMAL, cvScalar(300,300), cvScalar(50,50) );
    
    	//设置第一类样本的类别标签
        cvGetRows( trainClasses, &trainClasses1, 0, train_sample_count/2 );
        cvSet( &trainClasses1, cvScalar(1) );
    	//设置第二类样本的类别标签
        cvGetRows( trainClasses, &trainClasses2, train_sample_count/2, train_sample_count );
        cvSet( &trainClasses2, cvScalar(2) );
    
        // 训练分类器
        CvKNearest knn( trainData, trainClasses, 0, false, K ); //调用第二个构造函数
        CvMat* nearests = cvCreateMat( 1, K, CV_32FC1); //一个样本的k个邻居的响应
    
        for( i = 0; i < img->height; i++ )
        {
            for( j = 0; j < img->width; j++ )
            {
    			//构造一个測试样本,
                sample.data.fl[0] = (float)j;//第一维特征沿着列增长。横向分布
                sample.data.fl[1] = (float)i;//第二维特征沿着行增长,纵向分布
    
                // 预计測试样本的响应。并获取输入样本的K个邻居的类别标签 
                response = knn.find_nearest(&sample,K,0,0,nearests,0);
    
                //计算K个邻居中出现次数最多的那种类型的邻居的数目
                for( k = 0, accuracy = 0; k < K; k++ )
                {
                    if( nearests->data.fl[k] == response)
                        accuracy++;
                }
                // 基于置信度accuracy的大小标记img图像中的每一个像素位置的类别 
                cvSet2D( img, i, j, response == 1 ?
                    (accuracy > 5 ? CV_RGB(180,0,0) : CV_RGB(180,120,0)) :
                    (accuracy > 5 ? CV_RGB(0,180,0) : CV_RGB(120,120,0)) );
            }
        }
    
        // 在img上画出原始的训练样本
        for( i = 0; i < train_sample_count/2; i++ )
        {
            CvPoint pt;
            pt.x = cvRound(trainData1.data.fl[i*2]);
            pt.y = cvRound(trainData1.data.fl[i*2+1]);
            cvCircle( img, pt, 2, CV_RGB(255,0,0), CV_FILLED );
            pt.x = cvRound(trainData2.data.fl[i*2]);
            pt.y = cvRound(trainData2.data.fl[i*2+1]);
            cvCircle( img, pt, 2, CV_RGB(0,255,0), CV_FILLED );
        }
    	//显示分类结果
        cvNamedWindow( "classifier result", 1 );
        cvShowImage( "classifier result", img );
        cvWaitKey(0);
    
        cvReleaseMat( &trainClasses );
        cvReleaseMat( &trainData );
        return 0;
    }
    


    程序执行结果:



  • 相关阅读:
    vsftpd安装问题汇总(持续更新。。)
    Office2010安装问题总结
    AM335X 开发板安装vsftpd操作流程
    Source Insight常用快捷键及注释快捷键设置
    小四轴之第二次飞行篇
    linux命令df中df -h和df -i
    Linux tail 命令
    Linux chmod命令用法
    ps -ef |grep java
    jupyter notebook安装、登录
  • 原文地址:https://www.cnblogs.com/mqxnongmin/p/10633120.html
Copyright © 2011-2022 走看看