zoukankan      html  css  js  c++  java
  • K近邻python

    有一个带标签的数据集X,标签为y。我们想通过这个数据集预测目标点x0的所属类别。

    K近邻算法是指在X的特征空间中,把x0放进去,然后找到距离x0最近的K个点。通过这K个点所属类别,一般根据少数服从多数的原则,这K个点哪个类别多,就将x0设为哪一类。

    关键有三个部分:

    1.距离度量:目标点与训练集中的点距离计算,一般采用欧式距离。也可以为其他距离

    2.K值选择:K为超参数,所以可以通过交叉验证的方法原则K的值。K一般选比较小的值,假如K值取跟数据集一样大小,就相当于直接认定据集中哪个类的类别多,就认目标点为哪一类。所以肯定不合适。

    3.分类决策规则:一般为多数表决,少数服从多数。

    K近邻算法还有一个问题是,通过什么算法来选择 距离目标点x0最近的K个样本点。线性扫描最简单,计算数据集中每个样本点与X0的距离,然后对这些距离排序,选择最小的几个。但这样复杂度高。还有一种方法是构造kd树,这里不在说明如何构造k-d树,下面文章解释的很清楚。

    完结篇|一文搞懂k近邻(k-NN)算法(二) - 忆臻的文章 - 知乎 https://zhuanlan.zhihu.com/p/26029567

    代码中选择K个样本点是通过numpy的内置函数np.argpartition(a,kth)即返回前K小个树的位置坐标。

    数据集采用鸢尾花数据集,地址在下面,将鸢尾花数据集标签改为0,1,2。

    鸢尾花数据集

    K原则4,正确率一般在95%以上

    代码:

    import numpy as np
    from matplotlib import pyplot as plt
    from random import shuffle
    import csv
    def data():
        '''
        加载数据,数据集为鸢尾花数据集120个训练集,30个测试集
        :return:
        '''
        with open('iris.data')as f:
            reader = csv.reader(f)
            data_list =list(reader)
        shuffle(data_list)
        X_orign = np.array([(list(map(float,x[:4]))) for x in data_list])
        y_orign = []
        for x in data_list:
            if x[4]=='Iris-setosa':
                y_orign.append(0)
            elif x[4]=='Iris-versicolor':
                y_orign.append(1)
            else:
                y_orign.append(2)
        y_orign = np.array(y_orign)
        X_train = X_orign[:120]
        y_train = y_orign[:120]
        X_test = X_orign[120:]
        y_test = y_orign[120:]
        return X_train,y_train,X_test,y_test
    def plot_data(X,y):
        '''
        绘制数据集
        :param X:
        :param y:
        :return:
        '''
        plt.scatter(X[y==0,0],X[y==0,2],s=15,c='r',marker='o')
        plt.scatter(X[y==1,0],X[y==1,2],s=15,c='b',marker='+')
        plt.scatter(X[y==2,0],X[y==2,2],s=15,c='y',marker='*')
        plt.show()
    def knn(x,K,X,y):
        '''
        采用线性扫描,求得与目标点x在X中前K个最近的距离
        :param x:
        :param K:
        :param X:
        :param y:
        :return:
        '''
        y =  y[np.argpartition(np.sum((X-x)**2,axis=1),K)[:K]]#欧式距离,获得前K小个元素的索引位置
        return np.argmax([sum(y==0),sum(y==1),sum(y==2)])#返回所属类别,少数服从多数
    
    K = 5
    X_train,y_train,X_test,y_test = data()
    predict = np.array([knn(i,K,X_train,y_train) for i in X_test])#预测测试集每个元素所属的类别
    print('正确率为:{}%'.format(sum(predict==y_test)/len(y_test)*100))#计算正确率

     参考资料:李航,统计学习方法

  • 相关阅读:
    ASP.NET Core 中间件(Middleware)详解
    .NET Core 使用RSA算法 加密/解密/签名/验证签名
    【Other】希腊诸神大全-中英文名称
    【架构】分布式追踪系统设计与实现
    【架构】SpringCloud 注册中心、负载均衡、熔断器、调用监控、API网关示例
    【SpringCloud】Netflix源码解析之Ribbon:负载均衡策略的定义和实现
    【Docker】基于docker+etcd+confd + haproxy构建高可用、自发现的web服务
    【架构】Kubernetes和Spring Cloud哪个部署微服务更好?
    【Linux】Linux中 “there are stopped jobs”问题的解决方案
    【架构】分布式系统雪崩效应处理方案
  • 原文地址:https://www.cnblogs.com/lolybj/p/10511361.html
Copyright © 2011-2022 走看看