zoukankan      html  css  js  c++  java
  • KNN

    一、KNN分类算法

      K最近邻(K-Nearest Neighbor,KNN)算法,是著名的模式识别统计学方法,在机器学习分类算法中占有相当大的地位。它是一个理论上比较成熟的方法。既是最简单的机器学习算法之一,也是基于实例的学习方法中最基本的,又是最好的文本分类算法之一。

      通常,在分类任务中可使用“投票法”,即选择这k个实例中出现最多的标记类别作为预测结果;在回归任务中可使用“平均法”,即将这k个实例的实值输出标记的平均值作为预测结果;还可基于距离远近进行加权平均或加权投票,距离越近的实例权重越大。

    二、算法图示

    ◊ 从训练集中找到和新数据最接近的k条记录,然后根据多数类来决定新数据类别。

    ◊算法涉及3个主要因素:

    1) 训练数据集

    2) 距离或相似度的计算衡量

    3) k的大小

     

    ◊算法描述

    1) 已知两类“先验”数据,分别是蓝方块和红三角,他们分布在一个二维空间中

    2) 有一个未知类别的数据(绿点),需要判断它是属于“蓝方块”还是“红三角”类

    3) 考察离绿点最近的3个(或k个)数据点的类别,占多数的类别即为绿点判定类别

     

    三、KNN分类算法python实现(python2.7)

    需求:

    有以下先验数据,使用knn算法对未知类别数据分类

    属性1

    属性2

    类别

    1.0

    0.9

    A

    1.0

    1.0

    A

    0.1

    0.2

    B

    0.0

    0.1

    B

    未知类别数据

    属性1

    属性2

    类别

    1.2

    1.0

    ?

    0.1

    0.3

    ?

    KNN.py

    # coding=utf-8from numpy import *
    import operator
    
    def createDataSet():
        group = array([[1.0, 0.9], [1.0, 1.0], [0.1, 0.2], [0.0, 0.1]])
        labels = ['A', 'A', 'B', 'B']
        return group, labels
    
    def kNNClassify(newInput, dataSet, labels, k):
        numSamples = dataSet.shape[0]   
        diff = tile(newInput, (numSamples, 1)) - dataSet  
        squaredDiff = diff ** 2
        squaredDist = sum(squaredDiff, axis = 1)
        distance = squaredDist ** 0.5
        sortedDistIndices = argsort(distance)
        classCount = {} # define a dictionary (can be append element)
        for i in xrange(k):
            voteLabel = labels[sortedDistIndices[i]]
            classCount[voteLabel] = classCount.get(voteLabel, 0) + 1
        maxCount = 0
        for key, value in classCount.items():
            if value > maxCount:
                maxCount = value
                maxIndex = key
    
        return maxIndex

    KNNTest.py

    #!/usr/bin/python
    # coding=utf-8
    from KNN import KNN
    from numpy import *
    dataSet, labels = KNN.createDataSet()
    testX = array([1.2, 1.0])
    k = 3
    outputLabel = KNN.kNNClassify(testX, dataSet, labels, 3)
    print "Your input is:", testX, "and classified to class: ", outputLabel
    
    testX = array([0.1, 0.3])
    outputLabel = KNN.kNNClassify(testX, dataSet, labels, 3)
    print "Your input is:", testX, "and classified to class: ", outputLabel

    结果:

    Your input is: [1.2 1. ] and classified to class:  A
    Your input is: [0.1 0.3] and classified to class:  B

     

  • 相关阅读:
    win10 ObservableCollection 排序自动收缩问题
    在C#中GUID生成的四种格式
    MultiBinding的StringFormat参数问题
    asp.net mvc cookie超时返回登录页面问题
    string.Format的困惑
    c# web应用调试开启外部访问
    主码索引、聚集索引、非主码索引(辅助索引)、唯一索引、外键索引、复合索引、非主码索引、聚集主码(聚集索引)、单列索引、多列索引、普通索引等
    优化MD5和IP在(MySQL)数据库中的存储
    《Effective MySQL之SQL语句最优化》读书笔记——乱七八糟系列(给自己看)
    布隆过滤器(Bloom Filter)文章收集
  • 原文地址:https://www.cnblogs.com/UniqueColor/p/10996331.html
Copyright © 2011-2022 走看看