zoukankan      html  css  js  c++  java
  • KNN分类算法及python代码实现

    KNN分类算法(先验数据中就有类别之分,未知的数据会被归类为之前类别中的某一类!

    1、KNN介绍

    K最近邻(k-Nearest NeighborKNN分类算法是最简单的机器学习算法。

    机器学习,算法本身不是最难的,最难的是:

    1、数学建模:把业务中的特性抽象成向量的过程;

    2、选取适合模型的数据样本。

    这两个事都不是简单的事。算法反而是比较简单的事。

    本质上,KNN算法就是用距离来衡量样本之间的相似度。

    2、算法图示

    ◊ 从训练集中找到和新数据最接近的k条记录,然后根据多数类来决定新数据类别。

    ◊算法涉及3个主要因素:

    1) 训练数据集

    2) 距离或相似度的计算衡量

    3) k的大小

     

    ◊算法描述

    1) 已知两类“先验”数据,分别是蓝方块和红三角,他们分布在一个二维空间中

    2) 有一个未知类别的数据(绿点),需要判断它是属于“蓝方块”还是“红三角”类

    3) 考察离绿点最近的3个(或k)数据点的类别,占多数的类别即为绿点判定类别

    3、算法要点

    3.1、计算步骤

     1算距离:给定测试对象,计算它与训练集中的每个对象的距离

     2找邻居:圈定距离最近的k个训练对象,作为测试对象的近邻

     3做分类:根据这k个近邻归属的主要类别,来对测试对象分类

    3.2、相似度的度量

    ◊距离越近应该意味着这两个点属于一个分类的可能性越大。

    但,距离不能代表一切,有些数据的相似度衡量并不适合用距离

    ◊相似度衡量方法:包括欧式距离夹角余弦等。

    (简单应用中,一般使用欧氏距离,但对于文本分类来说,使用余弦(cosine)来计算相似度就比欧式(Euclidean)距离更合适

    3.3、类别的判定

    简单投票法:少数服从多数,近邻中哪个类别的点最多就分为该类。

    加权投票法:根据距离的远近,对近邻的投票进行加权,距离越近则权重越大(权重为距离平方的倒数)

    3.4、算法不足

    • 样本不平衡容易导致结果错误

    ◊如一个类的样本容量很大,而其他类样本容量很小时,有可能导致当输入一个新样本时,该样本的K个邻居中大容量类的样本占多数。

    ◊改善方法:对此可以采用权值的方法(和该样本距离小的邻居权值大)来改进。

    • 计算量较大

    ◊因为对每一个待分类的文本都要计算它到全体已知样本的距离,才能求得它的K个最近邻点。

    ◊改善方法:事先对已知样本点进行剪辑,事先去除对分类作用不大的样本。

    该方法比较适用于样本容量比较大的类域的分类,而那些样本容量较小的类域采用这种算法比较容易产生误分。

    4、KNN分类算法python实现(python2.7)

    需求:

    有以下先验数据,使用knn算法对未知类别数据分类

    属性1

    属性2

    类别

    1.0

    0.9

    A

    1.0

    1.0

    A

    0.1

    0.2

    B

    0.0

    0.1

    B

    未知类别数据

    属性1

    属性2

    类别

    1.2

    1.0

    ?

    0.1

    0.3

    ?

    python实现:

    KNN.py脚本文件

     1 #!/usr/bin/python
     2 # coding=utf-8
     3 #########################################
     4 # kNN: k Nearest Neighbors
     5 
     6 #  输入:      newInput:  (1xN)的待分类向量
     7 #             dataSet:   (NxM)的训练数据集
     8 #             labels:     训练数据集的类别标签向量
     9 #             k:         近邻数
    10 
    11 # 输出:     可能性最大的分类标签
    12 #########################################
    13 
    14 from numpy import *
    15 import operator
    16 
    17 # 创建一个数据集,包含2个类别共4个样本
    18 def createDataSet():
    19     # 生成一个矩阵,每行表示一个样本
    20     group = array([[1.0, 0.9], [1.0, 1.0], [0.1, 0.2], [0.0, 0.1]])
    21     # 4个样本分别所属的类别
    22     labels = ['A', 'A', 'B', 'B']
    23     return group, labels
    24 
    25 # KNN分类算法函数定义
    26 def kNNClassify(newInput, dataSet, labels, k):
    27     numSamples = dataSet.shape[0]   # shape[0]表示行数
    28 
    29     # # step 1: 计算距离[
    30     # 假如:
    31     # Newinput:[1,0,2]
    32     # Dataset:
    33     # [1,0,1]
    34     # [2,1,3]
    35     # [1,0,2]
    36     # 计算过程即为:
    37     # 1、求差
    38     # [1,0,1]       [1,0,2]
    39     # [2,1,3]   --   [1,0,2]
    40     # [1,0,2]       [1,0,2]
    41     # =
    42     # [0,0,-1]
    43     # [1,1,1]
    44     # [0,0,-1]
    45     # 2、对差值平方
    46     # [0,0,1]
    47     # [1,1,1]
    48     # [0,0,1]
    49     # 3、将平方后的差值累加
    50     # [1]
    51     # [3]
    52     # [1]
    53     # 4、将上一步骤的值求开方,即得距离
    54     # [1]
    55     # [1.73]
    56     # [1]
    57     #
    58     # ]
    59     # tile(A, reps): 构造一个矩阵,通过A重复reps次得到
    60     # the following copy numSamples rows for dataSet
    61     diff = tile(newInput, (numSamples, 1)) - dataSet  # 按元素求差值
    62     squaredDiff = diff ** 2  # 将差值平方
    63     squaredDist = sum(squaredDiff, axis = 1)   # 按行累加
    64     distance = squaredDist ** 0.5  # 将差值平方和求开方,即得距离
    65 
    66     # # step 2: 对距离排序
    67     # argsort() 返回排序后的索引值
    68     sortedDistIndices = argsort(distance)
    69     classCount = {} # define a dictionary (can be append element)
    70     for i in xrange(k):
    71         # # step 3: 选择k个最近邻
    72         voteLabel = labels[sortedDistIndices[i]]
    73 
    74         # # step 4: 计算k个最近邻中各类别出现的次数
    75         # when the key voteLabel is not in dictionary classCount, get()
    76         # will return 0
    77         classCount[voteLabel] = classCount.get(voteLabel, 0) + 1
    78 
    79     # # step 5: 返回出现次数最多的类别标签
    80     maxCount = 0
    81     for key, value in classCount.items():
    82         if value > maxCount:
    83             maxCount = value
    84             maxIndex = key
    85 
    86     return maxIndex

    KNNTest.py测试文件

     1 #!/usr/bin/python
     2 # coding=utf-8
     3 import KNN
     4 from numpy import *
     5 # 生成数据集和类别标签
     6 dataSet, labels = KNN.createDataSet()
     7 # 定义一个未知类别的数据
     8 testX = array([1.2, 1.0])
     9 k = 3
    10 # 调用分类函数对未知数据分类
    11 outputLabel = KNN.kNNClassify(testX, dataSet, labels, 3)
    12 print "Your input is:", testX, "and classified to class: ", outputLabel
    13 
    14 testX = array([0.1, 0.3])
    15 outputLabel = KNN.kNNClassify(testX, dataSet, labels, 3)
    16 print "Your input is:", testX, "and classified to class: ", outputLabel

    运行结果:

  • 相关阅读:
    Java 第十一届 蓝桥杯 省模拟赛 洁净数
    Java 第十一届 蓝桥杯 省模拟赛 第十层的二叉树
    Java 第十一届 蓝桥杯 省模拟赛 第十层的二叉树
    Java 第十一届 蓝桥杯 省模拟赛 第十层的二叉树
    Java 第十一届 蓝桥杯 省模拟赛 70044与113148的最大公约数
    Java 第十一届 蓝桥杯 省模拟赛 70044与113148的最大公约数
    20. Valid Parentheses
    290. Word Pattern
    205. Isomorphic Strings
    71. Simplify Path
  • 原文地址:https://www.cnblogs.com/ahu-lichang/p/7151007.html
Copyright © 2011-2022 走看看