zoukankan      html  css  js  c++  java
  • KNN算法的R语言实现

    近邻分类

    简言之,就是将未标记的案例归类为与它们最近相似的、带有标记的案例所在的类。
    
    应用领域:
        1.计算机视觉:包含字符和面部识别等
        2.推荐系统:推荐受众喜欢电影、美食和娱乐等
        3.基因工程:识别基因数据的模式,用于发现特定的蛋白质或疾病等
    

    K最近邻(kNN,k-NearestNeighbor)算法

    K最近邻分类算法是数据挖掘分类技术中最简单的方法之一。所谓K最近邻。
    kNN算法的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别(类似投票),并具有这个类别上样本的特性。
    该方法在确定分类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。
    kNN方法在类别决策时,只与极少量的相邻样本有关。
    由于kNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,kNN方法较其他方法更为适合。
    

    R的实现

    具体的算法原理本文就不赘述了,下面进行一个R中knn算法的小实验。数据使用UCI的[乳腺癌特征数据集](http://archive.ics.uci.edu/ml/machine-learning-databases/breast-cancer-wisconsin/wdbc.data)
    

    数据准备

    dir <- 'http://archive.ics.uci.edu/ml/machine-learning-databases/breast-cancer-wisconsin/wdbc.data'
    wdbc.data <- read.csv(dir,header = F)
    names(wdbc.data) <- c('ID','Diagnosis','radius_mean','texture_mean','perimeter_mean','area_mean','smoothness_mean','compactness_mean','concavity_mean','concave points_mean',
    		      'symmetry_mean','fractal dimension_mean','radius_sd','texture_sd','perimeter_sd','area_sd','smoothness_sd','compactness_sd','concavity_sd','concave points_sd',
    		      'symmetry_sd','fractal dimension_sd','radius_max_mean','texture_max_mean','perimeter_max_mean','area_max_mean','smoothness_max_mean',
    		      'compactness_max_mean','concavity_max_mean','concave points_max_mean','symmetry_max_mean','fractal dimension_max_mean')
    table(wdbc.data$Diagnosis) ## M = malignant, B = benign
    # 将目标属性编码因子类型
    wdbc.data$Diagnosis <- factor(wdbc.data$Diagnosis,levels =c('B','M'),labels = c(B = 'benign',M = 'malignant'))
    wdbc.data$Diagnosis
    table(wdbc.data$Diagnosis)
    prop.table(table(wdbc.data$Diagnosis))*100 ## prop.table():计算table各列的占比
    round(prop.table(table(wdbc.data$Diagnosis))*100,digit =2) ## 保留小数点后两位,round():digit =2
    str(wdbc.data)
    

    数值型数据标准化

    # min-max标准化:(x-min)/(max-min)
    normalize <- function(x) { return ((x-min(x))/(max(x)-min(x))) }
    normalize(c(1, 3, 5)) ## 测试函数有效性
    wdbc.data.min_max <- as.data.frame(lapply(wdbc.data[3:length(wdbc.data)],normalize))
    wdbc.data.min_max$Diagnosis <- wdbc.data$Diagnosis
    str(wdbc.data.min_max)
    

    划分train&test

    # train
    set.seed(3) ## 设立随机种子
    train_id <- sample(1:length(wdbc.data.min_max$area_max_mean), length(wdbc.data.min_max$area_max_mean)*0.7)
    train <- wdbc.data.min_max[train_id,] # 70%训练集
    summary(train)
    train_labels <- train$Diagnosis
    train <- wdbc.data.min_max[train_id, - length(wdbc.data.min_max)]
    summary(train)
    # test
    test <- wdbc.data.min_max[-train_id,]
    test_labels <- test$Diagnosis
    test <- wdbc.data.min_max[-train_id,-length(wdbc.data.min_max)]
    summary(test)
    

    knn分类(欧氏距离)

    library(class)
    test_pre_labels <- knn(train,test,train_labels,k=7) ## 数据框,K个近邻投票,欧氏距离
    

    性能评估

    library(gmodels)
    CrossTable(x = test_labels, y = test_pre_labels, prop.chisq = F)
    
    
  • 相关阅读:
    用ildasm和ilasm对.net下的exe程序进行破解初探
    随笔--各种概念等等
    C#高级编程学习一-----------------第五章泛型
    visual studio相关操作
    webservice开发
    delphi各种错
    android开发文章收藏
    android开发遇到的问题
    android应用开发基础知道
    数据库各种问题
  • 原文地址:https://www.cnblogs.com/YukBrandes/p/5539723.html
Copyright © 2011-2022 走看看