zoukankan      html  css  js  c++  java
  • 数据挖掘学习05 使用R对文本进行hierarchical cluster并验证结果

    本文目的

    最近一直在使用R进行hcluster计算,主要采用了一些R自带的距离公式和cophenetic距离验证聚类的质量。其中R自带的hclust方法不支持cosine函数,如果需要下载R的扩展,要下载许多关联的库,所以自己编写了一个简单的cosine函数,并且使用了R的proxy扩展(距离计算框架),计算向量距离。内容涉及比较多,所以记录一下,作为备忘。


    采用R计算hclust

    步骤一:准备数据。采用read.table函数,读取外部文件,实验文件这里下载

    cd = read.table("d:/cluster_data.txt", header = TRUE);
    attributes(cd);

    截图如下:

    Image

    cd是一个特征举证,每一行是文档的id和此文档的特征向量,代表一个文本,列代表的是词语,这里用wN代替。

    步骤二:计算文本之间的距离矩阵。距离矩阵用作度量聚类之间的相近程度。常用的距离公式有欧式距离,manhattan距离。计算方法如下:

    cds = dist(cd, method="euclidean")
    attributes(cds)

    截图如下:

    image

    步骤三:计算层级聚类。常用的聚类方式有三种,single,complete和average。

    • single: 两个聚类之间最近的点作为聚类的距离
    • complete:两个聚类之间最远的点作为聚类的距离
    • average:将聚类中的所有向量之和的平局向量作为聚类中心点,中心点最近的聚合成一类。

    averge聚类的效果介于single和complte之间,如下面命令,

    cave = hclust(cds, method="average")
    plot(cave,hang=-1)

    下面聚类后的依赖树:

    image

    步骤四:验证聚类。层级聚类采用cophenetic distance用于度量聚类的效果(具体什么是cophenetic disctance可以参见Introduction to Data Mining by Pang-Ning Tan & Michael Steinbach & Vipin Kumar: Chapter 8.5.4)。R提供了此函数的实现,所以可以直接调用cophenetic函数验证结果,此函数值是介于-1~1之间,越大,说明聚类效果越好。命令如下,

    cop = cophenetic(cave)
    cor(cop, cds)

    结果如下:

    image


    采用余弦定理cosine计算文本之间的距离

    余弦定理可以计算文本向量的相似度,吴军先生的数学之美系列描述过此应用。但是,上面提到的dist方法不知此余弦公式。尝试过使用其他扩展中的相关实现,但是无法直接使用。最后找到一个解决方案,使用R扩展库proxy提供的dist计算框架,然后加入加入自己的cosine的简单实现,如果添加R扩展,可以参见这里。自定义cosine函数如下:

    cosine = function(a,b) { 
         len = (sqrt(a %*% a)*sqrt(b %*% b)); 
         if (len == 0) { 
              0; 
         } else { 
              (a %*% b)/len; 
         } 
    }

    (是不是写法有点像JS)

    定义好cosine后,加载proxy库,

    library(proxy)

    image

    计算距离方法与上面一样,只是method的值为cosine,如下

    cds = dist(t,method="cosine")

    注意,一定要加引号,否则调用的是sine。计算聚类的方式与上面一样,这里不再重复。


    所有距离方法和聚类方法的测试脚本

    disFunc = c("euclidean", "maximum", "manhattan" , "canberra", "binary", "minkowski"); 
    #disFunc = c("euclidean", "cosine"); 
    cluFunc = c("complete",     "single", "average", "ward", "mcquitty", "median", "centroid"); 
    qc = read.table("d:/cluster_data.txt", header = TRUE); 
    for (dis in disFunc) { 
         for (clu in cluFunc) { 
              qcDis = dist(qc, method=dis); 
              c = hclust(qcDis, method=clu); 
              cop = cophenetic(c); 
              r = cor(cop,qcDis); 
              print(paste(dis, clu, r, sep=" ")); 
         } 
    }

    运行结果如下:

    image


    实验总结

    实验过程中,发现距离公司相同的情况下,average的评测结果一般是最好的。不同距离公式的同一种聚类方式没有比较意义,比如即使euclidean的average方式比manhattan的average的验证结果低,但是并不意味前者的聚类结果比后者差,因为聚类评测都是根据统一中方法的距离公司计算相关系数,所以没有比较性。



    相关资料

  • 相关阅读:
    P2319 [HNOI2006]超级英雄
    P4302 [SCOI2003]字符串折叠
    P1122 最大子树和
    HDU——2089 不要62
    P4555 最长双回文串
    P1463 [HAOI2007]反素数
    P2412 查单词
    P2787 语文1(chin1)- 理理思维
    P3078 [USACO13MAR]扑克牌型Poker Hands
    ubuntu中desktop与alternate版本的区别(转载)
  • 原文地址:https://www.cnblogs.com/bourneli/p/2746996.html
Copyright © 2011-2022 走看看