zoukankan      html  css  js  c++  java
  • 人工智能 kmeans和som的简单比较——线性可分的数据还可以,但都不擅长处理圆分割数据,因为用的欧几里得距离?

    人工智能 kmeans和som的简单比较

    cokecoffe · 2020年02月13日 · 2 次阅读

    聚类分析是一种常用的分析方法,其中最为常用的 KMeans。最近也看到一个 KMeans 的改进方法,是加入 som 竞争神经网络进行训练。

    竞争神经网络是一个仿照人脑神经元的启发而发明的,在这个神经网络中,神经元竞争被激活的机会。当接受到刺激的时候,神经网络中的一部分神经元会兴奋,而其他的则不会。此类神经元会对某类特征特别敏感。 整个神经元中,不同的神经元对不同的特征敏感。兴奋的神经元会对周围的神经元起抑制作用。

    此次比较使用了三组数据,分别是经典的 iris 数据集,和随机生成的两个圆。iris 数据集可以近似看做线性可分,两个圆的就是线性不可分的情况。

    1
    2
    3
    4
    5
    6
    7
    from sklearn.datasets import load_iris
    from sklearn.cluster import KMeans
    from sklearn.metrics import classification_report
    iris = load_iris()
    labels = KMeans(n_clusters=3).fit_predict(iris.data)
    print(classification_report(iris.target,labels))
    plt.scatter(iris_reduce[:,0],iris_reduce[:,1],c=labels)
    image
    image

    f1 得分为 0.89

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    def som(k,x,y,data):
    # k 为簇数,x,y为神经网络的形状
    som = MiniSom(x,y,data.shape[1],sigma=1,learning_rate=0.5)
    som.random_weights_init(np.array(data))
    som.train_random(np.array(data),2000)

    w = som.get_weights()
    weight = pd.DataFrame(w.reshape(x*y,data.shape[1]))
    KM =KMeans(n_clusters=k,n_jobs=-1)
    model = KM.fit(weight)
    weight['label'] = model.labels_
    rs = np.array(weight['label']).reshape((x,y))

    def get_winner(v):
    l = som.winner(np.array(v))
    return rs[l]

    return pd.DataFrame(data).apply(get_winner,axis=1)

    labels2 = som(3,20,20,iris.data)
    image
    image

    f1 得分为 0.95

    可以看出 som 这种方法可以获得比 kmeans 稍好的结果。

    下面看看线性不可分的情况,使用 sklearn 里面的 make_circle 来生成数据

    1
    2
    3
    from sklearn.datasets import make_circles
    x, label = make_circles(n_samples=400, factor=.3, noise=.05)
    plt.scatter(x[:,0],x[:,1],c=label)
    image
    image

    下面分别是 kmeans 和 som 的结果:

    image
    image
    image
    image

    可以看出两个聚类器都不能识别这类情况,所以我感觉 som 只能对线性可分的情况进行处理,而且总体上和 kmeans 差不多,也没有特别不一样。

    在处理线性不可分的这个情况,又试了一下 DBSCAN 和 KernelPCA。

    DBSCAN 是一种基于密度的聚类方法,可以发现一些不规则的簇。但是它使用的范围其实很有限,如果分类的点的密度不均衡,则会出现问题,另外对于 较高维度的数据,同样不是很适合。

    PCA 主成分分析是进行降维的,而 KPCA 则恰恰相反,通过核函数,进行升维,将原来线性不可分的问题转换为线性可分的。

    1
    2
    3
    4
    5
    from sklearn.cluster import DBSCAN
    model= DBSCAN(eps=.1,min_samples=10)
    label_dbscan = model.fit_predict(x)
    plt.scatter(x[:,0],x[:,1],c=label_dbscan)
    print(classification_report(label,label_dbscan))
    image
    image

    DBSCAN 比较麻烦,需要设置合适的参数才能发现正确的类

    1
    2
    3
    4
    5
    from sklearn.decomposition import KernelPCA
    model = KernelPCA(kernel="rbf", fit_inverse_transform=True, gamma=10)
    data_transform = model.fit_transform(x)
    label = KMeans(n_clusters=2).fit_predict(data_transform)
    plt.scatter(x[:,0],x[:,1],c=label)

    这里利用了 KPCA 进行升维然后使用 KMeans 进行聚类,效果拔群

    image
    image

    做了一段时间的聚类分析,主要用的参数是凝聚度,离散度和轮廓系数,但是这里有一个要注意的地方,其实很多这些指标都是基于簇是类圆形的, 对于像上面的那种线性不可分的情况其实不太适用。

    总的来说,其实对于高维数据的聚类其实是相当的麻烦的,特别是做无监督的聚类,其评价方法不是很有效。

  • 相关阅读:
    Mysql索引优化
    [ExtJS5学习笔记]第六节 Extjs的类系统Class System命名规则及定义和调试
    [ExtJS5学习笔记]第五节 使用fontawesome给你的extjs5应用增加字体图标
    【翻译】Ext JS 5.0.1 中的新功能
    OpenCV——PS图层混合算法(六)
    [IDE工具配置]myeclipse 2014 专业版 安装 svn插件
    OpenCV——PS 图层混合算法 (四)
    [ExtJS5学习笔记]第四节 欢迎来到extjs5-手把手教你实现你的第一个应用
    [ExtJS5学习笔记]第三节 sencha cmd学习笔记 生成应用程序构建的内部细节
    [ExtJS5学习笔记]第二节 Sencha Cmd 学习笔记 使你的sencha cmd跑起来
  • 原文地址:https://www.cnblogs.com/bonelee/p/15107908.html
Copyright © 2011-2022 走看看