zoukankan      html  css  js  c++  java
  • 转:聚类评价指标

     

    https://www.jianshu.com/p/b5996bf06bd6

     

    15.评价指标

    96 
    袁一帆 
    2016.03.05 09:26* 字数 1956 阅读 4065评论 2

    1. 分类问题评价指标

    1-1. 精确率与召回率

    精确率(Precision)指的是模型判为正的所有样本中有多少是真正的正样本;召回率(Recall)指的是所有正样本有多少被模型判为正样本,即召回。感觉精确率是个局部的,召回率是个全局的。

     
    精确率与召回率

    1-2. ROC

    真正类率(true positive rate ,TPR),刻画的是分类器所识别出的 正实例占所有正实例的比例(正样本预测结果数 / 正样本实际数)。负正类率(false positive rate, FPR),计算的是分类器错认为正类的负实例占所有负实例的比例(被预测为正的负样本结果数 /负样本实际数)。

    ( TPR=0,FPR=0 ) 把每个实例都预测为负类的模型
    ( TPR=1,FPR=1 ) 把每个实例都预测为正类的模型
    ( TPR=1,FPR=0 ) 理想模型

     
    ROC曲线

    ROC曲线下方的面积(Area Under the ROC Curve, AUC)提供了评价模型平均性能的另一种方法。如果模型是完美的,那么它的AUC = 1,如果模型是个简单的随机猜测模型,那么它的AUC = 0.5,如果一个模型好于另一个,则它的曲线下方面积相对较大。

    首先AUC值是一个概率值,当你随机挑选一个正样本以及一个负样本,当前的分类算法根据计算得到的Score值将这个正样本排在负样本前面的概率就是AUC值。当然,AUC值越大,当前的分类算法越有可能将正样本排在负样本前面,即能够更好的分类。

    1-3. 对数损失

    对数损失(Log loss)亦被称为逻辑回归损失(Logistic regression loss)

     
    对数损失通用式
     
    二分类对数损失

    1-4. 铰链损失

    铰链损失(Hinge loss)一般用来使“边缘最大化”(maximal margin)。
    铰链损失最开始出现在二分类问题中,假设正样本被标记为1,负样本被标记为-1,y是真实值,w是预测值,则铰链损失定义为:

     
    铰链损失

    1-5. 混淆矩阵

    又被称为错误矩阵,通过它可以直观地观察到算法的效果。它的每一列是样本的预测分类,每一行是样本的真实分类(反过来也可以),顾名思义,它反映了分类结果的混淆程度。混淆矩阵i行j列的原始是原本是类别i却被分为类别j的样本个数,计算完之后还可以对之进行可视化:

     
    混淆矩阵

    1-6. kappa系数

    kappa系数用来衡量两种标注结果的吻合程度,标注指的是把N个样本标注为C个互斥类别。计算公式为

     
    kappa系数

    两种标注结果完全相符时,K=1,越不相符其值越小,甚至是负的

    1-7. 海明距离

    • 在信息领域,两个长度相等的字符串的海明距离是在相同位置上不同的字符的个数,也就是将一个字符串替换成另一个字符串需要的替换的次数。

    • 机器学习方面,当预测结果与实际情况完全相符时,距离为0;当预测结果与实际情况完全不符时,距离为1;当预测结果是实际情况的真子集或真超集时,距离介于0到1之间。我们可以通过对所有样本的预测情况求平均得到算法在测试集上的总体表现情况

    1-8. Jaccard系数

    可将 Jaccard相似系数用在衡量样本的相似度上。


     
    Jaccard相似系数

    这里p+q+r可理解为A与B的并集的元素个数,而p是A与B的交集的元素个数。

    2. 拟合问题评价指标

    2-1. 平均绝对误差

    平均绝对误差MAE(Mean Absolute Error)又被称为l1范数损失(l1-norm loss):

     
    平均绝对误差MAE

    2-2. 平均平方误差

    平均平方误差MSE(Mean Squared Error)又被称为l2范数损失(l2-norm loss):

     
    平均平方误差MSE

    2-3. 解释变异

    解释变异( Explained variance)是根据误差的方差计算得到的:

     
    解释变异( Explained variance)

    当需要比较两组数据离散程度大小的时候,如果两组数据的测量尺度相差太大,或者数据量纲的不同,直接使用标准差来进行比较不合适,此时就应当消除测量尺度和量纲的影响,而变异系数可以做到这一点,他是原始数据标准差与原始数据平均数的比。

    事实上,可以认为变异系数和极差、标准差和方差一样,都是反映数据离散程度的绝对值。一般来说,变量值平均水平高,其离散程度的测度值越大,反之越小。

    2-4. 决定系数

    决定系数(Coefficient of determination)又被称为R2分数:

     
    决定系数(Coefficient of determination)

    当R2越接近1时,表示相关的方程式参考价值越高;相反,越接近0时,表示参考价值越低。这是在一元回归分析中的情况。但从本质上说决定系数和回归系数没有关系,就像标准差和标准误差在本质上没有关系一样。

    3. 聚类的评价指标

    3-1. 兰德指数

    兰德指数(Rand index)需要给定实际类别信息C,假设K是聚类结果,a表示在C与K中都是同类别的元素对数,b表示在C与K中都是不同类别的元素对数,则兰德指数为:

     
    兰德指数(Rand index)

    RI取值范围为[0,1],值越大意味着聚类结果与真实情况越吻合。

    • 为了实现“在聚类结果随机产生的情况下,指标应该接近零”,调整兰德系数(Adjusted rand index)被提出,它具有更高的区分度:
     
    ARI(Adjusted rand index)

    ARI取值范围为[−1,1],值越大意味着聚类结果与真实情况越吻合。从广义的角度来讲,ARI衡量的是两个数据分布的吻合程度。

    3-2. 互信息

    • 互信息(Mutual Information)是用来衡量两个数据分布的吻合程度。也是一有用的信息度量,它是指两个事件集合之间的相关性。
    • 用互信息的方法,在某个类别C中的出现概率高,而在其它类别中的出现概率低的词条T,将获得较高的词条和类别互信息,也就可能被选取为类别C的特征。
    • 互信息是term的存在与否能给类别c的正确判断带来的信息量。
    • 词条和类别的互信息体现了词条和类别的相关程度,互信息越大,词条和类别的相关程度也越大。得到词条和类别之间的相关程度后,选取一定比例的,排名靠前的词条作为最能代表此种类别的特征。
     
    互信息(Mutual Information)

    3-3. 轮廓系数

    轮廓系数(Silhouette coefficient)适用于实际类别信息未知的情况。对于单个样本,设a是与它同类别中其他样本的平均距离,b是与它距离最近不同类别中样本的平均距离,轮廓系数为:

     
    轮廓系数(Silhouette coefficient)

    对于一个样本集合,它的轮廓系数是所有样本轮廓系数的平均值。
    轮廓系数取值范围是[−1,1],同类别样本越距离相近且不同类别样本距离越远,分数越高。

    小礼物走一走,来简书关注我

  • 相关阅读:
    winfrom让窗体在屏幕右下角慢慢向上弹出
    winfrom的StatusStrip控件如何设置控件右对齐
    Winfrom通过Panel拖动无边框窗体
    优秀学习资源汇总
    hexo+github搭建博客跳坑
    博客园主题样式修改
    wxss无法调用本地资源图片
    微信小程序wx:for循环
    Git常用命令总结
    git push解决办法: ! [remote rejected] master -> master (pre-receive hook declined)
  • 原文地址:https://www.cnblogs.com/ruogu2019/p/10309325.html
Copyright © 2011-2022 走看看