zoukankan      html  css  js  c++  java
  • ROC 准确率,召回率 F-measure理解(转载)

     
    原文连接:http://www.cnblogs.com/haoguoeveryone/p/haoguo_5.html
     

    本文首先从整体上介绍ROC曲线、AUC、Precision、Recall以及F-measure,然后介绍上述这些评价指标的有趣特性,最后给出ROC曲线的一个Python实现示例。

    一、ROC曲线、AUC、Precision、Recall以及F-measure

    二分类问题的预测结果可能正确,也可能不正确。结果正确存在两种可能:原本对的预测为对(True Positive 真正),原本错的预测为错(True Negative 真负);结果错误也存在两种可能:原本是错类预测为正类数(False Positive 假正 误报),原本是正类预测为错类数(False Negative 假负 漏报),如Fig 1左侧所示。其中Y代表预测为正类,N代表预测错类,p代表原本为对,n代表原本为错。如何评价两个二分类模型的好坏呢?二分类模型的理想状态是什么呢?

    首先回答第二个问题,理想的二分类模型能将原本是对的预测为对,原本是错的预测为错。一般情况下,我们很难收集到完备的“原本是对的,原本是错的”数据集,也就是说,通常情况下我们获得是完备的“原本是对的,原本是错的”数据集的一个子集。因此,评价二分类模型的优劣就是在该子集上进行的。我们希望在该子集上对二分类模型的评价是无偏的,也就是说,在概率上保证在该子集上对二分类模型的评价与在完备集上的评价一致。

    针对第一个问题,其实很简单,数数就行了。数数原本是对的预测为对的个数,原本是错的预测为错的个数,原本是对的预测为错的比例,原本是错的预测为对的比例(评价二分类问题的四个基本元素,后续评价指标都是在此基础上做出的)。评价一个模型的好坏用四个参数是不是有点不太直观哦,要是只有一个评价指标,如果一个模型的这指标比别的模型大,那这个模型就比别的模型好(或者反过来,一个模型的这指标比别的模型小,那这个模型比别的模型好),该多好哦!哈哈!

    precision的含义是:预测为对的当中,原本为对的比例(越大越好,1为理想状态)

    recall的含义是:原本为对的当中,预测为对的比例(越大越好,1为理想状态)

    F-measure的含义是:用precision和recall两个指标不直观(任性),索性把他们合并为一个,这就是F-measure(越大越好,1为理想状态,此时precision为1,recall为1)

    accuracy的含义是:预测对的(包括原本是对预测为对,原本是错的预测为错两种情形)占整个的比例(越大越好,1为理想状态)

    fp rate的含义是:原本是错的预测为对的比例(越小越好,0为理想状态)

    tp rate的含义是:原本是对的预测为对的比例(越大越好,1为理想状态)

    ROC曲线的含义是:得到算法的一组(fp rate, tp rate)然后做出的曲线(没办法用大小来衡量,不开心,因此有了AUC),如Fig 2所示

    AUC的含义:ROC曲线下的面积(越大越好,1为理想状态)

    Fig 2 ROC曲线示意图

    二、上述评价评价指标的有趣特性

    1) 实际中应用测试数据集可能存在以下三种情况之一:原本是对的与原本是错的比例一致,原本是对的所占比例较小,原本是对的所占比例较大。在上述三种情况下,由于(fp         rate, tp rate)基本保持不变,因此ROC曲线、AUC在一定程度上具备对数据集正负样本比例的不变性。

    2) 如果单纯蒙的话会是什么结果呢(假设原本是对的预测为对的比例,原本是错的预测为错的比例,原本是对的预测为错的比例,原本是错的预测为对的比例都为0.5,其实也就        是蒙的直接结果了)?此时,precision、recall以及综合两者的F-measure值不能作为判断模型好坏的标准(因为原本是错的数量不确定,考虑原本是对的数据只有1,原本是      错的数据有10000这种极端情况根据他们的定义即可得知precision近似为0,正负样本比例一致则precision约为0.5),也就是说上述三个指标受数据集正负样本比例影响。

    3) (fp rate, tp rate)是如何获得呢?对于一个数据集应该只有一组(fp rate, tp rate)吧!这里面涉及到一个问题,就是二分类模型的输出通常是输入为对的概率,如果我      们认为概率大于T的为对,那么如果T不同则(fp rate, tp rate)不同,因此我们获得了一组(fp rate, tp rate)。

    三、ROC曲线的Python实现实例

    读者可根据http://scikit-learn.org/stable/install.html提示方法安装scikit-learn

    复制代码
    import numpy as np
    from sklearn.metrics import roc_curve
    
    y = np.array([1,1,2,2])
    pred = np.array([0.1,0.4,0.35,0.8])
    fpr, tpr, thresholds = roc_curve(y, pred, pos_label=2)
    print(fpr)
    print(tpr)
    print(thresholds)
    
    from sklearn.metrics import auc
    print(auc(fpr, tpr))
    复制代码

    上述代码可以得到ROC曲线数据对(fp rate,tp rate)(因为thresholds取不同值的缘故),AUC

    总结:由二分类问题的四个基本元素出发,得出ROC曲线、AUC、Precision、Recall以及F-measure的定义及特性,最后给出Python的一个简单实现。

  • 相关阅读:
    安装Spring Tool Suite(STS)
    ES6,新增数据结构Set的用法
    在vue-cli生成的项目中使用karma+chrome进行单元测试
    利用babel-cli搭建支持ES6的node环境
    利用es-checker检测当前node对ES6的支持情况
    javascript精度问题与调整
    sessionStorage 、localStorage、cookie
    在vue-cli搭建的项目中在后台mock接口中支持req.body和req.cookies
    wireshark抓取本地数据包
    【linux基础】How to write CMakeLists.txt file?
  • 原文地址:https://www.cnblogs.com/hansjorn/p/7268962.html
Copyright © 2011-2022 走看看