zoukankan      html  css  js  c++  java
  • 分类模型的评价及比较

           当我们得到数据模型后,该如何评价模型的优劣呢?之前看到过这样一句话 :“尽管这些模型都是错误的,但是有的模型是有用的”,想想这句话也是挺有道理的!评价和比较分类模型时,关注的是其泛化能力,因此不能仅关注模型在某个验证集上的表现。事实上,如果有足够多的样本作为验证集来测试模型的表现是再好不过的,但即使是这样也存在一个难点,比如难界定多大的样本才能足够表现出模型的泛化能力。因此,一般的做法是借助统计学的方法,评估模型在某个验证集分类表现的显著性。

          评价及比较分类模型的过程,涉及到三个问题,一个是如何获取验证集,另一个是用什么度量指标表示分类表现,最后一个则是如何评估分类表现的显著性。

    1.  验证集获取

            数据样本的数量总是有限的,这就导致在选择训练集和验证集时出现了诸多方法,常用的方法有留出法、交叉验证法、bootstrap方法,下面分别介绍。

           1.1 留出法

            留出法一般用在样本数据量较大的情况。在使用留出法时,将样本数据D分为两部分,一部分为训练集S,另一部分为验证集T,训练集S用来生成模型,验证集T用来评估其测试误差,将其作为对泛化误差的估计,这个思路比较简单,但是数据集D的划分过程需要注意两点:ST的划分比例ST中样本的抽样方式

            ST的划分比例偏大时,由于T中数据样本量及包含的样本信息较少(糟糕的情况是其中还包含了较多噪声,这或许直接导致非常离谱的评估结果),因此其评估结果可能不够准确。即使T中包含了比较准确的样本信息,在换一个同等数量新的验证集时,可能包含的信息就不那么准确,评估结果也可能会有较大差别,故其评估结果不稳定;ST的划分比例偏小时,由于训练数据包含较少的样本信息,这样得到的模型本身就不可取,这种情况比“ST的划分比例偏大”更糟糕,之后用T得到的评估结果,已经是失真的了。那该如何选取训练集S与验证集T的划分比例呢?一般选用样本数据集D的2/3~4/5用来训练模型,剩余数据用来测试,验证集T应至少包含30个样本。

           选择合适的划分比例后,还有C^{k}_{n}(在n个样本中选取k个)的问题,因为此时样本选择仍有多种情况,单次使用留出法得到的评估结果往往不够可靠,一般采用多次随机划分、取评估结果的平均值的方式得到最终的评估结果。

           1.2 交叉验证法

           交叉验证法中,将样本数据集D均分为k等份(注意,这个均分过程仍然要考虑1.1节中提到的信息均匀问题),前 k-1份作为训练集,剩余一份作为测试集,得到测试结果。由于测试集的选择方式有k种,因此在数据集D的一次划分过程中可以得到k个测试结果,将这k个测试结果的平均值返回作为最终结果,这个过程通常称为“k折交叉验证”。当k=10时,交叉验证的过程示意图如下

                                         

             在交叉验证过程中,在确定样本数据集D划分份数k时需要考虑1.1节中提到的训练集与测试集比例问题,除此之外,从数据集D中抽样得到每份数据时同样存在C^{k}_{n}问题,因此一般也会进行多次随机抽样(抽样次数为p),这样在使用交叉验证法时一共会进行 k	imes p 次测试,最终的评估结果是这pk折交叉验证的结果的平均。

            分析交叉验证法和留出法的过程来看,本质上是一样的。k折交叉验证的过程可以视作k次留出法的过程,不过要求在这k次留出时,留出的数据间不能有重和,并且k次留出的数据并起来就是样本数据集D

          1.3 bootstrap方法

           留出法和交叉验证法都在数据样本中单独划分出了验证集,这样在模型训练时并没有使用全部的样本数据,这在样本数据量充足时并不会产生多大问题,但是在样本数据量较小时可能会导致模型包含信息不充分,产生估计偏差,在这种情况下,bootstrap方法可能是一个比较好的选择。

          在实施bootstrap方法时,为了得到训练集S(包含k个样本),每次从样本数据集D中随机抽样一个样本放入训练集S中,然后将该抽取的样本放回D中重新进行抽样,重复该过程k次后就得到训练集S,然后将数据集D中除去训练集S后剩下的数据作为验证集,得到测试结果。重复进行多次这样的过程,将所有结果的平均值作为最终结果。

           很明显,在bootstrap方法中抽样得到训练集S的过程十分关键,抽样过程改变了训练集S及验证集T的分布,这很有可能带来估计偏差,因此在样本数据量充足时,还是选取前两种方法比较合适。

           以上三种获取训练集、验证集的方法,都涉及到样本抽样的问题,抽样过程中也是有许多问题需要注意的,这里我不再多说明,可以参考我转载的博文《统计学中抽样调查和一些常用的方法》中的方法进行抽样。

    2.  度量指标选择

           在不同的任务中,应该选择合适的性能指标来衡量模型的优劣。在预测任务中,给定样本集D=left { (x_{1},y_{1}),(x_{2},y_{2}),,,(x_{n},y_{n}) 
ight }y_{i} 是 x_{i} 的真实标记,评估模型 f 的性能就是要比较 x_{i} 的预测结果与真实标记y_{i}之间的差异。

            2.1  错误率与精度

            错误率及精度是分类任务中最常用的性能指标,适合于二分类及多分类任务,其定义也比较简单,错误率E指错误分类的样本数占总样本数的比例,精度则为1-E

            2.2  查准率、查全率

            在一些场合下,错误率及精度不足以衡量模型的性能,我们还关心查准率和查全率。比如在建立疾病预测模型时,需要依据人的体温、呼吸等条件预测其是否患有某种疾病,那么我们可能更关心这个模型的查准率,将真正患有疾病的人都预测出来,而不是简单的知道精度是多少,因为这存在健康被诊为患病、患病诊为健康的情况。对于二分类问题,先简单定义一下查准率与查全率

            查准率P:在所有被标为“正例”的样本中,真正为“正例”的样本比例

            查全率R:在所有真正为“正例”的样本,被标记为“正例”的样本比例

            建立分类结果的混淆矩阵

                                                     ​  

            查准率P与查全率R的计算公式为

                                                                             P=frac{TP}{TP+FP}           

                                                                               R=frac{TP}{TP+NP}

            

            然而查准率和查全率是一对矛盾的度量,对于很多模型来说二者很难同时达到完美,在对比模型的时候会出现一方查准率高而另一方查全率高的情况,此时该如何抉择呢?在实际应用中一般使用度量指标F1,它是基于查准率P与查全率R计算出来的,其定义如下

                                                                             F1=frac{2	imes P	imes R}{P+R}=frac{2	imes TP}{N+TP-TN}             (1)

            N为样例总数

            在一些分类任务中,对查准率与查全率的侧重会有所不同。在商品推荐领域中,会侧重查准率以减少不准确信息对用户的干扰,而在逃犯信息检索领域,会侧重查全率一些,避免有漏网之鱼,为此有了F1的改进形式——F_{eta },其定义形式为

                                                                               frac{1}{F_{eta }}=frac{1}{1+eta ^{2}}(frac{1}{P}+frac{eta ^{2}}{R})                                     (2)

                                                                               F_{eta}=frac{(1+eta ^{2})	imes P	imes R}{eta ^{2}	imes P+R}                                   (3)

           从公式(2)容易看出,当eta >1时,查全率R的变换对F_{eta }的影响较大,此时更侧重查全率;当eta <1时,查全率R的变换对F_{eta }的影响较小,查准率影响相对较大,此时更侧重查准率;当eta =1时,也就没有权重,变成了F1的形式。正如第1节中提到的,实际测试过程一般会有多次,此时可以计算多次测试的查准率、查全率结果,然后取其平均值代入公式(1)和公式(3)中计算。

           在多分类任务中,假设分类数为k,那么我们得到一个k	imes k的混淆矩阵,n_{ij} (1leqslant i,jleqslant k)表示第i类样本被预测为第j类的数量,多分类的混淆矩阵如下所示

                                             

        第i类的查准率P_{i}

                                                                               P_{i}=frac{n_{ii}}{sum_{m=1}^{k}n_{mi}}

       第i类查全率R_{i}

                                                                              R_{i}=frac{n_{ii}}{sum_{m=1}^{k}n_{im}}

           那么对于整个模型来说,其查准率与查全率该如何定义呢?我还没有查到相关比较权威的定义,先提一点个人的想法,如果对每一类的分类查准率与查全率没有权重的话,可以各类的查准率与查全率相加,然后计算平均值,再代入公式(1)和公式(3)中计算;如果有权重的话,则将各类的查准率与查全率加以相应权重,然后计算平均值,再代入公式(1)和公式(3)中计算,注意这种情况下会有两次加权,一次是对不同类的加权,一次是对查准率与查全率的加权。

    3. 模型评价

           现在考虑这样一个问题,假设一个分类模型在大小为30的验证集上分类准确率为85%,能否说这个模型的分类正确率就是85%?再来一个大小为100的验证集,是否一定有约85个左右的样本能被正确分类呢?应该说不是这样的,对于这种情况,我们需要计算该模型分类准确率的置信区间,这是评估该模型的比较准确的做法。

           一个样本的分类过程可以视为一次概率为 p 的伯努利过程,其中 p 为模型真实的分类正确率,那么一个样本集的分类则可以看作概率为p的二项分布实验,期望为Np,方差为Np(1-p)。设X是在一次测试过程中、样本中被正确分类的个数,acc=X/N表示本次的分类正确率,则依据中心极限定理可知,当样本数量N足够大时,则以下统计量

                                                                                         frac{acc-p}{sqrt{p(1-p)/N}}

    服从标准正态分布,在选定置信度 alpha 后,可以计算 acc的置信区间为

                                                                   Pleft [ -Z_{alpha /2}leq frac{acc-p}{sqrt{p(1-p)/N}}leq Z_{alpha /2} 
ight ]=1-alpha

                                                                              (frac{acc-p}{sqrt{p(1-p)/N}})^{2}leq Z_{alpha /2}^{2}

    将其转化为等式、利用一元二次多项式根的公式

                                                                               x=frac{-bpm sqrt{b^{2}-4ac}}{2a}

    求解,得到p的置信区间为

                                             frac{2	imes N	imes acc+Z^{2}_{alpha /2}pm Z_{alpha /2}sqrt{Z^{2}_{alpha /2}+4	imes N	imes acc-4	imes N	imes acc^{2}}}{2(N+Z^{2}_{alpha /2})}

            例如,现有一个分类模型在100个样本上有80%的正确率,则其在95%的置信水平下,真实准确率的置信区间为多少?首先查阅标准正态分布概率表,95%的置信度对应的Z_{alpha /2}^{2}为1.96,将N=95acc=0.8代入到上式中,计算得到置信区间为left [ 0.711,0.866 
ight ]

    4. 模型比较 

           现在考虑这样一个问题,分类模型1在100个样本上的正确率为85%,分类模型2在5000个样本上的正确率为75%,那么模型1的真实分类准确率一定比模型2高吗?我们还是从模型分类正确率的显著性上出发来比较二者。

           依据中心极限定理可知,但样本数量足够大时,模型1和模型2上样本分类正确率的分布是两个相互独立的正态分布,模型1上分类正确率acc_{1}sim N(u_{1},alpha^{2} _{1}),模型上2分类正确率acc_{2}sim N(u_{2},alpha^{2} _{2}),为了比较模型1与模型2的分类正确率的差异,现在建立二者正确率观测差统计量

                                                                                                d=acc_{1}-acc_{2}

           依据中心极限定理,统计量d也服从正态分布N(u_{d},sigma ^{2}_{d}),其均值u_{d}

                                                                                                    u_{d}=u_{1}-u_{2}

           方差sigma _{d}^{2}可以估计为       

                                                                              sigma _{u}^{2}=frac{u_{1}(1-u_{1})}{n_{1}}+frac{u_{2}(1-u_{2})}{n_{2}} 

           这样可以计算u_{d}在置信度1-alpha下的置信区间

                                                                                           u_{d}=dpm Z_{alpha /2}alpha _{d}

           一旦计算出的置信区间你跨过了零值,表示在选定的置信度下,观测的正确率差值可能为负,也即是我们不能认为模型1比模型2的真实分类正确率更高。    

          在实际应用中,更常见的可能是这样一种比较情况:在一个样本集上采用 k 交叉验证法去比较两个模型的分类效果。对与模型1和模型2,我们还是构建一个和上面一样计算d=acc_{1}-acc_{2},那么在 k 次交叉实验中,我们可以观测到 k 个 d 值,此时可以构建一个双样本的 t 统计量

                                                                                 t_{d}=frac{ar{d}}{S_{d}}=frac{ar{acc_{1}}-ar{acc_{2}}}{S_{acc_{1}-acc_{2}}}

    其中ar{d}表示在 k 次交叉实验中观测到的 d 的平均值,S_{d}表示 d 的标准差,ar{acc_{1}}表示acc_{1}的平均值,ar{acc_{2}}表示acc_{2}的平均值。在 k 足够大时,可以用 d 的标准差除以 sqrt{k} 来估计S_{d}的,也即是

                                                                               S_{d}=sqrt{ frac{ sum_{i=1}^{k}(d_{i}-ar{d})^{2} }{k(k-1)} }

             在置信度为alpha时,可以算得d的置信区间为

                                                                                    dpm t_{(1-alpha ),k-1}S_{d}

              同样的,若计算得到的置信区间跨过零值,则表明不能认为模型1比模型2更优。

           

                                                                                                 

                                                                                               

                                                                                      

           

           

             

       

        

  • 相关阅读:
    性能参考指标
    Java Native Interface 二 JNI中对Java基本类型和引用类型的处理
    Java Native Interface 编程系列一
    HTTP的报文与状态码
    [译]Android调整图像大小的一些方法
    Android多线程通信机制
    Android四大组件知识整理
    Java多态与反射
    23种设计模式的优点与缺点概况
    Android应用性能优化
  • 原文地址:https://www.cnblogs.com/hgz-dm/p/10885929.html
Copyright © 2011-2022 走看看