zoukankan      html  css  js  c++  java
  • 一些常见的特征选择方法

    一些常见的特征选择方法

    现实中产生的特征维度可能很多,特征质量参差不齐,不仅会增加训练过程的时间,也可能会降低模型质量。因此,提取出最具代表性的一部分特征来参与训练就很重要了。

    通常有特征抽取和特征选择两种方法。这里分别介绍一下。

    特征抽取

    特征抽取中最常见的当属PCA了。

    PCA

    对于特征之间存在正交关系,数据满足高斯分布或指数分布的数据,作线性变换,使用方差、协方差去噪,生成新的主元,接下来按重要性排序后取少数参与训练,达到减少特征的目的。 
    这里最重要的思想是把多个特征进行线性变换,使用较少的特征表达原来多个特征的主要特点。 
    由于现实中取得的数据绝大部分满足高斯分布,所以PCA应用极广。

    人脸识别应用 
    将多幅同一人的人脸图像进行PCA变换,找到代表人脸的主要特征模型。当有新的人脸需要识别时,进行相同变换,并与已存在的人脸特征模型进行匹配。

    R应用方法
    //PCA方案1:用SVD实现
    pca1<-prcomp(USArrests, scale = TRUE)
    //PCA方案2:采用线性代数中的实对称均值的对角化实现
    pca2<-princomp(USArrests,cor=T)
    summary(pc1)

    summary的输出为:
        Importance of components:
        PC1 PC2 PC3 PC4
        Standard deviation 1.5749 0.9949 0.59713 0.41645
        Proportion of Variance 0.6201 0.2474 0.08914 0.04336
        Cumulative Proportion 0.6201 0.8675 0.95664 1.00000


    上面三行分别为标准差,方差贡献率,累计方差贡献率。 
    根据上面的数据,至PC3时,累计方差贡献率已达0.95664,因此只取前三个特征已经足够。

    特征选择

    特征选择主要有Filter、Wrapper、Embedded等几种不同的思路。这里主要写写Filter。

    卡方检验

    在有不同特征值的影响下,对两组目标变量作卡方检验,计算x2值,看两组数据是否有统计学上的明显差异。

    这里给出R中的代码例子。

    1、使用卡方检验判断患者治疗方式对治疗效果的影响

    library(vcd)//加载vcd数据包
    //准备进行卡检验所需的数据,提取治疗方式与治疗效果
    mytable<-xtabs(~Treatment Improved,data=Arthritis)
    //对mytable进行卡方检验
    chisq.test(mytable)
    以下是输出结果

        Pearson's Chi-squared test

        data: mytable
        X-squared = 13.055, df = 2, p-value = 0.001463

    p < 0.01,可以判断患者接受的治疗方式对治疗效果有明显影响。
    2、使用卡方检验判断患者的性别对治疗效果的影响
    library(vcd)//加载vcd数据包
    //准备进行卡检验所需的数据,提取患者性别与治疗效果
    mytable<-xtabs(~Improved Sex,data=Arthritis)
    //对mytable进行卡方检验
    chisq.test(mytable)
    以下是输出结果

        Pearson's Chi-squared test

        data: mytable
        X-squared = 4.8407, df = 2, p-value = 0.08889



    p > 0.05,可以判断患者的性别对治疗效果无明显影响。

    上面的实验中,p值表示不同列之间的相互独立的概率。 
    在1中,由于p值很小,所以拒绝了治疗方式与治疗效果之间相互独立的假设。 
    在2中,由于p值不够小,所以无法拒绝性别与治疗效果之间相互独立的假设。

    WOE、IV

    预测目标变量所需的信息总量蕴含在所有的特征中,某个特征所蕴含信息量(IV值)越大,则越重要。 
    IV值的计算以WOE为基础。 
    详细的概念、原理及公式可以参考这篇文章 
    数据挖掘模型中的IV和WOE详解:http://www.cda.cn/view/24633.html


    接下来看看R中的应用

    //安装和加载woe包。
    install.packages("woe")
    library(woe)
    //计算数据集mtcars中,cyl这一列对目标变量am的woe值和iv值。
    woe(Data=mtcars,"cyl",FALSE,"am",10,Bad=0,Good=1)
    以下是输出结果
        BIN BAD GOOD TOTAL BAD% GOOD% TOTAL% WOE IV BAD_SPLIT GOOD_SPLIT
        1 4 3 8 11 0.158 0.615 0.344 135.9 0.621 0.273 0.727
        2 6 4 3 7 0.211 0.231 0.219 9.1 0.002 0.571 0.429
        3 8 12 2 14 0.632 0.154 0.438 -141.2 0.675 0.857 0.143

    //计算数据集mtcars中,mpg这一列对目标变量am的woe值和iv值。
    woe(Data=mtcars,"mpg",TRUE,"am",10,Bad=0,Good=1)
    以下是输出结果
        BIN MIN MAX BAD GOOD TOTAL BAD% GOOD% TOTAL% WOE IV BAD_SPLIT GOOD_SPLIT
        1 1 10.4 14.3 4 0 4 0.211 0.000 0.125 -Inf Inf 1.00 0.00
        2 2 14.7 15.2 3 1 4 0.158 0.077 0.125 -71.9 0.058 0.75 0.25
        3 3 15.5 17.3 3 1 4 0.158 0.077 0.125 -71.9 0.058 0.75 0.25
        4 4 17.8 19.2 4 0 4 0.211 0.000 0.125 -Inf Inf 1.00 0.00
        5 5 19.2 21.0 1 3 4 0.053 0.231 0.125 147.2 0.262 0.25 0.75
        6 6 21.4 22.8 2 2 4 0.105 0.154 0.125 38.3 0.019 0.50 0.50
        7 7 22.8 27.3 2 2 4 0.105 0.154 0.125 38.3 0.019 0.50 0.50
        8 8 30.4 33.9 0 4 4 0.000 0.308 0.125 Inf Inf 0.00 1.00

    信息熵与信息增益

    信息的熵,表示不确定性。 
    在一个数据集中,先对目标分类变量进行熵的计算,再对目标分类变量按某一个特征值进行分组后进行一次熵的计算,两次熵值之差就是该特征值的信息增益。特征值的信息增益越大,表示该特征值的重要性越高。 
    这里有一个前提,即,目标变量是一个分类变量。

    这里使用R语言代码作个说明 
    一个老太太去买菜,市场上可供选择的东西有以下几种:西红柿(1)、白菜(2)、豆腐(3)、咸菜(4)、馒头(5)、西瓜(6)、樱桃(7)、苹果(8)、猪肉(10)、牛肉(11)、羊肉(12)。不给出任何其它信息之前,我们无法判断老太太今天会买什么菜。此时熵值最大,为

    install.packages("entropy")
    library(entropy)
    y<-c(1,2,3,4,5,6,7,8,9,10,11,12)
    //使用max likehood方式计算熵值
    entropy(y,method = "ML")//输出值为:2.327497
    接下来,在给出4条老太太买菜习惯的信息后,我们发现老太太今天只可能会买樱桃或西瓜。
    此时不确定性变小,熵值变小,为:

    y<-c(6,7)
    entropy(y,method = "ML")//输出值为:0.6901857
    因此,4条老太太买菜习惯的信息增闪为:2.327497-0.6901857=1.637311
    Gini指数

    这个指标同信息增益原理类似,哪个特征对Gini指数贡献大,哪个特征重要。

    给出R语言实现
    不给出任何信息时,Gini指数为:

    install.packages("ineq")
    library(ineq)
    y<-c(1,2,3,4,5,6,7,8,9,10,11,12)
    Gini(y)//输出结果为:0.3055556
    给出4个买菜习惯信息后,Gini指数为:

    y<-c(6,7)
    Gini(y)//输出结果为:0.03846154
    相关性
    数据集中的两个特征之间存在共线性,即较强的线性关系,就存在冗余,在最终训练时只使用其中一个就足够。
    这里列出一些衡量相关性的值。

    1、协方差与相关系数。
    这两个值描述的是两个变量与各自期望值之间的误差是否变动一致,它们之间可以互相转换,一般使用相关系数较多。相关系数范围为[-1,1],其中-1代表完全负相关,1代表完全正相关,0代表完全独立。

    这里列出R应用方法

    //计算两列数据之间的相关系数
    cor(mtcars$cyl,mtcars$disp,method = "pearson")//输出值为:0.9020329,表示两列数据正相关
    cor(mtcars$mpg,mtcars$disp,method = "pearson")//输出值为:-0.8475514,表示负相关
    //计算两列数据之间的协方差
    cov(mtcars$cyl,mtcars$disp,method = "pearson")//输出值为:199.6603
    cov(mtcars$mpg,mtcars$disp,method = "pearson")//输出值为:-633.0972

    method取值有三种:
    pearson:适用于连续变量,如分析血压值和年龄的相关性。
    spearman:适用于顺序数据,如分析数学和语言成绩排名相关性。
    kendall:适用于有序分类变量,如分析疼痛级别分类和病情严重程序分类。
    2、偏相关
    当数据集中的特征很多时,两个特征之间的相关性会受到很多其它特征的影响。在排除掉其它特征的影响之后,计算出来的两个特征的相关性系数,叫偏相关系数。
    在特征z固定的前提下,分析x、y的相关性,得到的是一阶偏相关系数,在特征z、q固定的前提下,得到的是二阶偏相关系数。
    这里给出R应用
    library(ggm)
    data("marks")//加载marks数据集
    var(marks)//计算marks数据集的方差矩阵
    //计算固定analysis,statistics时,vectors和algebra的二阶偏相关系数
    pcor(c("vectors", "algebra", "analysis", "statistics"), var(marks))//输出结果为:0.388203
    pcor(c(2,3,4,5), var(marks))//与上一句代码意义相同
    //偏相关系数的显著性检验,入参分别为:偏相关系数,固定变量个数,样本量
    pcor.test(0.388203,2,dim(marks)[1])//输出值p=0.0002213427,p<0.01,因此,在固定analysis,statistics时,vectors和algebra两个特征存在明显偏相关性
    Lasso
    Lasso的基本思想是在回归系数的绝对值之和小于一个常数的约束条件下,使残差平方和最小化,从而能够产生某些严格等于0的回归系数,达到特征选择的目的。
    这里给出R中的应用例子
    data(diabetes)//加载数据集diabetes
    //使用lasso进行特征选择
    lars(diabetes$x,diabetes$y,type="lasso")

    输出结果为:

        Call:
        lars(x = diabetesx,y=diabetesy)
        R-squared: 0.518
        Sequence of LASSO moves:
        bmi ltg map hdl sex glu tc tch ldl age hdl hdl
        Var 3 9 4 7 2 10 5 8 6 1 -7 7
        Step 1 2 3 4 5 6 7 8 9 10 11 12

    Var行即是lasso给出的特征选择顺序,Setp行即时顺序编号。

    以下方法可以得到各特征的多重共线性:

    data<-lars(diabetes$x,diabetes$y)
    summary(data)

    输出结果为:

        LARS/LASSO
        Call: lars(x = diabetesx,y=diabetesy)
        Df Rss Cp
        0 1 2621009 453.7263
        1 2 2510465 418.0322
        2 3 1700369 143.8012
        3 4 1527165 86.7411
        4 5 1365734 33.6957
        5 6 1324118 21.5052
        6 7 1308932 18.3270
        7 8 1275355 8.8775
        8 9 1270233 9.1311
        9 10 1269390 10.8435
        10 11 1264977 11.3390
        11 10 1264765 9.2668
        12 11 1263983 11.0000
    按data中Step行指定的顺序,依次选取特征,则Cp的值从上往下对应变化,Cp值越小,表示回归模型越精确。
    如果我们取前3个特征,则cp值为86.7411。如果取前7个特征,则Cp值为8.8775,达到最小。
    因此,计算量允许的范围内,取前7个特征进行训练,得到的回归模型最精确。如果要严格控制计算量,则取前3个特征即可。

  • 相关阅读:
    php学习笔记之一维数组
    MVC开发人员必备的五大工具
    ASP.NET MVC 3和Razor中的@helper
    Oracle表空间不足ORA-01654
    oracle创建计划任务
    淘宝下单高并发解决方案
    网站集成QQ登录功能
    jquery的一个模板引擎-zt
    Asp.net gzip压缩的启用
    Windows7下面手把手教你安装Django
  • 原文地址:https://www.cnblogs.com/amengduo/p/9586547.html
Copyright © 2011-2022 走看看