zoukankan      html  css  js  c++  java
  • R语言caret包的学习(一)--数据预处理

    caret包(Classification and Regression Training)是一系列函数的集合,它试图对创建预测模型的过程进行流程化。本系列将就数据预处理、特征选择、抽样、模型调参等进行介绍学习。

    本文将就caret包中的数据预处理部分进行介绍学习。主要包括以下函数:model.matrix(),dummyVars(),nearZeroVar(),findCorrelation(),findLinearCombos(),preProcess(),classDist(),featurePlot()

    创建虚拟变量

    创建虚拟变量的两个主要函数:model.matrix , dummyVars

    model.matrix()

     model.matrix(object, data = environment(object), contrasts.arg = NULL, xlev = NULL, ...) 

    其实,主要参数为object,一个公式;data就是引用的数据咯

    这里,式子中 ~后可以理解为要展开的数据(其实也可以有只有一个因子水平的数据,从而便于在展开数据的同时,cbind其他列的数据,从而得到接下来分析用到的数据),结果返回的是matrix类型

    如上所示,有3个因子水平的a被展开成2列,其他一列被省掉,减少了多重共线性的困扰。但是,没搞明白,intercept是怎么得出来的?????

    dummyVars()

     dummyVars(formula, data, sep = ".", levelsOnly = FALSE, fullRank = FALSE, ...) 

    其用法跟model.matrix差不多,主要参数依旧是formula和data

    不同的是

    可以看出两点不同了:1. 需要调用predict函数才能显示矩阵   2. 是对所有level进行展开

    此外,dummyVars还可以生成交互的展开

    当然,还可以通过 sep = ";" 将a;1的形式,   levelsOnly = TRUE 将a.1改成1, 但a.1:b.1改成1:1  不行 报错 情理之中,因为这样1:1的话就没有辨识度了,只有level是唯一不重复的,才可以如愿。

    注意:因为dummyVars展开的没有截距(intercept),并且每个因子水平都有对应的虚拟变量,所以这些参数对于某些模型可能是不可用的,例如lm等

    零方差和近似零方差特征变量

    识别清除近似零方差的特征变量的原因: 

    • 在某些情况下,数据产生机制只创建具有单一值的特征变量(例如零方差特征变量)。这对于大多数模型(不包括树模型)来说,这可能造成模型的破坏,或者数据拟合的不稳定。
    • 同样的,特征变量中可能有一些出现频率非常低的唯一值,当这样的数据使用交叉验证(cross-validation)或自助法(bootstrap)抽样或一些样本可能对模型有过度影响的时候,这些特征变量可能变成零方差的特征变量

    识别此种特征变量的方法:

    • 最大频率数值的频数比上第二频率数值的频数(称作频数比率(frequency ratio)),对于平衡的特征变量其值接近1,对于高度不平衡的数据其值会非常大
    • 唯一值比例就是唯一值的个数除以样本的总数再乘以100, 它随着数据粒度的增大而几近于0。 

    如果频数比率大于预先设定的阈值,并且唯一值的比例小于一个阈值,我们可以认为这个特征变量为近似零方差。 

    caret包中提供了函数:nearZeroVar()

     nearZeroVar(x, freqCut = 95/5, uniqueCut = 10, saveMetrics = FALSE, names = FALSE, foreach = FALSE, allowParallel = TRUE) 

    参数解释:

    • x 是一个数值型向量、矩阵或data frame,freqCut是频数比率阈值,uniqueCut是唯一值比例阈值
    • saveMetrics是一个逻辑值,false时返回的是近零特征的位置,true时,返回特征信息的data frame
    • name 逻辑值,false时,返回列的索引,true时返回列的名字
    • foreach 是否调用foreach包,若为ture,将使用更少的内存
    • allowPatallel 是否通过foreach包进行并行计算,若为true,将占用更多内存,但执行时间更短

    返回的参数解释:

    freqRatio 频数比率  percentUnique 唯一值比率   zeroVar 是否仅有一个值   nzv 是否是近零方差特征

    清除近零方差特征变量:

    识别相关的特征变量

    有些模型依赖与相关的特征变量(像偏最小二乘法(pls,partial least-squares regression)),而有些模型能够得益于变量之间的相关性减少。

     findCorrelation(x, cutoff = 0.9, verbose = FALSE, names = FALSE, exact = ncol(x) < 100) 

    参数解释:

    • x 是一个相关性矩阵
    • cutoff 是相关性绝对值的阈值
    • verbose 是否显示details
    • names 是否返回列名。false时,返回列的索引
    • exact 逻辑值,平均相关性是否在每一步重新计算。当维数比较大时,exact calculations将清除更少的特征,且比较慢

     

    线性相关性

    函数findLinearCombos使用QR分解来枚举线性组合的集合(如果存在的话)

     findLinearCombos(x)   只有一个参数x,x是一个数值矩阵

    返回一个列表,含有两项:

    • linearCombos  若有线性相关的,显示列索引向量
    • remove 为去除线性相关性,应去除的列索引

    preProcess函数

    preProcess函数可以对特征变量施行很多操作,包括中心化和标准化。preProcess函数每次操作都估计所需要的参数,并且由predict.preProcess 应用于指定的数据集。

    preProcess(x, method = c("center", "scale"), thresh = 0.95,     
                    pcaComp = NULL, na.remove = TRUE, k = 5, 
                    knnSummary = mean, outcome = NULL, fudge = 0.2, 
                    numUnique = 3, verbose = FALSE, freqCut = 95/5, 
                    uniqueCut = 10, cutoff = 0.9, ...)        

    x 是一个矩阵或数据框。非数值型的变量是被允许的,但是将被忽略

    method 处理类型的字符串向量。常见的几种如下:

    • center 中心化,即减去自变量的平均值
    • scale  标准化,即除以自变量的标准差,变换后值域为[0,1]。如果新样本值大于或小于训练集中值,则值将超出此范围。
    • BoxCox 变换,用于自变量,简单,与幂变换一样有效
    • YeoJohnson 与BoxCox 变换相似,但是它的自变量可以是0或负数,而BoxCox只能是正数
    • expoTrans 指数变换(exponential transformations)也可以被用于正数或负数
    • zv  识别并清除掉只含有一个值的数值型自变量
    • nzv 相当于应用nearZeroVar,清除近零方差的自变量
    • corr 寻找并过滤掉具有高相关性的自变量,参见findCorrelation

    这些方法的运行顺序是:zero-variance filter, near-zero variance filter, correlation filter, Box-Cox/Yeo-Johnson/exponential transformation, centering, scaling, range, imputation, PCA, ICA then spatial sign. 

    thresh  PCA的累积方差比

    其实,preProcess的功能很强大,据说还可以对数据进行插补缺失值(K近邻,袋装树bagged tree)

    笔者还未深入研究,在此不一一叙述

    类别距离计算

    classDist 函数计算训练集的类别质心和协方差矩阵,从而确定样本与每个类别质心的马氏距离。

     classDist(x, y, groups = 5, pca = FALSE, keep = NULL, ...) 

     predict(object, newdata, trans = log, ...)  默认的距离取对数,但是这可以通过predict.classDist的参数trans来改变

    可见,上图关于对角线对称,且将test分为两类,蓝色一类,红色一类。

    数据描述性可视化

    caret包中的可视化是对lattice包作图的集成。主要函数是featurePlot

     featurePlot(x, y, plot = “strip”, labels = c("Feature", ""), ...) 

    x 为一个连续数值的矩阵或data frame

    y 是一个表明类别的因子变量

    plot 是作图的种类。对于分类有: box, strip, density, pairs,ellipse,对于回归有pairs,scatter。默认情况下,当y为因子,则为strip,否则为scatter  (注意:若用ellipse作图,需加载ellipse包)

    还可以设定其他的可传递给lattice的选项。常见的有

    • layout=c(3,1) 将图设置为3行1列;
    • auto.key = list(columns = 3)) 将图例置于图顶,并以3列摆开

    参考:

     http://topepo.github.io/caret/pre-processing.html其中文翻译见此

  • 相关阅读:
    Javaweb开发环境与搭建
    剑指Offer:面试题32——从1到n整数中1出现的次数(java实现)
    剑指Offer:面试题31——连续子数组的最大和(java实现)
    剑指Offer:面试题30——最小的k个数(java实现)
    剑指Offer:面试题29——数组中出现次数超过一半的数字(java实现)
    剑指Offer:解决难题时的三大方法
    剑指Offer:面试题28——字符串的排列(java实现)(待序)
    剑指Offer:面试题27——二叉搜索树与双向链表(java实现)
    剑指Offer:面试题26——复制复杂的链表(java实现)
    剑指Offer:面试题25——二叉树中和为某一值的路径(java实现)
  • 原文地址:https://www.cnblogs.com/Hyacinth-Yuan/p/8284612.html
Copyright © 2011-2022 走看看