zoukankan      html  css  js  c++  java
  • 数据预处理与特征工程

    数据预处理
      数据预处理是从数据中检测,纠正或删除损坏,不准确或不适用于模型的记录的过程;
    可能面对的问题有:数据类型不同,比如有的是文字,有的是数字,有的含时间序列,有的连续,有的间断。也可能,数据的质量不行,有噪声,有异常,有缺失,数据出错,量纲不一,有重复,数据是偏态,数据量太大或太小

      主要表现:缺失值、重复值、异常值、数据分布偏态、数据类型不同
      数据预处理的目的:让数据适应模型,匹配模型的需求

    1、数据无量纲化

      StandardScaler和MinMaxScaler选哪个?看情况。大多数机器学习算法中,会选择StandardScaler来进行特征缩放,因为MinMaxScaler对异常值非常敏感。在PCA,聚类,逻辑回归,支持向量机,神经网络这些算法中,StandardScaler往往是最好的选择。/2、

    2、缺失值

    from sklearn.impute import SimpleImputer
    imp_mean = SimpleImputer() #实例化,默认均值填补
    imp_median = SimpleImputer(strategy="median") #用中位数填补
    imp_0 = SimpleImputer(strategy="constant",fill_value=0) #用0填补
    imp_mean = imp_mean.fit_transform(Age) #fit_transform一步完成调取结果
    imp_median = imp_median.fit_transform(Age)
    imp_0 = imp_0.fit_transform(Age)
    imp_mean[:20]
    imp_median[:20]
    imp_0[:20]
    #在这里我们使用中位数填补Age
    data.loc[:,"Age"] = imp_median
    data.info()
    #使用众数填补Embarked
    Embarked = data.loc[:,"Embarked"].values.reshape(-1,1)
    
    #pandas和numpy填补
    data.loc[:,"Age"] = data.loc[:,"Age"].fillna(data.loc[:,"Age"].median())
    #.fillna 在DataFrame里面直接进行填补
    data.dropna(axis=0,inplace=True)
    #.dropna(axis=0)删除所有有缺失值的行,.dropna(axis=1)删除所有有缺失值的列
    #参数inplace,为True表示在原数据集上进行修改,为False表示生成一个复制对象,不修改原数据,默认False

    #类别型变量
    from sklearn.preprocessing import LabelEncoder
    y = data.iloc[:,-1] #要输入的是标签,不是特征矩阵,所以允许一维
    le = LabelEncoder() #实例化
    le = le.fit(y) #导入数据
    label = le.transform(y)  #transform接口调取结果

    特征工程:
      特征工程是将原始数据转换为更能代表预测模型的潜在问题的特征的过程,可以通过挑选最相关的特征,提取特征以及创造特征来实现。其中创造特征又经常以降维算法的方式实现。
      可能面对的问题有:特征之间有相关性,特征和标签无关,特征太多或太小,或者干脆就无法表现出应有的数据现象或无法展示数据的真实面貌

    特征工程的目的:1) 降低计算成本,2) 提升模型上限

    1》过滤法

    方差过滤

      通过特征本身的方差来筛选特征的类。比如一个特征本身的方差很小,就表示样本在这个特征上基本没有差异,可能特征中的大多数值都一样,甚至整个特征的取值都相同,那这个特征对于样本区分没有什么作用。VarianceThreshold有重要参数threshold,表示方差的阈值,表示舍弃所有方差小于threshold的特征,不填默认为0,即删除所有的记录都相同的特征。

    from sklearn.feature_selection import VarianceThreshold
    selector = VarianceThreshold() #实例化,不填参数默认方差为0
    X_var0 = selector.fit_transform(X) #获取删除不合格特征之后的新特征矩阵
    #也可以直接写成 X = VairanceThreshold().fit_transform(X)
    X_var0.shape

    相关性过滤  --卡方、F检验、互信息

      卡方过滤是专门针对离散型标签(即分类问题)的相关性过滤。卡方检验类feature_selection.chi2计算每个非负特征和标签之间的卡方统计量,并依照卡方统计量由高到低为特征排名。再结合feature_selection.SelectKBest这个可以输入”评分标准“来选出前K个分数最高的特征的类,我们可以借此除去最可能独立于标签,与我们分类目的无关的特征。
      另外,如果卡方检验检测到某个特征中所有的值都相同,会提示我们使用方差先进行方差过滤。并且,刚才我们已经验证过,当我们使用方差过滤筛选掉一半的特征后,模型的表现时提升的。因此在这里,我们使用threshold=中位数时完成的方差过滤的数据来做卡方检验(如果方差过滤后模型的表现反而降低了,那我们就不会使用方差过滤后的数据,而是使用原数据)。

    from sklearn.feature_selection import chi2
    from sklearn.feature_selection import SelectKBest

    X_fschi
    = SelectKBest(chi2, k=300).fit_transform(X_fsvar, y) X_fschi.shape

      卡方检验的本质是推测两组数据之间的差异,其检验的原假设是”两组数据是相互独立的”。卡方检验返回卡方值和P值两个统计量,其中卡方值很难界定有效的范围,而p值,我们一般使用0.01或0.05作为显著性水平,即p值判断的边界。

    F检验

      F检验,又称ANOVA,方差齐性检验,是用来捕捉每个特征与标签之间的线性关系的过滤方法。它即可以做回归也可以做分类,因此包含feature_selection.f_classif(F检验分类)和feature_selection.f_regression(F检验回归)两个类。其中F检验分类用于标签是离散型变量的数据,而F检验回归用于标签是连续型变量的数据。
      和卡方检验一样,这两个类需要和类SelectKBest连用,并且我们也可以直接通过输出的统计量来判断我们到底要设置一个什么样的K。需要注意的是,F检验在数据服从正态分布时效果会非常稳定,因此如果使用F检验过滤,我们会先将数据转换成服从正态分布的方式。
      F检验的本质是寻找两组数据之间的线性关系,其原假设是”数据不存在显著的线性关系“。它返回F值和p值两个统计量。和卡方过滤一样,我们希望选取p值小于0.05或0.01的特征,这些特征与标签时显著线性相关的,而p值大于0.05或0.01的特征则被我们认为是和标签没有显著线性关系的特征,应该被删除。

    from sklearn.feature_selection import f_classif
    F, pvalues_f = f_classif(X_fsvar,y)
    F
    pvalues_f
    k = F.shape[0] - (pvalues_f > 0.05).sum()
    #X_fsF = SelectKBest(f_classif, k=填写具体的k).fit_transform(X_fsvar, y)
    #cross_val_score(RFC(n_estimators=10,random_state=0),X_fsF,y,cv=5).mean()

    互信息

      互信息法是用来捕捉每个特征与标签之间的任意关系(包括线性和非线性关系)的过滤方法。和F检验相似,它既可以做回归也可以做分类,并且包含两个类feature_selection.mutual_info_classif(互信息分类)和feature_selection.mutual_info_regression(互信息回归)。这两个类的用法和参数都和F检验一模一样,不过互信息法比F检验更加强大,F检验只能够找出线性关系,而互信息法可以找出任意关系。
      互信息法不返回p值或F值类似的统计量,它返回“每个特征与目标之间的互信息量的估计”,这个估计量在[0,1]之间取值,为0则表示两个变量独立,为1则表示两个变量完全相关。

    from sklearn.feature_selection import mutual_info_classif as MIC
    result = MIC(X_fsvar,y)
    k = result.shape[0] - sum(result <= 0)
    #X_fsmic = SelectKBest(MIC, k=填写具体的k).fit_transform(X_fsvar, y)
    #cross_val_score(RFC(n_estimators=10,random_state=0),X_fsmic,y,cv=5).mean()

      通常来说,我会建议,先使用方差过滤,然后使用互信息法来捕捉相关性

    2》嵌入法

      嵌入法是一种让算法自己决定使用哪些特征的方法,即特征选择和算法训练同时进行。在使用嵌入法时,我们先使用某些机器学习的算法和模型进行训练,得到各个特征的权值系数,根据权值系数从大到小选择特征。这些权值系数往往代表了特征对于模型的某种贡献或某种重要性,比如决策树和树的集成模型中的feature_importances_属性,可以列出各个特征对树的建立的贡献,我们就可以基于这种贡献的评估,找出对模型建立最有用的特征。

      因此相比于过滤法,嵌入法的结果会更加精确到模型的效用本身,对于提高模型效力有更好的效果。并且,由于考虑特征对模型的贡献,因此无关的特征(需要相关性过滤的特征)和无区分度的特征(需要方差过滤的特征)都会因为缺乏对模型的贡献而被删除掉,可谓是过滤法的进化版。

    from sklearn.feature_selection import SelectFromModel
    from sklearn.ensemble import RandomForestClassifier as RFC
    RFC_ = RFC(n_estimators =10,random_state=0)
    X_embedded = SelectFromModel(RFC_,threshold=0.005).fit_transform(X,y)

    #在这里我只想取出来有限的特征。0.005这个阈值对于有780个特征的数据来说,是非常高的阈值,因为平均每个特征
    只能够分到大约0.001的feature_importances_
    X_embedded.shape
    #模型的维度明显被降低了
    #同样的,我们也可以画学习曲线来找最佳阈值
    #======【TIME WARNING:10 mins】======#
    import numpy as np
    import matplotlib.pyplot as plt
    RFC_.fit(X,y).feature_importances_
    threshold = np.linspace(0,(RFC_.fit(X,y).feature_importances_).max(),20)
    score = []
    for i in threshold:
      X_embedded = SelectFromModel(RFC_,threshold=i).fit_transform(X,y)
      once = cross_val_score(RFC_,X_embedded,y,cv=5).mean()
      score.append(once)
    plt.plot(threshold,score)
    plt.show()

    3》包装法

      包装法也是一个特征选择和算法训练同时进行的方法,与嵌入法十分相似,它也是依赖于算法自身的选择,比如coef_属性或feature_importances_属性来完成特征选择。但不同的是,我们往往使用一个目标函数作为黑盒来帮助我们选取特征,而不是自己输入某个评估指标或统计量的阈值。

      包装法在初始特征集上训练评估器,并且通过coef_属性或通过feature_importances_属性获得每个特征的重要性。然后,从当前的一组特征中修剪最不重要的特征。在修剪的集合上递归地重复该过程,直到最终到达所需数量的要选择的特征。区别于过滤法和嵌入法的一次训练解决所有问题,包装法要使用特征子集进行多次训练,因此它所需要的计算成本是最高的。

    from sklearn.feature_selection import RFE
    RFC_ = RFC(n_estimators =10,random_state=0)
    selector = RFE(RFC_, n_features_to_select=340, step=50).fit(X, y)
    selector.support_.sum()
    selector.ranking_
    X_wrapper = selector.transform(X)
    cross_val_score(RFC_,X_wrapper,y,cv=5).mean()
    天才是百分之一的灵感,加百分之九十九的汗水,但那百分之一的灵感往往比百分之九十九的汗水来的重要
  • 相关阅读:
    Ubuntu下UFW防火墙简单设置
    ubuntu设置tomcat开机自动启动
    ubuntu16.04编辑器vi的使用
    Several ports (8005, 8080, 8009) required
    JavaScript检测浏览器(Firefox、IE)是否安装指定插件
    mongo 初级使用
    @Scheduled(cron = "0 0 * * * ?")实现定时任务
    Calendar时间类型数据设置
    Maven+STS工程中Maven Dependencies 文件夹丢失问题
    redis安装以及远程连接
  • 原文地址:https://www.cnblogs.com/Christbao/p/13715467.html
Copyright © 2011-2022 走看看