zoukankan      html  css  js  c++  java
  • 集成学习实战——Boosting(GBDT,Adaboost,XGBoost)

    集成学习实践部分也分成三块来讲解:

    sklearn官方文档:http://scikit-learn.org/stable/modules/ensemble.html#ensemble

    1、GBDT

    GradientBoostingClassifier:http://scikit-learn.org/stable/modules/generated/sklearn.ensemble.GradientBoostingClassifier.html#sklearn.ensemble.GradientBoostingClassifier

    GradientBoostingRegressor:http://scikit-learn.org/stable/modules/generated/sklearn.ensemble.GradientBoostingRegressor.html#sklearn.ensemble.GradientBoostingRegressor

    参数说明:

    1、loss:损失函数的类型:分类算法中有对数似然损失函数"deviance"和指数损失函数"exponential"两者输入选择,指数有点类似Adaboost

        对于回归模型,有均方差"ls", 绝对损失"lad", Huber损失"huber"和分位数损失“quantile”。

    2、learning_rate:学习率,也就是每个基学习器前面的权重

    3、n_estimators:基学习器数量

    4、subsample:采样,就是正则化因子里讲过,这里是不放回的采样,取值在0,1之间 

    若学习期的参数:这里以决策树为例

    5、max_features:划分是选择的最多特征数

    6、等等

    2、XGBoost

     http://xgboost.apachecn.org/cn/latest/

    参数介绍参考:http://blog.csdn.net/wzmsltw/article/details/50994481

    3、Adaboost

    在sklearn中Adaboost库分成两个,分别是分类和回归AdaBoostClassifier和AdaBoostRegressor

    对于集成学习我们参数部分也分成框架跟基学习器的参数两种

    1、框架部分:

    AdaBoostClassifier:http://scikit-learn.org/stable/modules/generated/sklearn.ensemble.AdaBoostClassifier.html#sklearn.ensemble.AdaBoostClassifier

     AdaBoostRegressor:http://scikit-learn.org/stable/modules/generated/sklearn.ensemble.AdaBoostRegressor.html#sklearn.ensemble.AdaBoostRegressor

    参数说明:

    base_estimator:弱学习器是什么,default=DecisionTreeClassifier,

    algorithm:这个参数只有AdaBoostClassifier有。主要原因是scikit-learn实现了两种Adaboost分类算法,SAMME和SAMME.R。两者的主要区别是弱学习器权重的度量,SAMME使用了和我们的原理篇里二元分类Adaboost算法的扩展,即用对样本集分类效果作为弱学习器权重,而SAMME.R使用了对样本集分类的预测概率大小来作为弱学习器权重。由于SAMME.R使用了概率度量的连续值,迭代一般比SAMME快,因此AdaBoostClassifier的默认算法algorithm的值也是SAMME.R。我们一般使用默认的SAMME.R就够了,但是要注意的是使用了SAMME.R, 则弱分类学习器参数base_estimator必须限制使用支持概率预测的分类器。SAMME算法则没有这个限制。

    loss:只有AdaBoostRegressor有,代表使用的损失是那种损失

    n_estimators:弱学习器个数

    learning_rate:学习率,也就是我们前面理论部分有讲到正则化里面的参数

     

    2、基学习器

    基学习器可选的有很多种,这里举例CART树

    与决策树的参数一样,可选择的有很多,更多参考决策树那篇

    3、实战

  • 相关阅读:
    034.Python的__str__,__repr__,__bool__ ,__add__和__len__魔术方法
    033.Python的__del__析构方法he__call__方法
    032.Python魔术方法__new__和单态模式
    python3使用tabulate漂亮的打印数据
    在Linux真正有效的调节鼠标速度!
    RouterOS上实现内网DNS劫持
    使用grease monkey强力清除搜索结果页的广告
    centos 6.5 apache下配置python cgi 并解决中文乱码
    python的缩进语法不是一种好的设计
    让npm默认使用taobao镜像源
  • 原文地址:https://www.cnblogs.com/jiegege/p/8587495.html
Copyright © 2011-2022 走看看