zoukankan      html  css  js  c++  java
  • CART,BDT,GBDT,XGBOOST

    CART:

    回归树的基本思想和分类树差不多,就是递归寻找最有切分特征j,和最优切分点s,即,求解

    这是一个递归子空间求解最优的过程,在满足停止条件(比如生成N个划分空间)时返回树。

    分类树(和ID3类似):

    类比ID3的信息增益和C4.5的信息增益比,CART分类树用基尼指数来作为最优特征的选择标准

    基尼指数:   PK表示,样本点属于K类的概率。

    基尼指数意义和熵类似,总体内包含的类别越杂乱,GINI指数就越大,主要区别在于,熵达到峰值的过程要相对慢一些。因此,熵对于混乱集合的判罚要更重一些

    BDT:提升树采用向前分布算法:   fm(x)=fm1(x)+T(x;θm),其中下一棵树抉择树的参数通过经验风险最小化确定。θm=argminθmi=1NL(yi,fm1(xi)+T(xi;θm)

    回归问题的提升树主要是下一颗树对当前残差(r = yi - f m-1 ( x i ))的拟合   ,损失函数使用回归问题的损失函数。比如平方误差损失函数

    每次训练和训练回归树过程一样,只不过下一次训练的数据集是上一次训练的残差,得到的树相加之前已知树,反复该过程,直到满足停止条件(比如loss小于阈值,次数达到设定值)。

    分类问题的提升树,可以把Adaboost中基本分类器设置为分类树即可。

    ps.在实际问题中常用回归树设定阈值的方法来解决分类问题。

    GBDT:相对于提升树,GBDT将前一棵树的损失函数的负梯度值当作残差的近似值进行拟合,

  • 相关阅读:
    Unity Shader入门精要学习笔记
    Unity Shader入门精要学习笔记
    zabbix_server部署,启动,及端口未监听问题
    Linux Git服务器安装
    GitHub
    nginx 认证访问web
    Jenkins可持续集成
    svn
    mariadb安装配置
    nginx跟tp5无法加载控制器
  • 原文地址:https://www.cnblogs.com/jellyj/p/9915082.html
Copyright © 2011-2022 走看看