zoukankan      html  css  js  c++  java
  • 统计学习方法学习记录(五) 决策树

     

    主要过程包含特征选择,决策树生成,决策树剪枝

     

     

     

     

     

     

     特征选择:

     

     https://www.pkudodo.com/2018/11/30/1-5/

    上式是什么意思?不着急慢慢来。我们先看下面这张图。我们假设D和B是两个判断节点,它们在同一个分支中,D通过对样本特征A的值新型判断后进入了A分支。那么在D节点中我们的信息熵肯定是比较高的,令D节点中此时的信息熵是H(D)。然后经过D的一次判断,信息熵减少了,此时到了节点B,因为B节点的信息熵依靠于D对特征A的判断,所以节点B的信息熵设为H(D|A)。我们要让信息熵下降得最快,也就是他们之间的信息熵差值要最大,将这个信息熵差值设为g(D, A),汇总起来就是上图中的式子了。

     

     

     

     信息增益值最大,熵从1(root)到0(leaf)的速度越快

     

     

     

     

     

     

     

     

     

     

     

     

    CART树

    举例说明,CART都是二分类树,因此数据都是2维的,可以理解为含有row 和column的表格

    那么根据基尼指数计算公式

     先计算出A1-4的特征切分点,也就是最小的基尼指数

    再通过对比A1-A4最小的切分点的基尼指数,求出最优特征

     

     

     

  • 相关阅读:
    linux下创建一个指定大小的文件
    批量替换多个文件中的字符串
    redhat 搭建yum 源
    python ConfigParser 模块
    python yaml 模块
    python xml文件处理
    py2exe 和pyinstaller打包
    wxpython 学习之 --threading
    wxpython 学习之 --文本框与Boxsizer布局管理器
    wxpython 学习之 --窗口分割
  • 原文地址:https://www.cnblogs.com/ChrisInsistPy/p/13674216.html
Copyright © 2011-2022 走看看