zoukankan      html  css  js  c++  java
  • python库之sklearn

     一、安装sklearn

    conda install scikit-learn

    参考文献

    [1]整体介绍sklearn

    https://blog.csdn.net/u014248127/article/details/78885180

    二、介绍RandomForestRegressor

     1     sklearn.ensemble.RandomForestRegressor(  n_estimators=10,
     2                                              criterion='mse',
     3                                              max_depth=None,
     4                                              min_samples_split=2,
     5                                              min_samples_leaf=1,
     6                                              min_weight_fraction_leaf=0.0,
     7                                              max_features='auto',
     8                                              max_leaf_nodes=None,
     9                                              min_impurity_split=1e-07,
    10                                              bootstrap=True,
    11                                              oob_score=False,
    12                                              n_jobs=1,
    13                                              random_state=None,
    14                                              verbose=0,
    15                                              warm_start=False)

    criterion: ”gini” or “entropy”(default=”gini”)是计算属性的gini(基尼不纯度)还是entropy(信息增益),来选择最合适的节点。
    splitter: ”best” or “random”(default=”best”)随机选择属性还是选择不纯度最大的属性,建议用默认。
    max_features: 选择最适属性时划分的特征不能超过此值。
      当为整数时,即最大特征数;
          if “auto”, then max_features=sqrt(n_features).  简单地选取所有特征,每颗树都可以利用他们。这种情况下,每颗树都没有任何的限制。
          If “sqrt”, then max_features=sqrt(n_features).  此选项是每颗子树可以利用总特征数的平方根个。 例如,如果变量(特征)的总数是100,所以每颗子树只能取其中的10个。“log2”是另一种相似类型的选项。
          If “log2”, then max_features=log2(n_features).

          If None, then  max_features=n_features.
      当为小数时,训练集特征数*小数: 举例如下:0.2:此选项允许每个随机森林的子树可以利用变量(特征)数的20%。如果想考察的特征x%的作用, 我们可以使用“0.X”的格式。  

    增加max_features一般能提高模型的性能,因为在每个节点上,我们有更多的选择可以考虑。 然而,这未必完全是对的,因为它降低了单个树的多样性,而这正是随机森林独特的优点。 但是,可以肯定,你通过增加max_features会降低算法的速度。 因此,你需要适当的平衡和选择最佳max_features。     


    max_depth: (default=None)设置树的最大深度,默认为None,这样建树时,会使每一个叶节点只有一个类别,或是达到min_samples_split。
    min_samples_split:根据属性划分节点时,每个划分最少的样本数。
    min_samples_leaf:叶子节点最少的样本数。如果您以前编写过一个决策树,你能体会到最小样本叶片大小的重要性。 叶是决策树的末端节点。 较小的叶子使模型更容易捕捉训练数据中的噪声。 一般来说,我更偏向于将最小叶子节点数目设置为大于50。在你自己的情况中,你应该尽量尝试多种叶子大小种类,以找到最优的那个。
    max_leaf_nodes: (default=None)叶子树的最大样本数。
    min_weight_fraction_leaf: (default=0) 叶子节点所需要的最小权值
    verbose:(default=0) 是否显示任务进程


    关于随机森林特有的参数:
    n_estimators=10:决策树的个数,越多越好,但是性能就会越差,至少100左右(具体数字忘记从哪里来的了)可以达到可接受的性能和误差率在利用最大投票数或平均值来预测之前,你想要建立子树的数量。 较多的子树可以让模型有更好的性能,但同时让你的代码变慢。 你应该选择尽可能高的值,只要你的处理器能够承受的住,因为这使你的预测更好更稳定。
    bootstrap=True:是否有放回的采样。  
    oob_score=False:oob(out of band,带外)数据,即:在某次决策树训练中没有被bootstrap选中的数据。多单个模型的参数训练,我们知道可以用cross validation(cv)来进行,但是特别消耗时间,而且对于随机森林这种情况也没有大的必要,所以就用这个数据对决策树模型进行验证,算是一个简单的交叉验证。性能消耗小,但是效果不错。  这是一个随机森林交叉验证方法。 它和留一验证方法非常相似,但这快很多。 这种方法只是简单的标记在每颗子树中用的观察数据。 然后对每一个观察样本找出一个最大投票得分,是由那些没有使用该观察样本进行训练的子树投票得到。
    n_jobs=1:并行job个数。这个在ensemble算法中非常重要,尤其是bagging(而非boosting,因为boosting的每次迭代之间有影响,所以很难进行并行化),因为可以并行从而提高性能。1=不并行;n:n个并行;-1:CPU有多少core,就启动多少job
    warm_start=False:热启动,决定是否使用上次调用该类的结果然后增加新的。 
    class_weight=None:各个label的权重。 

    random_state:此参数让结果容易复现。 一个确定的随机值将会产生相同的结果,在参数和训练数据不变的情况下。 我曾亲自尝试过将不同的随机状态的最优参数模型集成,有时候这种方法比单独的随机状态更好


    进行预测可以有几种形式:
    predict_proba(x):给出带有概率值的结果。每个点在所有label的概率和为1. 
    predict(x):直接给出预测结果。内部还是调用的predict_proba(),根据概率的结果看哪个类型的预测值最高就是哪个类型。 
    predict_log_proba(x):和predict_proba基本上一样,只是把结果给做了log()处理

    参考文献:

    [2]如何使用GBM/GBDT/GBRT -介绍梯度提升回归树的各种参数

    https://zwang1986.github.io/2016/04/24/%E5%A6%82%E4%BD%95%E7%94%A8%E5%A5%BDgbdt%EF%BC%88gradient_boosted_regression_trees%EF%BC%89/

    [3]介绍如何找到随机森林的各个最优参数

    https://blog.csdn.net/qq_16633405/article/details/61200502

    https://www.analyticsvidhya.com/blog/2015/06/tuning-random-forest-model/

    三、介绍GradientBoostingRegressor

    机器学习算法之岭回归、Lasso回归和ElasticNet回归

    https://www.biaodianfu.com/ridge-lasso-elasticnet.html

    参考文献:

    陈小洁的三只猫
  • 相关阅读:
    天府大讲堂:5G时代的物联网发展趋势与产业变革
    一步步教你轻松学奇异值分解SVD降维算法
    一步步教你轻松学支持向量机SVM算法之案例篇2
    一步步教你轻松学支持向量机SVM算法之理论篇1
    一步步教你轻松学主成分分析PCA降维算法
    一步步教你轻松学关联规则Apriori算法
    一步步教你轻松学K-means聚类算法
    一步步教你轻松学逻辑回归模型算法
    一步步教你轻松学朴素贝叶斯模型实现篇2
    一步步教你轻松学朴素贝叶斯模型算法理论篇1
  • 原文地址:https://www.cnblogs.com/ccpang/p/11312924.html
Copyright © 2011-2022 走看看