zoukankan      html  css  js  c++  java
  • 笔记:《零基础搞定机器学习及深度学习(覃秉丰)》

    引自:《零基础搞定机器学习及机器学习》(网易云课堂 - 覃秉丰)

    线性回归

    回归分析最典型的例子就是“房价预测”。

    代价函数

    相关系数

    决定系数

    y为真实值,加 - 表示均值,加 ^ 表示预测值。

    梯度下降法

    用梯度下降法求解线性回归

    对代价函数J(θ)的求偏导,并利用梯度下降法更新权值,不断迭代……

    多元线性回归

    模型方程,以及代价函数:

    运用梯度下降法(求偏导,迭代更新权值):

    多项式回归

    标准方程法

    例如:以下为多元房价特征,进行房价预测:

    这里,将多个特征作为方程的因变量(多元特征向量),对w求导时就涉及到向量的导数:

    对比梯度下降法与标准方程法

    其他概念

    数据归一化

    均值标准化

    交叉验证法

    适用于数据较少时对特征的训练

    过拟合

    正则化(Regularized)

    用于防止过拟合

    岭回归(Ridge Regression)

    代价函数,采用L2正则化:

    LESSO

    逻辑回归

    Sigmoid/Logistic Function

    决策边界

    逻辑回归的代价函数

    利用梯度下降法求解代价函数的最小值:

    多分类问题

    逻辑回归的正则化

    正确率和召回率

    正确率与召回率的指标

    KNN

    决策树

    ID3算法

    C4.5算法

    CART算法

    剪枝:预剪枝、后剪枝

    决策树的评价(适用领域)

    有点:小规模数据集有效

    缺点:

    • 处理连续变量不好
    • 类别较多时,错误增加的比较快
    • 不能处理大量数据

    集成学习

    Bagging

    首先,进行一种有放回的抽样~

    每个数据集,都采用一种不同的学习算法(或者同一个算法,得到不同的模型)

    效果如下:

    随机森林

    boosting(Adaptive Boosting,自适应增强)

    学习器的重点放在“容易”出错的地方——增加出错数据的概率(样本采样的权值)。

    Stacking

    使用多个不同的分类器对训练集进行预测,把预测得到的结果作为次级分类器的输入。次级分类器的输出则是整个模型的最终预测结果。

    集成学习的总结

    ——人多力量大、集众家之言,以民主的方式决定正确的预测结果。

    贝叶斯分析

    朴素贝叶斯

    多特征时的概率计算,会导致计算量巨大……

    朴素贝叶斯算法,会假设特征X1, X2, X3...之间是相互独立的,则

    贝叶斯多项式模型

    伯努利模型

    混合模型

    高斯模型

    常用于处理连续性变量。

    大脑中的贝叶斯

    聚类算法

    无监督式学习——

    K-MEANS

    G:归类

    C:计算重心,然后调整中心点

  • 相关阅读:
    Android开发之Sqlite的使用
    ZOJ 3607 Lazier Salesgirl
    ZOJ 3769 Diablo III
    ZOJ 2856 Happy Life
    Ural 1119 Metro
    Ural 1146 Maximum Sum
    HDU 1003 Max Sum
    HDU 1160 FatMouse's Speed
    Ural 1073 Square Country
    Ural 1260 Nudnik Photographer
  • 原文地址:https://www.cnblogs.com/brt3/p/10421629.html
Copyright © 2011-2022 走看看