zoukankan      html  css  js  c++  java
  • 机器学习基础

    1. 线性回归

    XY是线性的

     

     是偏置(有点像截距),防止Y0,矩阵表示时,为全1

    :数据集收集的时候有误差(高斯误差,均值为0

     

    表达向量很相似

     

    D,代表所有的数据,相互独立

     

     

    2. Basic Expansion

    2.1 使用Basis expansion捕捉自变量和因变量的非线性关系

     

     

     

    2.2 理解Bias-variance的关系

    2.3 过拟合与正则化

    过拟合

    获取更多训练数据防止过拟合

     

    模型与trainvalid集的关系

    High Varinance:数据对于模型的影响很大

     

     

     

    3. 正则化Regularization

    解决一个biasvariance之间的平衡问题。

     

     

    梯度的反方向朝着圆心,圆心取得最小值

     

    综合损失函数和正则化的函数的等高线拼接在一起,得到最小值

     

    3.1  L1有作特征选择的特性

     

    Lamda 的大小可调整

     

    3.2 L2

     

     

    4. RidgeLassoBias-VarianceElasticNet

     

    4.1 RidgeL1+回归

     

    4.2 LassoL2+回归

     

    Lasso可以相当于做了一系列的特征工程,但是ridge做不到

    允许相关预测变量的存在:是因为当lamda足够大的时候可以忽略x*x^T

    实际模型应用中,需要交叉验证进行测试,看看L1好还是L2好,应该选择啥

     

    4.3 ElasticNetL1+L2

     

    5. 逻辑回归(logistic

    5.1 定义:

     

    逻辑回归=分类!= 回归

    希望我们y[0,1]

     

    因为sigmod的特殊性,我们可以用线性的方式来表示非线性:

     

    5.2 损失函数

     

    梯度下降法更新

     

    逻辑回归的的物理意义:

     

     

    5.3 似然函数

    似然函数和损失函数之间差了个‘负’

     

     

     

    6. Softmax 多元逻辑回归

     

    7. 梯度下降算法

    7.1 定义

     

     

    7.2 批梯度下降法

     

    7.3  随机梯度下降法

     

     

    7.4  小批量的梯度下降法*(用的最多)

     

  • 相关阅读:
    cocos2d-x 团队碰面有感
    2014年3月份 月会
    2014年特种兵训练营感想
    web 的简单框架
    【实用小技巧】virtual box 虚拟机复制
    flash的Socket通讯沙箱和安全策略问题
    Codeforces Round #237 (Div. 2)
    类的静态常量数组初始化
    关于自己的成长计划
    Android
  • 原文地址:https://www.cnblogs.com/Towerb/p/14014771.html
Copyright © 2011-2022 走看看