zoukankan      html  css  js  c++  java
  • 多元线性回归

    多元线性回归

    标签: 线性回归 多元线性回归 吴恩达


    1. 假设函数

    [h_ heta(x) = heta_0 + heta_1x_1 + heta_2x_2 +cdots+ heta_nx_n ]

      假设(x_0 = 1),则有$$h_ heta(x) = heta_0x_0 + heta_1x_1 + heta_2x_2 +cdots+ heta_nx_n$$
     
      即 $$h_ heta(x) = heta^TX $$
      其中:

      $$X = egin{bmatrix} x_0 \ x_1 \ x_2 \ vdots \ x_n end{bmatrix}quad
      
       heta = egin{bmatrix} heta_0 \ heta_1 \ heta_2 \ vdots \ heta_n end{bmatrix}quad$$
      

    2. 代价函数

    [J( heta) = frac{1}{2m}sum_{i=0}^{m}( heta^Tx^{(i)}-y^{(i)})^2 ]

    或者

    [J( heta) = frac{1}{2m}sum_{i=0}^{m}((sum_{j=0}^{n} heta_jx^{(i)}_j)-y^{(i)})^2 ]

    代价函数依据上一篇博客所讲述的内容以及假设函数推导而来。即:

    [J( heta) = frac{1}{2m}sum_{i=0}^{m}(h_ heta(x^{(i)})-y^{(i)})^2 ]

      

    3. 梯度下降

    (1) 方法

      Repeat {
        ( heta_j := heta_j - alphafrac{partial}{partial heta_j}J( heta))
      }
      同时 更新每个参数。
      容易计算得:

      $$frac{partial}{partial heta_j}J( heta) = frac{1}{m}sum_{i=0}{m}(h_ heta(x{(i)})-y{(i)})x{(i)}_j$$

      因此得到:

      $$ heta_j := heta_j - alphafrac{1}{m}sum_{i=0}{m}(h_ heta(x{(i)})-y{(i)})x{(i)}_j$$
      

    (2) 特征缩放

    图片来自吴恩达教授机器学习公开课视频截图
    特征缩放的原因如上图所示,(图片来自吴恩达教授机器学习公开课视频截图),特征缩放能使得梯度下降更快地收敛。

    (3) 学习速率 (alpha)

    (alpha)的值如果太大,容易造成震荡或不收敛,太小则学习速率太慢。实际操作中根据经验或尝试逐步调节参数。

  • 相关阅读:
    【题解】小Z的袜子
    浅谈最小生成树
    【题解】钻石收藏家
    浅谈线段树
    浅谈拓扑排序
    浅谈树的直径和树的重心
    浅谈求逆序对
    浅谈欧拉回路
    浅谈离散化
    浅谈高斯消元
  • 原文地址:https://www.cnblogs.com/beisong/p/5697847.html
Copyright © 2011-2022 走看看