zoukankan      html  css  js  c++  java
  • 《机器学习》第一周 一元回归法 | 模型和代价函数,梯度下降

    课程地址:https://www.coursera.org/learn/machine-learning/lecture/8SpIM/gradient-descent

     此篇博文是我在聆听以上课程的笔记,欢迎交流分享。

     

    一 Model and Cost Function 模型及代价函数

    1 Model Representation 模型表示

      首先,教授介绍了一下课程中将会用到的符号和意义:

     

     

     

     

     

     

     

     

     

     

    m:训练样本的数目

    x:特征量

    y:目标变量

    (x,y):一个训练样本

    (x^(i),y^(i)):i不是指数,而是指第i行的样本

     

    Univariate linear regression:一元线性回归

    hθ(x)=θ0+θ1*x

     

     2 Cost Function 代价函数

    整体目标函数 --> 代价函数(平方误差函数,平方误差代价函数)

     

     

     

     

    二 Gradient Descent 梯度下降

       梯度下降算法可以将代价函数j最小化。梯度函数是一种很常用的算法,它不仅被用在线性回归上,也被广泛地应用于机器学习领域中的众多领域之中。

     下图是代价函数J中解决线性回归问题的问题概述:

    我们希望通过改变theta参数的值来最小化代价函数。

    这里,我们考虑有两个参数的情况,我们可以考虑到一个三维图形,两条坐标分别表示theta0和theta1。

    梯度下降要做的事,就是从某个起始theta对值开始,寻找最快的下降方向往下走,在路途上也不断地寻找最快下降的方向更改路线,最后到达一个局部最低点

     

    可以看到,如果起始点稍有偏差,那么我们可能会得到一个非常不同的局部最优解,这也是梯度下降的一个特点。

     

    我们从上图中获得了梯度下降的直观感受,接下来让我们看看梯度下降的定义:

     

    分析一下梯度下降定义公式的一些细节:

    我们用“:=”来表示赋值。注意,如果我们写作“=”,表达的意识并不是赋值,而是判断为真的说明,比如a=b,就是断言a的值是等于b的。

    α在这里是一个数字,被称为学习效率(learning rate),在梯度下降算法中,它控制了我们下山时会卖出多大的步子。因此如果α比较大,那我们用大步子下山,如果它比较小,我们就迈着很小的小碎步下山。

     

    在公式中,有一个很微妙的问题。在梯度下降中,我们要同时更新theta0和theta1,而不是先后更新。如果先更新了theta0,再更新theta1就会造成theta1的值出错。

     

    三 Gradient Descent Intuition 梯度下降的客观事实

    首先,教授向我们介绍了一下倒数和偏导的概念。教授为了解释明白,说了很长一段话,大概的意思就是,导数在梯度下降中的存在就是为了指出方向,指示我们向局部最低点进发。

     

    然后,就是α的问题。我们来讨论一下学习效率α大小对我们下山的影响:

     

    总结一下:α太小,那我们就像小宝宝一样往下爬得超级慢,但如果α太大,就可能一步跨过了最低点,甚至南辕北辙,无法收敛反而发散出去了。

     

    那如果我们恰好就在或者刚好走到了局部最低点呢?感受一下,这个时候导数是0,这是在告诉我们不要再走啦,不管步子迈多大,都只是原地踏步。所以此时就不再更新theta的值了。

     

    α值都固定了,梯度下降为什么也可以让代价函数收敛到一个局部最低点呢?

     

     

    事实上,我们并不会跨着相同的步子在最低点两端徘徊做无用功。因为导数不仅为我们指明了方向,也在影响我们每一步的大小。

    当我们接近一个局部最低点时,梯度下降也会自然第把步子跨小。所以,没有必要减小α

     

    三 Gradient Descent For Linear Regression 梯度下降在线性回归中的应用

    为了了解梯度下降法的应用,我们需要首先对梯度下降公式中的导数项进行分析:

     

    于是,我们直接得到了更新theta0和theta1的公式(如上图)。要推导这个公式需要一定的微积分基础,如果不熟悉也没有关系,你可以直接应用公式:

     

    事实证明,用于线性回归的代价函数总是一个凸函数(convex function),因此,这个函数没有任何局部最优解,只有一个全局最优解。并且无论什么时候,你对这种代价函数使用线性回归/递归下降法得到的结果,都会是收敛到全局最优值的。因为没有全局最优以外的其他局部最优点。

     

     

     

    最后,我们刚刚使用的算法有时也被称为“批量梯度下降法”,意思是——在梯度下降的每一步中,我们最终都要计算所有m值代价的求和运算,所以“批量梯度算法”也是指“一批”训练集“。

     

  • 相关阅读:
    9"边界匹配
    8劈分
    7替换
    5逻辑匹配
    4分组匹配
    3贪婪匹配与勉强匹配
    python多线程之线程传参
    多线程(类的形式)---线程同步
    多线程基础
    Linux----黑马程序员Linux教学视频简记(转载)
  • 原文地址:https://www.cnblogs.com/danscarlett/p/5944517.html
Copyright © 2011-2022 走看看