zoukankan      html  css  js  c++  java
  • 最小二乘法

    看到一篇不错的介绍最小二乘法的博客,其中有个idea很不错,在拟合线性函数的时候,求得的函数跟真实函数或者真实数据之间或多或少都会有一个误差。

    图中红色直线就是我们求得的线性函数。

    为了表示拟合的函数跟真实数据之间的误差,在函数后面添加了个误差项μ

    为了使这个总体误差最小,用残差平方和来表示:

    则通过Q最小确定这条直线,即确定,以为变量,把它们看作是Q的函数,就变成了一个求极值的问题,可以通过求导数得到。求Q对两个待估参数的偏导数:

    解得:


    最小二乘法vs梯度下降法

    1、跟梯度下降法求解回归模型一样,都是以残差平方和最小化作为优化策略。

    2、最小二乘法是直接通过矩阵运算(有时候计算很复杂)求解损失函数的极值,而梯度下降法是通过从初始点延梯度方向搜索局部最优值

    3、最小二乘法直接使用极值,将极值作为最小值。其假定有二:1,损失函数中极值就是最小值。2,损失函数具有极值。而梯度下降则不同,梯度下降并没有什么假定,是利用函数中某一点的梯度,一步步寻找到损失函数的局部最小值,之后对多个局部最小值进行比较(选定不同的初始值),确定全局最小值。

    4、总体来说:最小二乘法计算简单,但梯度下降法更加通用!


    参考博客:

    http://blog.csdn.net/qll125596718/article/details/8248249

    https://www.zhihu.com/question/20822481

  • 相关阅读:
    numpy通用函数
    机器学习之随机森林
    机器学习之支持向量机
    机器学习之逻辑回归
    机器学习之决策树
    机器学*之K*邻
    机器学习之线性回归
    模型之各个指标
    模型之信息熵
    模型之决策树
  • 原文地址:https://www.cnblogs.com/vincent-vg/p/7460679.html
Copyright © 2011-2022 走看看