zoukankan      html  css  js  c++  java
  • 梯度下降法推导,凸函数,收敛性推导

    1.梯度下降法的收敛性

    针对迭代式算法,我们就要Convergency Analysis(收敛性分析)

    (1)什么是平滑函数,非平滑函数?

    平滑函数--在每个点上求出梯度

    非平滑函数---在那个点上求不出梯度的,

    L-Lipschitz条件:是针对平滑函数的条件

    Logistic Regression ,Linear Regression都是满足L-Lipschitz条件的

    线性回归和逻辑回归都是凸函数

    f(x*)是最终的收敛后的解,代表的最终想达到的最小值

    我们的目标是通过学习的方式,使得f(xk)慢慢的接近f(x*),即

                                        

    这一项如果随着迭代次数的增加(梯度下降法),慢慢的变小,就等同于f(xk)慢慢的接近f(x*)。

    如果这一项的变小的趋势非常快,代表梯度下降法比较优质,而且很快可以收敛。

    一个好的算法,在有限的最好的次数之内,可以看到A算法,在20次迭代,f(xk)接近f(x*)的速度比较快。

              

    ε表示k次迭代,真实的值与预测值之间只存在ε的差距

    推导过程:

     

    2.凸函数的性质

     

     

     

     

     

     3.L-Lipschitz条件及定理

    两个定理:

    4.收敛性推导

     

     

     上面的f(xi+1)<=f(xi)表示的是:

    梯度下降法每次的更新一定要比之前的好,这是标准意义上的梯度下降法,随机梯度下降法不能保证每次的更新优于之前的。

  • 相关阅读:
    Spring——AOP
    Spring——事务管理
    分布式和集群的区别
    数据结构——二叉树
    数据结构——队列
    C语言 一维数组叠加为二维数组样例
    C语言一维数组转换为二维数组
    C语言 二维数组复制、清零及打印显示
    C语言 动态创建二维数组
    java byte【】数组与文件读写(增加新功能)
  • 原文地址:https://www.cnblogs.com/GumpYan/p/13681088.html
Copyright © 2011-2022 走看看