zoukankan      html  css  js  c++  java
  • 最优化方法之AdaGrad、RMSProp、Adam

    结论:

    1.简单来讲,设置全局学习率之后,每次通过,全局学习率逐参数的除以历史梯度平方和的平方根,使得每个参数的学习率不同

    2.效果是:在参数空间更为平缓的方向,会取得更大的进步(因为平缓,所以历史梯度平方和较小,对应学习下降的幅度较小)

    3.缺点是,使得学习率过早,过量的减少

    4.在某些模型上效果不错。

    算法流程如下:

     具体推导流程如下:

    可看出从x0点到最优点-b/2a需要走的步长为x0+b /2a刚好是一次微分和二次微分的比值。

    通过一阶导数近似斜率的方式,寻找其他代替减少大小就可以。

    RMSProp优化方法:

     

     

     Adam优化方法:

  • 相关阅读:
    软件工程第一次结对作业
    软件工程第二次作业
    vue之vuex
    ceshi
    第3次 结构与部分
    第二次作业
    获得领跑衫感言
    期末总结
    第十四,十五周作业
    第七周作业
  • 原文地址:https://www.cnblogs.com/limingqi/p/12618661.html
Copyright © 2011-2022 走看看