zoukankan      html  css  js  c++  java
  • 004-3-Optimizer优化器

    如何选择优化算法

    如果数据是稀疏的,就用自适用方法,即 Adagrad, Adadelta, RMSprop, Adam。

    RMSprop, Adadelta, Adam 在很多情况下的效果是相似的。

    Adam 就是在 RMSprop 的基础上加了 bias-correction 和 momentum,

    随着梯度变的稀疏,Adam 比 RMSprop 效果会好。

    整体来讲,Adam 是最好的选择

    很多论文里都会用 SGD,没有 momentum 等。SGD 虽然能达到极小值,但是比其它算法用的时间长,而且可能会被困在鞍点

    如果需要更快的收敛,或者是训练更深更复杂的神经网络,需要用一种自适应的算法。

    大牛的文章:

    https://www.cnblogs.com/guoyaohua/p/8542554.html

  • 相关阅读:
    C#
    Jquery
    JavaScript
    JavaScript
    JavaScript
    JavaScript
    Html
    JavaScript
    (转)SC Create 创建一个Windows系统服务
    我的MyGeneration
  • 原文地址:https://www.cnblogs.com/Mjerry/p/9828140.html
Copyright © 2011-2022 走看看