zoukankan      html  css  js  c++  java
  • tf.train.AdamOptimizer()函数解析

    欢迎关注WX公众号:【程序员管小亮】

    tf.train.AdamOptimizer()函数是Adam优化算法:是一个寻找全局最优点的优化算法,引入了二次方梯度校正。

    tf.train.AdamOptimizer.__init__(
    	learning_rate=0.001, 
    	beta1=0.9, 
    	beta2=0.999, 
    	epsilon=1e-08, 
    	use_locking=False, 
    	name='Adam'
    )
    

    参数

    • learning_rate:张量或浮点值。学习速率
    • beta1:一个浮点值或一个常量浮点张量。一阶矩估计的指数衰减率
    • beta2:一个浮点值或一个常量浮点张量。二阶矩估计的指数衰减率
    • epsilon:数值稳定性的一个小常数
    • use_locking:如果True,要使用lock进行更新操作
    • `name``:应用梯度时为了创建操作的可选名称。默认为“Adam”

    本质上是带有动量项的RMSprop,它利用梯度的一阶矩估计和二阶矩估计动态调整每个参数的学习率。

    Adam的优点主要在于经过偏置校正后,每一次迭代学习率都有个确定范围,使得参数比较平稳。

    在这里插入图片描述

    python课程推荐。
    在这里插入图片描述

    参考文章:

    tensorflow Optimizers

  • 相关阅读:
    洛谷⑨月月赛Round2 官方比赛 OI
    3243 区间翻转
    3279 奶牛健美操
    1959 拔河比赛
    2144 砝码称重 2
    BZOJ1999 树网的核[数据加强版]
    U4704 函数
    U4687 不无聊的序列
    U4699 鸡蛋
    UVA 11212 Editing a Book
  • 原文地址:https://www.cnblogs.com/hzcya1995/p/13302840.html
Copyright © 2011-2022 走看看