zoukankan      html  css  js  c++  java
  • tf.train.AdamOptimizer()函数解析

    欢迎关注WX公众号:【程序员管小亮】

    tf.train.AdamOptimizer()函数是Adam优化算法:是一个寻找全局最优点的优化算法,引入了二次方梯度校正。

    tf.train.AdamOptimizer.__init__(
    	learning_rate=0.001, 
    	beta1=0.9, 
    	beta2=0.999, 
    	epsilon=1e-08, 
    	use_locking=False, 
    	name='Adam'
    )
    

    参数

    • learning_rate:张量或浮点值。学习速率
    • beta1:一个浮点值或一个常量浮点张量。一阶矩估计的指数衰减率
    • beta2:一个浮点值或一个常量浮点张量。二阶矩估计的指数衰减率
    • epsilon:数值稳定性的一个小常数
    • use_locking:如果True,要使用lock进行更新操作
    • `name``:应用梯度时为了创建操作的可选名称。默认为“Adam”

    本质上是带有动量项的RMSprop,它利用梯度的一阶矩估计和二阶矩估计动态调整每个参数的学习率。

    Adam的优点主要在于经过偏置校正后,每一次迭代学习率都有个确定范围,使得参数比较平稳。

    在这里插入图片描述

    python课程推荐。
    在这里插入图片描述

    参考文章:

    tensorflow Optimizers

  • 相关阅读:
    接口测试和性能测试
    loadrunner总结
    loadrunner 基本操作
    loadrunner安装和应用
    qtp安装和使用
    Quality Center安装步骤
    JIRA的安装及配置
    testlink使用方法
    python3常用模块--熟练使用
    python2和python3差异
  • 原文地址:https://www.cnblogs.com/hzcya1995/p/13302840.html
Copyright © 2011-2022 走看看