zoukankan      html  css  js  c++  java
  • tf.train.AdamOptimizer 优化器

    adaptive moment estimation(自适应矩估计)

    tf.train.AdamOptimizer(
        learning_rate=0.001,
        beta1=0.9,
        beta2=0.999,
        epsilon=1e-08,
        use_locking=False,
        name='Adam'
    )
    
    参数:
    learning_rate: (学习率)张量或者浮点数
    beta1:  浮点数或者常量张量 ,表示 The exponential decay rate for the 1st moment estimates.
    beta2:  浮点数或者常量张量 ,表示 The exponential decay rate for the 2nd moment estimates.
    epsilon: A small constant for numerical stability. This epsilon is "epsilon hat" in the Kingma and Ba paper (in the formula just before Section 2.1), not the epsilon in         Algorithm 1 of the paper.
    use_locking: 为True时锁定更新
    name:  梯度下降名称,默认为 "Adam"
    
  • 相关阅读:
    第七周作业
    第六周作业
    第五周作业
    第四周作业
    第三周作业
    第二周作业
    求最大值及下标
    查找整数
    抓老鼠
    第五周作业
  • 原文地址:https://www.cnblogs.com/smallredness/p/11203357.html
Copyright © 2011-2022 走看看