zoukankan      html  css  js  c++  java
  • 反向传播常用优化器

    github博客传送门
    csdn博客传送门

    计算出损失值后,这个损失值越小越好,梯度下降的算法就用在这里,帮助寻找最小的那个损失值,从而反推出 w 和 b 达到优化模型的效果

    常用的梯度下降法可以分为:

    1. 批量梯度下降:遍历全部数据集算一次损失,计算量大,计算速度慢,不支持在线学习
    2. 随机梯度下降:每看一个数据,就算一下损失,速度快,收敛性能不太好,较低点震荡比较剧烈
    3. 小批量梯度下降法:将数据分为多批,按批更新参数,相对前两种,这种方法比较折中
    # 一般的梯度下降算法
    Optimizertf.train.GradientDescentoptimizer(learning_rate,use_locking=False,name='Gradientdescent')
    # 创建Adadelta优化器
    tf.train.AdadeltaOptimizer(learning_rate=0.001,rho=0.95,epsilon=1e-08,use_locking=False,name='Adadelta')
    # 创建Adagrad优化器
    tf.train.AdagradOptimizer(learning_rate,initial_accumulator_value=0.1,use_locking=False,name='Adagrad')
    # 创建momentum优化器momentum:动量,一个Tensor或者浮点值
    tf.train.MomentumOptimizer(learning_rate,momentum,use_locking=False,name='Momentum',use_nesterov=False)
    # 创建Adam优化器
    tf.train.AdamOptimizer(learning_rate=0.001,beta1=0.9,beta2=0.999,epsilon=1e-08,use_locking=False,name='Adam')
    # 创建FTRL算法优化器
    tf.train.FtrlOptimizer(learning_rate,learning_rate_power=-0.5,initial_accumulator_value=0.1,l1_regularization_strength=0.0,l2_regularization_strength=0.0,use_locking=False,name='Ftrl')
    # 创建RMSProp算法优化器
    tf.train.RMSPropOptimizer(learning_rate,decay=0.9,momentum=0.0,epsilon=1e-10,use_locking=False,name='RMSProp')
    
  • 相关阅读:
    外媒评Mate 10 Pro:智慧拍照惊人,续航能力卓越
    pv(PageView)的解释
    pv(PageView)的解释
    pv(PageView)的解释
    pv(PageView)的解释
    对包含HttpContext.Current.Cache的代码进行单元测试
    读取excel模板填充数据 并合并相同文本单元格
    css
    Aragon:以太坊上的去中心化自治组织管理应用
    Futarchy: 对价值投票,对赌信念
  • 原文地址:https://www.cnblogs.com/Mrzhang3389/p/9903881.html
Copyright © 2011-2022 走看看