zoukankan      html  css  js  c++  java
  • TensorFlow笔记-07-神经网络优化-学习率,滑动平均

    TensorFlow笔记-07-神经网络优化-学习率,滑动平均

    学习率

    • 学习率 learning_rate: 表示了每次参数更新的幅度大小。学习率过大,会导致待优化的参数在最小值附近波动,不收敛;学习率过小,会导致待优化的参数收敛缓慢
    • 在训练过程中,参数的更新向着损失函数梯度下降的方向
    • 参数的更新公式为:
      wn+1 = wn - learning_rate▽
    • 假设损失函数 loss = (w + 1)2。梯度是损失函数 loss 的导数为 ▽ = 2w + 2 。如参数初值为5,学习率为 0.2,则参数和损失函数更新如下:

    1次 ·······参数w: 5 ·················5 - 0.2 * (2 * 5 + 2) = 2.6
    2次 ·······参数w: 2.6 ··············2.6 - 0.2 * (2 * 2.6 + 2) = 1.16
    3次 ·······参数w: 1.16 ············1.16 - 0.2 * (2 * 1.16 +2) = 0.296
    4次 ·······参数w: 0.296

    损失函数loss = (w + 1) 2 的图像为:
    这里写图片描述
    由图可知,损失函数 loss 的最小值会在(-1,0)处得到,此时损失函数的导数为 0,得到最终参数 w = -1。
    代码 tf08learn 文件:https://xpwi.github.io/py/TensorFlow/tf08learn.py

    # coding: utf-8
    # 设损失函数loss = (w + 1)^2 , 令 w 是常数 5。反向传播就是求最小
    # loss 对应的 w 值
    
    import tensorflow as tf
    # 定义待优化参数 w 初值赋予5
    w = tf.Variable(tf.constant(5, dtype=tf.float32))
    # 定义损失函数 loss
    loss = tf.square(w + 1)
    # 定义反向传播方法
    train_step = tf.train.GradientDescentOptimizer(0.20).minimize(loss)
    # 生成会话,训练40轮
    with tf.Session() as sess:
        init_op = tf.global_variables_initializer()
        sess.run(init_op)
        for i in range(40):
            sess.run(train_step)
            W_val = sess.run(w)
            loss_val = sess.run(loss)
            print("After %s steps: w: is %f,  loss: is %f." %(i, W_val, loss_val))
    

    运行结果

    这里写图片描述
    运行结果分析: 由结果可知,随着损失函数值得减小,w 无线趋近于 -1

    学习率的设置

    • 学习率过大,会导致待优化的参数在最小值附近波动,不收敛;学习率过小,会导致待优化的参数收敛缓慢
    • 例如:
    • (1) 对于上例的损失函数loss = (w + 1) 2,则将上述代码中学习率改为1,其余内容不变
      实验结果如下:
      这里写图片描述
    • (2) 对于上例的损失函数loss = (w + 1) 2,则将上述代码中学习率改为0.0001,其余内容不变
      实验结果如下:
      这里写图片描述
      由运行结果可知,损失函数 loss 值缓慢下降,w 值也在小幅度变化,收敛缓慢

    指数衰减学习率

    • 指数衰减学习率:学习率随着训练轮数变化而动态更新
      这里写图片描述
      其中,LEARNING_RATE_BASE 为学习率初始值,LEARNING_RATE_DECAY 为学习率衰减率,global_step 记录了当前训练轮数,为了不可训练型参数。学习率 learning_rate 更新频率为输入数据集总样本数除以每次喂入样本数。若 staircase 设置为 True 时,表示 global_step / learning rate step 取整数,学习率阶梯型衰减;若 staircase 设置为 False 时,学习率会是一条平滑下降的曲线。
    • 例如:
      在本例中,模型训练过程不设定固定的学习率,使用指数衰减学习率进行训练。其中,学习率初值设置为0.1,学习率衰减值设置为0.99,BATCH_SIZE 设置为1。
    • 代码 tf08learn2 文件:https://xpwi.github.io/py/TensorFlow/tf08learn2.py
    # coding: utf-8
    '''
     设损失函数loss = (w + 1)^2 , 令 w 初值是常数5,
    反向传播就是求最优 w,即求最小 loss 对应的w值。
     使用指数衰减的学习率,在迭代初期得到较高的下降速度,
    可以在较小的训练轮数下取得更有收敛度
    '''
    
    import tensorflow as tf
    
    LEARNING_RATE_BASE = 0.1 # 最初学习率
    LEARNING_RATE_DECAY = 0.99 # 学习率衰减率
    # 喂入多少轮 BATCH_SIZE 后,更新一次学习率,一般设置为:样本数/BATCH_SIZE
    LEARNING_RATE_STEP = 1
    
    # 运行了几轮 BATCH_SIZE 的计算器,初始值是0,设为不被训练
    global_step = tf.Variable(0, trainable=False)
    
    # 定义指数下降学习率
    learning_rate = tf.train.exponential_decay(LEARNING_RATE_BASE, global_step,
    LEARNING_RATE_STEP, LEARNING_RATE_DECAY, staircase=True)
    
    # 定义待优化参数 w 初值赋予5
    w = tf.Variable(tf.constant(5, dtype=tf.float32))
    # 定义损失函数 loss
    loss = tf.square(w+1)
    # 定义反向传播方法
    # 学习率为:0.2
    train_step = tf.train.GradientDescentOptimizer(learning_rate).minimize(loss, global_step=global_step)
    # 生成会话,训练40轮
    with tf.Session() as sess:
        init_op = tf.global_variables_initializer()
        sess.run(init_op)
        for i in range(40):
            sess.run(train_step)
            learning_rate_val = sess.run(learning_rate)
            global_step_val = sess.run(global_step)
            w_val = sess.run(w)
            loss_val = sess.run(loss)
            print("After %s steps: global_step is %f; : w: is %f;learn rate is %f; loss: is %f."
                  %(i,global_step_val, w_val, learning_rate_val, loss_val))
    

    运行结果

    这里写图片描述
    由结果可以看出,随着训练轮数增加学习率在不断减小

    滑动平均

    • **滑动平均:记录了一段时间内模型中所有参数 w 和 b 各自的平均值,利用滑动平均值可以增强模型的泛化能力
    • **滑动平均值(影子)计算公式:影子 = 衰减率 * 参数
    • 其中衰减率 = min{AVERAGEDECAY(1+轮数/10+轮数)},影子初值 = 参数初值
    • 用 Tensorflow 函数表示:

    **ema = tf.train.ExpoentialMovingAverage(MOVING_AVERAGE_DECAY, global_step)

    • 其中 MOVING_AVERAGE_DECAY 表示滑动平均衰减率,一般会赋予接近1的值,global_step 表示当前训练了多少轮

    **ema_op = ema.apply(tf.trainable_varables())

    • 其中 ema.apply() 函数实现对括号内参数的求滑动平均,tf.trainable_variables() 函数实现把所有待训练参数汇总为列表

    with tf.control_dependencies([train_step, ema_op]):
    **train_op = tf.no_op(name='train') **

    • 其中,该函数实现滑动平均和训练步骤同步运行
    • 查看模型中参数的平均值,可以用 ema.average() 函数
    • 例如:
      在神经网络中将 MOVING_AVERAGE_DECAY 设置为 0.9,参数 w1 设置为 0,w1 滑动平均值设置为 0
    • (1)开始时,轮数 global_step 设置为 0,参数 w1 更新为 1,则滑动平均值为:

    **w1 滑动平均值 = min(0.99, 1/10)0+(1-min(0.99,1/10))1 = 0.9 **

    • (2)当轮数 global_step 设置为 0,参数 w1 更新为 10,以下代码 global_step 保持 100,每次执行滑动平均操作影子更新,则滑动平均值变为:

    **w1 滑动平均值 = min(0.99, 101/110)0.9+(1-min(0.99,101/110))10 = 0.826+0.818 = 1.644 **

    • (3)再次运行,参数 w1 更新为 1.644,则滑动平均值变为:

    **w1

    更多文章链接:Tensorflow 笔记


    - 本笔记不允许任何个人和组织转载
  • 相关阅读:
    QTP自动化测试项目管理最佳实践指南
    让自动化测试更“智能化”
    Selenium是否支持HTML5?
    QTP\UFT11.5破解
    亿能测试视频教程 QTP自动化测试视频系列(第26、27、28集)
    UIAutomator学习笔记V0.1
    TIB自动化测试工作室2012年资料汇总
    《Automated Software Testing》 2013年 4月 电子杂志下载
    QTP11.5全新自动化测试体验 移动终端测试
    亿能测试视频教程 QTP自动化测试视频系列(第10、11集)
  • 原文地址:https://www.cnblogs.com/xpwi/p/9636391.html
Copyright © 2011-2022 走看看