zoukankan      html  css  js  c++  java
  • 神经网络中Epoch、Iteration、Batchsize相关理解

    batch

    深度学习的优化算法,说白了就是梯度下降。每次的参数更新有两种方式。

    第一种,遍历全部数据集算一次损失函数,然后算函数对各个参数的梯度,更新梯度。这种方法每更新一次参数都要把数据集里的所有样本都看一遍,计算量开销大,计算速度慢,不支持在线学习,这称为Batch gradient descent,批梯度下降。

    另一种,每看一个数据就算一下损失函数,然后求梯度更新参数,这个称为随机梯度下降,stochastic gradient descent。这个方法速度比较快,但是收敛性能不太好,可能在最优点附近晃来晃去,hit不到最优点。两次参数的更新也有可能互相抵消掉,造成目标函数震荡的比较剧烈。

    为了克服两种方法的缺点,现在一般采用的是一种折中手段,mini-batch gradient decent,小批的梯度下降,这种方法把数据分为若干个批,按批来更新参数,这样,一个批中的一组数据共同决定了本次梯度的方向,下降起来就不容易跑偏,减少了随机性。另一方面因为批的样本数与整个数据集相比小了很多,计算量也不是很大。

    基本上现在的梯度下降都是基于mini-batch的,所以深度学习框架的函数中经常会出现batch_size,就是指这个。 
    关于如何将训练样本转换从batch_size的格式可以参考训练样本的batch_size数据的准备

    iterations

    iterations(迭代):每一次迭代都是一次权重更新,每一次权重更新需要batch_size个数据进行Forward运算得到损失函数,再BP算法更新参数。1个iteration等于使用batchsize个样本训练一次。

    epochs

    epochs被定义为向前和向后传播中所有批次的单次训练迭代。这意味着1个周期是整个输入数据的单次向前和向后传递。简单说,epochs指的就是训练过程中数据将被“轮”多少次,就这样。

    举个例子

    batchsize:中文翻译为批大小(批尺寸)。

    简单点说,批量大小将决定我们一次训练的样本数目。

    batch_size将影响到模型的优化程度和速度。

    为什么需要有Batch_Size:

    batchsize的正确选择是为了在内存效率和内存容量之间寻找最佳平衡。

    Batch_Size的取值:

    全批次(蓝色)

    如果数据集比较小,我们就采用全数据集。全数据集确定的方向能够更好的代表样本总体,从而更准确的朝向极值所在的方向。

    注:对于大的数据集,我们不能使用全批次,因为会得到更差的结果。

    迷你批次(绿色)

    选择一个适中的Batch_Size值。就是说我们选定一个batch的大小后,将会以batch的大小将数据输入深度学习的网络中,然后计算这个batch的所有样本的平均损失,即代价函数是所有样本的平均。

    随机(Batch_Size等于1的情况)(红色)

    每次修正方向以各自样本的梯度方向修正,横冲直撞各自为政,难以达到收敛。

    适当的增加Batch_Size的优点
    1.通过并行化提高内存利用率。
    2.单次epoch的迭代次数减少,提高运行速度。(单次epoch=(全部训练样本/batchsize)/iteration=1)
    3.适当的增加Batch_Size,梯度下降方向准确度增加,训练震动的幅度减小。(看上图便可知晓)
    经验总结:
    相对于正常数据集,如果Batch_Size过小,训练数据就会非常难收敛,从而导致underfitting。
    增大Batch_Size,相对处理速度加快。
    增大Batch_Size,所需内存容量增加(epoch的次数需要增加以达到最好的结果)
    这里我们发现上面两个矛盾的问题,因为当epoch增加以后同样也会导致耗时增加从而速度下降。因此我们需要寻找最好的Batch_Size。
    再次重申:Batch_Size的正确选择是为了在内存效率和内存容量之间寻找最佳平衡。


    iteration:中文翻译为迭代。
    迭代是重复反馈的动作,神经网络中我们希望通过迭代进行多次的训练以达到所需的目标或结果。
    每一次迭代得到的结果都会被作为下一次迭代的初始值。
    一个迭代=一个正向通过+一个反向通过。


    epoch:中文翻译为时期。
    一个时期=所有训练样本的一个正向传递和一个反向传递。


    深度学习中经常看到epoch、iteration和batchsize,下面按照自己的理解说说这三个区别:
    (1)batchsize:批大小。在深度学习中,一般采用SGD训练,即每次训练在训练集中取batchsize个样本训练;
    (2)iteration:1个iteration等于使用batchsize个样本训练一次;
    (3)epoch:1个epoch等于使用训练集中的全部样本训练一次;

    举个例子,训练集有1000个样本,batchsize=10,那么:
    训练完整个样本集需要:
    100次iteration,1次epoch。

  • 相关阅读:
    HDU 1495 非常可乐
    ja
    Codeforces Good Bye 2016 E. New Year and Old Subsequence
    The 2019 Asia Nanchang First Round Online Programming Contest
    Educational Codeforces Round 72 (Rated for Div. 2)
    Codeforces Round #583 (Div. 1 + Div. 2, based on Olympiad of Metropolises)
    AtCoder Regular Contest 102
    AtCoder Regular Contest 103
    POJ1741 Tree(点分治)
    洛谷P2634 [国家集训队]聪聪可可(点分治)
  • 原文地址:https://www.cnblogs.com/captain-dl/p/10237006.html
Copyright © 2011-2022 走看看