zoukankan      html  css  js  c++  java
  • (六) 6.3 Neurons Networks Gradient Checking

    BP算法很难调试,一般情况下会隐隐存在一些小问题,比如(off-by-one error),即只有部分层的权重得到训练,或者忘记计算bais unit,这虽然会得到一个正确的结果,但效果差于准确BP得到的结果。

    有了cost function,目标是求出一组参数W,b,这里以	extstyle 	heta表示,cost function 暂且记做	extstyle J(	heta)。假设 	extstyle J : Re mapsto Re,则 	extstyle 	heta in Re,即一维情况下的Gradient Descent:

    egin{align}
	heta := 	heta - alpha frac{d}{d	heta}J(	heta).
end{align}

    根据6.2中对单个参数单个样本的求导公式:

     
egin{align}
frac{partial}{partial W_{ij}^{(l)}} J(W,b; x, y) &= a^{(l)}_j delta_i^{(l+1)} \
frac{partial}{partial b_{i}^{(l)}} J(W,b; x, y) &= delta_i^{(l+1)}.
end{align}

    可以得到每个参数的偏导数,对所有样本累计求和,可以得到所有训练数据对参数 	extstyle 	heta 的偏导数记做 	extstyle g(	heta) ,	extstyle g(	heta) 是靠BP算法求得的,为了验证其正确性,看下图回忆导数公式:

    可见有:egin{align}
frac{d}{d	heta}J(	heta) = lim_{epsilon 
ightarrow 0}
frac{J(	heta+ epsilon) - J(	heta-epsilon)}{2 epsilon}.
end{align}那么对于任意 	extstyle 	heta 值,我们都可以对等式左边的导数用:

    egin{align}
frac{J(	heta+{
m EPSILON}) - J(	heta-{
m EPSILON})}{2 	imes {
m EPSILON}}
end{align}来近似。

    给定一个被认为能计算 	extstyle frac{d}{d	heta}J(	heta) 的函数	extstyle g(	heta),可以用下面的数值检验公式

    egin{align}
g(	heta) approx
frac{J(	heta+{
m EPSILON}) - J(	heta-{
m EPSILON})}{2 	imes {
m EPSILON}}.
end{align}

    应用时,通常把	extstyle EPSILON设置为一个很小的常量,比如在	extstyle 10^{-4} 数量级,最好不要太小了,会造成数值的舍入误差。上式两端值的接近程度取决于 	extstyle J 的具体形式。假定	extstyle {
m EPSILON} = 10^{-4} 的情况下,上式左右两端至少有4位有效数字是一样的(通常会更多)。

    	extstyle 	heta in Re^n是一个n维向量而不是实数时,且 	extstyle J: Re^n mapsto Re,在 Neorons Network 中,J(W,b)可以想象为 W,b 组合扩展而成的一个长向量 	extstyle 	heta,现在又一个计算 	extstyle frac{partial}{partial 	heta_i} J(	heta)的函数 	extstyle g_i(	heta),如何检验	extstyle g_i(	heta)能否输出到正确结果呢,用	extstyle frac{partial}{partial 	heta_i} J(	heta)的取值来检验,对于向量的偏导数:

    根据上图,对 	extstyle 	heta求导时,只需要在向量的第i维上进行加减操作,然后求值即可,定义 	extstyle 	heta^{(i+)} = 	heta +
{
m EPSILON} 	imes vec{e}_i,其中

    egin{align}
vec{e}_i = egin{bmatrix}0 \ 0 \ vdots \ 1 \ vdots \ 0end{bmatrix}
end{align}

    	extstyle 	heta^{(i+)} 和 	extstyle 	heta 几乎相同,除了第 	extstyle i 行元素增加了 	extstyle EPSILON,类似地,	extstyle 	heta^{(i-)} = 	heta - {
m EPSILON} 	imes vec{e}_i 得到的第 	extstyle i 行减小了 	extstyle EPSILON,然后求导并与	extstyle g_i(	heta)比较:

    egin{align}
g_i(	heta) approx
frac{J(	heta^{(i+)}) - J(	heta^{(i-)})}{2 	imes {
m EPSILON}}.
end{align}

    中的参数对应的是参数向量中一个分量的细微变化,损失函数J 在不同情况下会有不同的值(比如三层NN 或者 三层autoencoder(需加上稀疏项)),上式中左边为BP算法的结果,右边为真正的梯度,只要两者很接近,说明BP算法是在正确工作,对于梯度下降中的参数是按照如下方式进行更新的:

     egin{align}
W^{(l)} &= W^{(l)} - alpha left[ left(frac{1}{m} Delta W^{(l)} 
ight) + lambda W^{(l)}
ight] \
b^{(l)} &= b^{(l)} - alpha left[frac{1}{m} Delta b^{(l)}
ight]
end{align}

    即有 	extstyle g_i(	heta) 分别为:

    egin{align}

abla_{W^{(l)}} J(W,b) &= left( frac{1}{m} Delta W^{(l)} 
ight) + lambda W^{(l)} \

abla_{b^{(l)}} J(W,b) &= frac{1}{m} Delta b^{(l)}.
end{align}

    最后只需总体损失函数J(W,b)的偏导数与上述	extstyle g_i(	heta) 的值比较即可。

    除了梯度下降外,其他的常见的优化算法:1) 自适应	extstyle alpha的步长,2) BFGS L-BFGS,3) SGD,4) 共轭梯度算法,以后涉及到再看。

  • 相关阅读:
    斜率DP小结
    CF 1059 D Nature Reserve(double 精度问题)
    ZOJ 3747 Attack on Titans(DP+思维)
    BZOJ 1933 Bookcase 书柜的尺寸
    异或的一些性质
    (学习5 分治思想)最短对的问题
    (学习4)二分归并排序
    mac上git与github的联动
    (学习3)二分法与二叉查找树
    (学习2)Floyd和Dijkstra算法
  • 原文地址:https://www.cnblogs.com/ooon/p/5297200.html
Copyright © 2011-2022 走看看