zoukankan      html  css  js  c++  java
  • BP神经网络

    概述

    以监督学习为例,假设我们有训练样本集  	extstyle (x(^ i),y(^ i)) ,那么神经网络算法能够提供一种复杂且非线性的假设模型 	extstyle h_{W,b}(x) ,它具有参数 	extstyle W, b ,可以以此参数来拟合我们的数据。

    为了描述神经网络,我们先从最简单的神经网络讲起,这个神经网络仅由一个“神经元”构成,以下即是这个“神经元”的图示:

    SingleNeuron.png

    这个“神经元”是一个以 	extstyle x_1, x_2, x_3 及截距 	extstyle +1 为输入值的运算单元,其输出为 	extstyle  h_{W,b}(x) = f(W^Tx) = f(sum_{i=1}^3 W_{i}x_i +b) ,其中函数 	extstyle f : Re mapsto Re 被称为“激活函数”。在本教程中,我们选用sigmoid函数作为激活函数 	extstyle f(cdot)

    
f(z) = frac{1}{1+exp(-z)}.

    可以看出,这个单一“神经元”的输入-输出映射关系其实就是一个逻辑回归(logistic regression)。

    虽然本系列教程采用sigmoid函数,但你也可以选择双曲正切函数(tanh):

    
f(z) = 	anh(z) = frac{e^z - e^{-z}}{e^z + e^{-z}},

    以下分别是sigmoid及tanh的函数图像

    Sigmoid activation function. Tanh activation function.

    	extstyle 	anh(z)  函数是sigmoid函数的一种变体,它的取值范围为 	extstyle [-1,1] ,而不是sigmoid函数的 	extstyle [0,1]

    注意,与其它地方(包括OpenClassroom公开课以及斯坦福大学CS229课程)不同的是,这里我们不再令 	extstyle x_0=1 。取而代之,我们用单独的参数 	extstyle b 来表示截距。

    最后要说明的是,有一个等式我们以后会经常用到:如果选择 	extstyle f(z) = 1/(1+exp(-z)) ,也就是sigmoid函数,那么它的导数就是 	extstyle f'(z) = f(z) (1-f(z)) (如果选择tanh函数,那它的导数就是 	extstyle f'(z) = 1- (f(z))^2 ,你可以根据sigmoid(或tanh)函数的定义自行推导这个等式。

    神经网络模型

    所谓神经网络就是将许多个单一“神经元”联结在一起,这样,一个“神经元”的输出就可以是另一个“神经元”的输入。例如,下图就是一个简单的神经网络:

    Network331.png

    我们使用圆圈来表示神经网络的输入,标上“	extstyle +1”的圆圈被称为偏置节点,也就是截距项。神经网络最左边的一层叫做输入层,最右的一层叫做输出层(本例中,输出层只有一个节点)。中间所有节点组成的一层叫做隐藏层,因为我们不能在训练样本集中观测到它们的值。同时可以看到,以上神经网络的例子中有3个输入单元(偏置单元不计在内),3个隐藏单元及一个输出单元

    我们用 	extstyle {n}_l 来表示网络的层数,本例中 	extstyle n_l=3 ,我们将第 	extstyle l 层记为 	extstyle L_l ,于是 	extstyle L_1 是输入层,输出层是 	extstyle L_{n_l} 。本例神经网络有参数 	extstyle (W,b) = (W^{(1)}, b^{(1)}, W^{(2)}, b^{(2)}) ,其中 	extstyle W^{(l)}_{ij} (下面的式子中用到)是第 	extstyle l 层第 	extstyle j 单元与第 	extstyle l+1 层第 	extstyle i 单元之间的联接参数(其实就是连接线上的权重,注意标号顺序), 	extstyle b^{(l)}_i 是第 	extstyle l+1 层第 	extstyle i 单元的偏置项。因此在本例中, 	extstyle W^{(1)} in Re^{3	imes 3}	extstyle W^{(2)} in Re^{1	imes 3} 。注意,没有其他单元连向偏置单元(即偏置单元没有输入),因为它们总是输出 	extstyle +1。同时,我们用 	extstyle s_l 表示第 	extstyle l 层的节点数(偏置单元不计在内)。

    我们用 	extstyle a^{(l)}_i 表示第 	extstyle l 层第 	extstyle i 单元的激活值(输出值)。当 	extstyle l=1 时, 	extstyle a^{(1)}_i = x_i ,也就是第 	extstyle i 个输入值(输入值的第 	extstyle i 个特征)。对于给定参数集合 	extstyle W,b ,我们的神经网络就可以按照函数 	extstyle h_{W,b}(x)  来计算输出结果。本例神经网络的计算步骤如下:

     
egin{align}
a_1^{(2)} &= f(W_{11}^{(1)}x_1 + W_{12}^{(1)} x_2 + W_{13}^{(1)} x_3 + b_1^{(1)})  \
a_2^{(2)} &= f(W_{21}^{(1)}x_1 + W_{22}^{(1)} x_2 + W_{23}^{(1)} x_3 + b_2^{(1)})  \
a_3^{(2)} &= f(W_{31}^{(1)}x_1 + W_{32}^{(1)} x_2 + W_{33}^{(1)} x_3 + b_3^{(1)})  \
h_{W,b}(x) &= a_1^{(3)} =  f(W_{11}^{(2)}a_1^{(2)} + W_{12}^{(2)} a_2^{(2)} + W_{13}^{(2)} a_3^{(2)} + b_1^{(2)}) 
end{align}

    我们用 	extstyle z^{(l)}_i 表示第 	extstyle l 层第 	extstyle i 单元输入加权和(包括偏置单元),比如, 	extstyle  z_i^{(2)} = sum_{j=1}^n W^{(1)}_{ij} x_j + b^{(1)}_i ,则 	extstyle a^{(l)}_i = f(z^{(l)}_i)

    这样我们就可以得到一种更简洁的表示法。这里我们将激活函数 	extstyle f(cdot) 扩展为用向量(分量的形式)来表示,即 	extstyle f([z_1, z_2, z_3]) = [f(z_1), f(z_2), f(z_3)] ,那么,上面的等式可以更简洁地表示为:

    egin{align}
z^{(2)} &= W^{(1)} x + b^{(1)} \
a^{(2)} &= f(z^{(2)}) \
z^{(3)} &= W^{(2)} a^{(2)} + b^{(2)} \
h_{W,b}(x) &= a^{(3)} = f(z^{(3)})
end{align}

    我们将上面的计算步骤叫作前向传播。回想一下,之前我们用 	extstyle a^{(1)} = x  表示输入层的激活值,那么给定第 	extstyle l 层的激活值 	extstyle a^{(l)} 后,第 	extstyle l+1 层的激活值 	extstyle a^{(l+1)} 就可以按照下面步骤计算得到:

     egin{align}
z^{(l+1)} &= W^{(l)} a^{(l)} + b^{(l)}   \
a^{(l+1)} &= f(z^{(l+1)})
end{align}

    将参数矩阵化,使用矩阵-向量运算方式,我们就可以利用线性代数的优势对神经网络进行快速求解。

    目前为止,我们讨论了一种神经网络,我们也可以构建另一种结构的神经网络(这里结构指的是神经元之间的联接模式),也就是包含多个隐藏层的神经网络。最常见的一个例子是 	extstyle  n_l 层的神经网络,第 	extstyle  1 层是输入层,第 	extstyle  n_l 层是输出层,中间的每个层 	extstyle  l 与层 	extstyle  l+1 紧密相联。这种模式下,要计算神经网络的输出结果,我们可以按照之前描述的等式,按部就班,进行前向传播,逐一计算第 	extstyle  L_2 层的所有激活值,然后是第 	extstyle  L_3 层的激活值,以此类推,直到第 	extstyle  L_{n_l} 层。这是一个前馈神经网络的例子,因为这种联接图没有闭环或回路。

    神经网络也可以有多个输出单元。比如,下面的神经网络有两层隐藏层: 	extstyle L_2  及 	extstyle L_3 ,输出层 	extstyle L_4 有两个输出单元。

    Network3322.png

    要求解这样的神经网络,需要样本集  	extstyle (x^{(i)}, y^{(i)})  ,其中 	extstyle y^{(i)} in Re^2 。如果你想预测的输出是多个的,那这种神经网络很适用。(比如,在医疗诊断应用中,患者的体征指标就可以作为向量的输入值,而不同的输出值 	extstyle y_i 可以表示不同的疾病存在与否。)

    反向传导算法

    From Ufldl

     
    Jump to: navigation, search

    假设我们有一个固定样本集 	extstyle { (x^{(1)}, y^{(1)}), ldots, (x^{(m)}, y^{(m)}) },它包含 	extstyle m 个样例。我们可以用批量梯度下降法来求解神经网络。具体来讲,对于单个样例 	extstyle (x,y),其代价函数为:

    
egin{align}
J(W,b; x,y) = frac{1}{2} left| h_{W,b}(x) - y 
ight|^2.
end{align}

    这是一个(二分之一的)方差代价函数。给定一个包含 	extstyle m 个样例的数据集,我们可以定义整体代价函数为:

     
egin{align}
J(W,b)
&= left[ frac{1}{m} sum_{i=1}^m J(W,b;x^{(i)},y^{(i)}) 
ight]
                       + frac{lambda}{2} sum_{l=1}^{n_l-1} ; sum_{i=1}^{s_l} ; sum_{j=1}^{s_{l+1}} left( W^{(l)}_{ji} 
ight)^2
 \
&= left[ frac{1}{m} sum_{i=1}^m left( frac{1}{2} left| h_{W,b}(x^{(i)}) - y^{(i)} 
ight|^2 
ight) 
ight]
                       + frac{lambda}{2} sum_{l=1}^{n_l-1} ; sum_{i=1}^{s_l} ; sum_{j=1}^{s_{l+1}} left( W^{(l)}_{ji} 
ight)^2
end{align}

    以上公式中的第一项 	extstyle J(W,b) 是一个均方差项。第二项是一个规则化项(也叫权重衰减项),其目的是减小权重的幅度,防止过度拟合。

    [注:通常权重衰减的计算并不使用偏置项 	extstyle b^{(l)}_i,比如我们在 	extstyle J(W, b) 的定义中就没有使用。一般来说,将偏置项包含在权重衰减项中只会对最终的神经网络产生很小的影响。如果你在斯坦福选修过CS229(机器学习)课程,或者在YouTube上看过课程视频,你会发现这个权重衰减实际上是课上提到的贝叶斯规则化方法的变种。在贝叶斯规则化方法中,我们将高斯先验概率引入到参数中计算MAP(极大后验)估计(而不是极大似然估计)。]

    权重衰减参数 	extstyle lambda 用于控制公式中两项的相对重要性。在此重申一下这两个复杂函数的含义:	extstyle J(W,b;x,y) 是针对单个样例计算得到的方差代价函数;	extstyle J(W,b) 是整体样本代价函数,它包含权重衰减项。

    以上的代价函数经常被用于分类和回归问题。在分类问题中,我们用 	extstyle y = 0	extstyle 1,来代表两种类型的标签(回想一下,这是因为 sigmoid激活函数的值域为 	extstyle [0,1];如果我们使用双曲正切型激活函数,那么应该选用 	extstyle -1	extstyle +1 作为标签)。对于回归问题,我们首先要变换输出值域(译者注:也就是 	extstyle y),以保证其范围为 	extstyle [0,1] (同样地,如果我们使用双曲正切型激活函数,要使输出值域为 	extstyle [-1,1])。

    我们的目标是针对参数 	extstyle W	extstyle b 来求其函数 	extstyle J(W,b) 的最小值。为了求解神经网络,我们需要将每一个参数 	extstyle W^{(l)}_{ij}	extstyle b^{(l)}_i 初始化为一个很小的、接近零的随机值(比如说,使用正态分布 	extstyle {Normal}(0,epsilon^2) 生成的随机值,其中 	extstyle epsilon 设置为 	extstyle 0.01 ),之后对目标函数使用诸如批量梯度下降法的最优化算法。因为 	extstyle J(W, b) 是一个非凸函数,梯度下降法很可能会收敛到局部最优解;但是在实际应用中,梯度下降法通常能得到令人满意的结果。最后,需要再次强调的是,要将参数进行随机初始化,而不是全部置为 	extstyle 0。如果所有参数都用相同的值作为初始值,那么所有隐藏层单元最终会得到与输入值有关的、相同的函数(也就是说,对于所有 	extstyle i	extstyle W^{(1)}_{ij}都会取相同的值,那么对于任何输入 	extstyle x 都会有:	extstyle a^{(2)}_1 = a^{(2)}_2 = a^{(2)}_3 = ldots )。随机初始化的目的是使对称失效

    梯度下降法中每一次迭代都按照如下公式对参数 	extstyle W	extstyle b 进行更新:

    
egin{align}
W_{ij}^{(l)} &= W_{ij}^{(l)} - alpha frac{partial}{partial W_{ij}^{(l)}} J(W,b) \
b_{i}^{(l)} &= b_{i}^{(l)} - alpha frac{partial}{partial b_{i}^{(l)}} J(W,b)
end{align}

    其中 	extstyle alpha 是学习速率。其中关键步骤是计算偏导数。我们现在来讲一下反向传播算法,它是计算偏导数的一种有效方法。

    我们首先来讲一下如何使用反向传播算法来计算 	extstyle frac{partial}{partial W_{ij}^{(l)}} J(W,b; x, y)	extstyle frac{partial}{partial b_{i}^{(l)}} J(W,b; x, y),这两项是单个样例 	extstyle (x,y) 的代价函数 	extstyle J(W,b;x,y) 的偏导数。一旦我们求出该偏导数,就可以推导出整体代价函数 	extstyle J(W,b) 的偏导数:

    
egin{align}
frac{partial}{partial W_{ij}^{(l)}} J(W,b) &=
left[ frac{1}{m} sum_{i=1}^m frac{partial}{partial W_{ij}^{(l)}} J(W,b; x^{(i)}, y^{(i)}) 
ight] + lambda W_{ij}^{(l)} \
frac{partial}{partial b_{i}^{(l)}} J(W,b) &=
frac{1}{m}sum_{i=1}^m frac{partial}{partial b_{i}^{(l)}} J(W,b; x^{(i)}, y^{(i)})
end{align}

    以上两行公式稍有不同,第一行比第二行多出一项,是因为权重衰减是作用于 	extstyle W 而不是 	extstyle b

    反向传播算法的思路如下:给定一个样例 	extstyle (x,y),我们首先进行“前向传导”运算,计算出网络中所有的激活值,包括 	extstyle h_{W,b}(x) 的输出值。之后,针对第 	extstyle l 层的每一个节点 	extstyle i,我们计算出其“残差” 	extstyle delta^{(l)}_i,该残差表明了该节点对最终输出值的残差产生了多少影响。对于最终的输出节点,我们可以直接算出网络产生的激活值与实际值之间的差距,我们将这个差距定义为 	extstyle delta^{(n_l)}_i  (第 	extstyle n_l 层表示输出层)。对于隐藏单元我们如何处理呢?我们将基于节点(译者注:第 	extstyle l+1 层节点)残差的加权平均值计算 	extstyle delta^{(l)}_i,这些节点以 	extstyle a^{(l)}_i 作为输入。下面将给出反向传导算法的细节:

    1. 进行前馈传导计算,利用前向传导公式,得到 	extstyle L_2, L_3, ldots 直到输出层 	extstyle L_{n_l} 的激活值。
    2. 对于第 	extstyle n_l 层(输出层)的每个输出单元 	extstyle i,我们根据以下公式计算残差:
      
egin{align}
delta^{(n_l)}_i
= frac{partial}{partial z^{(n_l)}_i} ;;
        frac{1}{2} left|y - h_{W,b}(x)
ight|^2 = - (y_i - a^{(n_l)}_i) cdot f'(z^{(n_l)}_i)
end{align}
      [译者注:
       
egin{align}
delta^{(n_l)}_i &= frac{partial}{partial z^{n_l}_i}J(W,b;x,y)
 = frac{partial}{partial z^{n_l}_i}frac{1}{2} left|y - h_{W,b}(x)
ight|^2 \
 &= frac{partial}{partial z^{n_l}_i}frac{1}{2} sum_{j=1}^{S_{n_l}} (y_j-a_j^{(n_l)})^2
 = frac{partial}{partial z^{n_l}_i}frac{1}{2} sum_{j=1}^{S_{n_l}} (y_j-f(z_j^{(n_l)}))^2 \
 &= - (y_i - f(z_i^{(n_l)})) cdot f'(z^{(n_l)}_i)
 = - (y_i - a^{(n_l)}_i) cdot f'(z^{(n_l)}_i)
end{align}
      ]
    3. 	extstyle l = n_l-1, n_l-2, n_l-3, ldots, 2 的各个层,第 	extstyle l 层的第 	extstyle i 个节点的残差计算方法如下:
       
delta^{(l)}_i = left( sum_{j=1}^{s_{l+1}} W^{(l)}_{ji} delta^{(l+1)}_j 
ight) f'(z^{(l)}_i)
      {译者注:
       
egin{align}
delta^{(n_l-1)}_i &=frac{partial}{partial z^{n_l-1}_i}J(W,b;x,y)
 = frac{partial}{partial z^{n_l-1}_i}frac{1}{2} left|y - h_{W,b}(x)
ight|^2 
 = frac{partial}{partial z^{n_l-1}_i}frac{1}{2} sum_{j=1}^{S_{n_l}}(y_j-a_j^{(n_l)})^2 \
&= frac{1}{2} sum_{j=1}^{S_{n_l}}frac{partial}{partial z^{n_l-1}_i}(y_j-a_j^{(n_l)})^2
 = frac{1}{2} sum_{j=1}^{S_{n_l}}frac{partial}{partial z^{n_l-1}_i}(y_j-f(z_j^{(n_l)}))^2 \
&= sum_{j=1}^{S_{n_l}}-(y_j-f(z_j^{(n_l)})) cdot frac{partial}{partial z_i^{(n_l-1)}}f(z_j^{(n_l)})
 = sum_{j=1}^{S_{n_l}}-(y_j-f(z_j^{(n_l)})) cdot  f'(z_j^{(n_l)}) cdot frac{partial z_j^{(n_l)}}{partial z_i^{(n_l-1)}} \
&= sum_{j=1}^{S_{n_l}} delta_j^{(n_l)} cdot frac{partial z_j^{(n_l)}}{partial z_i^{n_l-1}}
 = sum_{j=1}^{S_{n_l}} left(delta_j^{(n_l)} cdot frac{partial}{partial z_i^{n_l-1}}sum_{k=1}^{S_{n_l-1}}f(z_k^{n_l-1}) cdot W_{jk}^{n_l-1}
ight) \
&= sum_{j=1}^{S_{n_l}} delta_j^{(n_l)} cdot  W_{ji}^{n_l-1} cdot f'(z_i^{n_l-1})
 = left(sum_{j=1}^{S_{n_l}}W_{ji}^{n_l-1}delta_j^{(n_l)}
ight)f'(z_i^{n_l-1})
end{align}
      将上式中的	extstyle n_l-1	extstyle n_l的关系替换为	extstyle l	extstyle l+1的关系,就可以得到:
       
delta^{(l)}_i = left( sum_{j=1}^{s_{l+1}} W^{(l)}_{ji} delta^{(l+1)}_j 
ight) f'(z^{(l)}_i)
      以上逐次从后向前求导的过程即为“反向传导”的本意所在。 ]
    4. 计算我们需要的偏导数,计算方法如下:
       
egin{align}
frac{partial}{partial W_{ij}^{(l)}} J(W,b; x, y) &= a^{(l)}_j delta_i^{(l+1)} \
frac{partial}{partial b_{i}^{(l)}} J(W,b; x, y) &= delta_i^{(l+1)}.
end{align}

    最后,我们用矩阵-向量表示法重写以上算法。我们使用“	extstyle ullet” 表示向量乘积运算符(在Matlab或Octave里用“.*”表示,也称作阿达马乘积)。若 	extstyle a = b ullet c,则 	extstyle a_i = b_ic_i。在上一个教程中我们扩展了 	extstyle f(cdot) 的定义,使其包含向量运算,这里我们也对偏导数 	extstyle f'(cdot) 也做了同样的处理(于是又有  	extstyle f'([z_1, z_2, z_3]) = [f'(z_1), f'(z_2), f'(z_3)] )。

    那么,反向传播算法可表示为以下几个步骤:

    1. 进行前馈传导计算,利用前向传导公式,得到 	extstyle L_2, L_3, ldots直到输出层 	extstyle L_{n_l} 的激活值。
    2. 对输出层(第 	extstyle n_l 层),计算:
       egin{align}
delta^{(n_l)}
= - (y - a^{(n_l)}) ullet f'(z^{(n_l)})
end{align}
    3. 对于 	extstyle l = n_l-1, n_l-2, n_l-3, ldots, 2 的各层,计算:
       egin{align}
delta^{(l)} = left((W^{(l)})^T delta^{(l+1)}
ight) ullet f'(z^{(l)})
end{align}
    4. 计算最终需要的偏导数值:
       egin{align}

abla_{W^{(l)}} J(W,b;x,y) &= delta^{(l+1)} (a^{(l)})^T, \

abla_{b^{(l)}} J(W,b;x,y) &= delta^{(l+1)}.
end{align}

    实现中应注意:在以上的第2步和第3步中,我们需要为每一个 	extstyle i 值计算其 	extstyle f'(z^{(l)}_i)。假设 	extstyle f(z) 是sigmoid函数,并且我们已经在前向传导运算中得到了 	extstyle a^{(l)}_i。那么,使用我们早先推导出的 	extstyle f'(z)表达式,就可以计算得到 	extstyle f'(z^{(l)}_i) = a^{(l)}_i (1- a^{(l)}_i)

    最后,我们将对梯度下降算法做个全面总结。在下面的伪代码中,	extstyle Delta W^{(l)} 是一个与矩阵 	extstyle W^{(l)} 维度相同的矩阵,	extstyle Delta b^{(l)} 是一个与 	extstyle b^{(l)} 维度相同的向量。注意这里“	extstyle Delta W^{(l)}”是一个矩阵,而不是“	extstyle Delta	extstyle W^{(l)} 相乘”。下面,我们实现批量梯度下降法中的一次迭代:

    1. 对于所有 	extstyle l,令 	extstyle Delta W^{(l)} := 0	extstyle Delta b^{(l)} := 0 (设置为全零矩阵或全零向量)
    2. 对于 	extstyle i = 1	extstyle m
      1. 使用反向传播算法计算 	extstyle 
abla_{W^{(l)}} J(W,b;x,y)	extstyle 
abla_{b^{(l)}} J(W,b;x,y)
      2. 计算 	extstyle Delta W^{(l)} := Delta W^{(l)} + 
abla_{W^{(l)}} J(W,b;x,y)
      3. 计算 	extstyle Delta b^{(l)} := Delta b^{(l)} + 
abla_{b^{(l)}} J(W,b;x,y)。 
    3. 更新权重参数:
       egin{align}
W^{(l)} &= W^{(l)} - alpha left[ left(frac{1}{m} Delta W^{(l)} 
ight) + lambda W^{(l)}
ight] \
b^{(l)} &= b^{(l)} - alpha left[frac{1}{m} Delta b^{(l)}
ight]
end{align}

    现在,我们可以重复梯度下降法的迭代步骤来减小代价函数 	extstyle J(W,b) 的值,进而求解我们的神经网络。

    众所周知,反向传播算法很难调试得到正确结果,尤其是当实现程序存在很多难于发现的bug时。举例来说,索引的缺位错误(off-by-one error)会导致只有部分层的权重得到训练,再比如忘记计算偏置项。这些错误会使你得到一个看似十分合理的结果(但实际上比正确代码的结果要差)。因此,但从计算结果上来看,我们很难发现代码中有什么东西遗漏了。本节中,我们将介绍一种对求导结果进行数值检验的方法,该方法可以验证求导代码是否正确。另外,使用本节所述求导检验方法,可以帮助你提升写正确代码的信心。

    缺位错误(Off-by-one error)举例说明:比如 	extstyle for 循环中循环 	extstyle m次,正确应该是 	extstyle for (i=1;~i<=m;~i++),但有时程序员疏忽,会写成 	extstyle for (i=1;~i<m;~i++),这就是缺位错误。

    假设我们想要最小化以 	extstyle 	heta 为自变量的目标函数	extstyle J(	heta)。假设 	extstyle J : Re mapsto Re,则 	extstyle 	heta in Re。在一维的情况下,一次迭代的梯度下降公式是

    egin{align}
	heta := 	heta - alpha frac{d}{d	heta}J(	heta).
end{align}

    再假设我们已经用代码实现了计算 	extstyle frac{d}{d	heta}J(	heta) 的函数 	extstyle g(	heta),接着我们使用 	extstyle 	heta := 	heta - alpha g(	heta) 来实现梯度下降算法。那么我们如何检验 	extstyle g 的实现是否正确呢?

    回忆导数的数学定义:

    egin{align}
frac{d}{d	heta}J(	heta) = lim_{epsilon 
ightarrow 0}
frac{J(	heta+ epsilon) - J(	heta-epsilon)}{2 epsilon}.
end{align}

    那么对于任意 	extstyle 	heta 值,我们都可以对等式左边的导数用:

    egin{align}
frac{J(	heta+{
m EPSILON}) - J(	heta-{
m EPSILON})}{2 	imes {
m EPSILON}}
end{align}

    来近似。

    实际应用中,我们常将 	extstyle EPSILON 设为一个很小的常量,比如在	extstyle 10^{-4} 数量级(虽然 	extstyle EPSILON 的取值范围可以很大,但是我们不会将它设得太小,比如 	extstyle 10^{-20},因为那将导致数值舍入误差。)

    给定一个被认为能计算 	extstyle frac{d}{d	heta}J(	heta) 的函数	extstyle g(	heta),我们可以用下面的数值检验公式

    egin{align}
g(	heta) approx
frac{J(	heta+{
m EPSILON}) - J(	heta-{
m EPSILON})}{2 	imes {
m EPSILON}}.
end{align}

    计算两端是否一样来检验函数是否正确。

    上式两端值的接近程度取决于 	extstyle J 的具体形式。但是在假定	extstyle {
m EPSILON} = 10^{-4} 的情况下,你通常会发现上式左右两端至少有4位有效数字是一样的(通常会更多)。

    现在,考虑 	extstyle 	heta in Re^n 是一个向量而非一个实数(那么就有	extstyle n个参数要学习得到),并且 	extstyle J: Re^n mapsto Re。在神经网络的例子里我们使用 	extstyle J(W,b),可以想象为把参数 	extstyle W,b 组合扩展成一个长向量 	extstyle 	heta。现在我们将求导检验方法推广到一般化,即 	extstyle 	heta 是一个向量的情况。

    假设我们有一个用于计算 	extstyle frac{partial}{partial 	heta_i} J(	heta)的函数 	extstyle g_i(	heta);我们想要检验 	extstyle g_i 是否输出正确的求导结果。我们定义 	extstyle 	heta^{(i+)} = 	heta +
{
m EPSILON} 	imes vec{e}_i,其中

    egin{align}
vec{e}_i = egin{bmatrix}0 \ 0 \ vdots \ 1 \ vdots \ 0end{bmatrix}
end{align}

    是第 	extstyle i 个基向量(维度和 	extstyle 	heta 相同,在第 	extstyle i 行是“	extstyle 1”而其他行是“	extstyle 0”)。所以,	extstyle 	heta^{(i+)}	extstyle 	heta 几乎相同,除了第 	extstyle i 行元素增加了 	extstyle EPSILON。类似地,	extstyle 	heta^{(i-)} = 	heta - {
m EPSILON} 	imes vec{e}_i 得到的第 	extstyle i 行减小了 	extstyle EPSILON。然后我们可以对每个 	extstyle i 检查下式是否成立,进而验证 	extstyle g_i(	heta) 的正确性:

    egin{align}
g_i(	heta) approx
frac{J(	heta^{(i+)}) - J(	heta^{(i-)})}{2 	imes {
m EPSILON}}.
end{align}

    当用反射传播算法求解神经网络时,正确算法实现会得到:

    egin{align}

abla_{W^{(l)}} J(W,b) &= left( frac{1}{m} Delta W^{(l)} 
ight) + lambda W^{(l)} \

abla_{b^{(l)}} J(W,b) &= frac{1}{m} Delta b^{(l)}.
end{align}

    以上结果与反向传播算法中的最后一段伪代码一致,都是计算梯度下降。为了验证梯度下降代码的正确性,使用上述数值检验方法计算 	extstyle J(W,b) 的导数,然后验证 	extstyle left(frac{1}{m}Delta W^{(l)} 
ight) + lambda W	extstyle frac{1}{m}Delta b^{(l)} 是否能够给出正确的求导结果。

    迄今为止,我们的讨论都集中在使用梯度下降法来最小化 	extstyle J(	heta)。如果你已经实现了一个计算 	extstyle J(	heta)	extstyle 
abla_	heta J(	heta) 的函数,那么其实还有更精妙的算法来最小化 	extstyle J(	heta)。举例来说,可以想象这样一个算法:它使用梯度下降,并能够自动调整学习速率 	extstyle alpha,以得到合适的步长值,最终使 	extstyle 	heta 能够快速收敛到一个局部最优解。还有更妙的算法:比如可以寻找一个Hessian矩阵的近似,得到最佳步长值,使用该步长值能够更快地收敛到局部最优(和牛顿法类似)。此类算法的详细讨论已超出了这份讲义的范围,但是L-BFGS算法我们以后会有论述(另一个例子是共轭梯度算法)。你将在编程练习里使用这些算法中的一个。使用这些高级优化算法时,你需要提供关键的函数:即对于任一个 	extstyle 	heta,需要你计算出 	extstyle J(	heta)	extstyle 
abla_	heta J(	heta)。之后,这些优化算法会自动调整学习速率/步长值  	extstyle alpha 的大小(并计算Hessian近似矩阵等等)来自动寻找 	extstyle J(	heta) 最小化时	extstyle 	heta 的值。诸如L-BFGS和共轭梯度算法通常比梯度下降法快很多。

  • 相关阅读:
    文本框样式
    flash载入xml不显示中文之谜
    日期 时间 正则表达式
    .NET对象生命周期小结
    Python标准库12 数学与随机数 (math包,random包)
    CXF 4 应用开发
    CXF 2
    CXF 3
    MyEclipse提示键配置、提示快捷键、提示背景色、关键字颜色、代码显示
    CXF 5参考资料
  • 原文地址:https://www.cnblogs.com/linyuanzhou/p/4778614.html
Copyright © 2011-2022 走看看