zoukankan      html  css  js  c++  java
  • 【6】深层神经网络的前向与反向传播

    深层神经网络(Deep L-layer neural network)

    目前为止我们已经学习了只有一个单独隐藏层的神经网络的正向传播和反向传播,还有逻辑回归,并且你还学到了向量化,这在随机初始化权重时是很重要。

    目前所要做的是把这些理念集合起来,就可以执行你自己的深度神经网络。

    复习下前面21个笔记的内容:

    逻辑回归,结构如下图左边。一个隐藏层的神经网络,结构下图右边:

    注意,神经网络的层数是这么定义的:从左到右,由0开始定义,比如上边右图,x_1、x_2、x_3,这层是第0层,这层左边的隐藏层是第1层,由此类推。

    如下图左边是两个隐藏层的神经网络,右边是5个隐藏层的神经网络。(也就是说刚输入层不算一层神经网络,这个概念也记住哦,再次说明)

     

    严格上来说逻辑回归也是一个一层的神经网络,而上边右图一个深得多的模型,浅与深仅仅是指一种程度。

    记住以下要点:

    有一个隐藏层的神经网络,就是一个两层神经网络。记住当我们算神经网络的层数时,我们不算输入层,我们只算隐藏层和输出层。

    但是在过去的几年中,DLI(深度学习学院 deep learning institute)已经意识到有一些函数,只有非常深的神经网络能学会,而更浅的模型则办不到。尽管对于任何给定的问题很难去提前预测到底需要多深的神经网络,所以先去尝试逻辑回归,尝试一层然后两层隐含层,然后把隐含层的数量看做是另一个可以自由选择大小的超参数,然后再保留交叉验证数据上评估,或者用你的开发集来评估。

    我们再看下深度学习的符号定义:

     

    上图是一个四层的神经网络,有三个隐藏层。我们可以看到,

    第一层(即左边数过去第二层,因为输入层是第0层)有5个神经元数目,第二层5个,第三层3个。

    我们用L表示层数,上图:L=4,输入层的索引为“0”,第一个隐藏层n^([1])=5,表示有5个隐藏神经元,同理n^([2])=5,n^([3])=3,n^([4])=n^([L])=1(输出单元为1)。而输入层,n^([0])=n_x=3。

    在不同层所拥有的神经元的数目,对于每层l都用a^([l])来记作l层激活后结果,我们会在后面看到在正向传播时,最终能你会计算出a^([l])。

    通过用激活函数 g 计算z^([l]),激活函数也被索引为层数l,然后我们用w^([l])来记作在l层计算z^([l])值的权重。类似的,z^([l])里的方程b^([l])也一样。

    最后总结下符号约定:

    输入的特征记作x,但是x同样也是0层的激活函数,所以x=a^([0])(你可以想象成输入层就是一个激活函数)

    最后一层的激活函数,所以a^([L])是等于这个神经网络所预测的输出结果

    前向传播和反向传播(Forward and backward propagation)

    之前我们学习了构成深度神经网络的基本模块,比如每一层都有前向传播步骤以及一个相反的反向传播步骤,这次我们讲讲如何实现这些步骤。

    先讲前向传播,输入a^([l-1]),输出是a^([l]),缓存为z^([l]);

    从实现的角度来说我们可以缓存下w^([l])和b^([l]),这样更容易在不同的环节中调用函数。

     

    所以前向传播的步骤可以写成:

    z^([l])=W^([l])⋅a^([l])+b^([l])

     a^([l])=g^([l]) (z^([l]) )

     

    向量化实现过程可以写成:

    z^([l])=W^([l])⋅A^([l-1])+b^([l])

    A^([l])=g^([l]) (Z^([l]))

     

    前向传播需要喂入A^([0])也就是X(输入特征),来初始化;

    初始化的是第一层的输入值。a^([0])对应于一个训练样本的输入特征,

    而A^([0])对应于一整个训练样本的输入特征,所以这就是这条链的第一个前向函数的输入,重复这个步骤就可以从左到右计算前向传播。

    下面讲反向传播的步骤:

    输入为da^([l]),输出为da^([l-1]),dw^([l]), db^([l])

     

    所以反向传播的步骤可以写成:

    (1)dz^([l])=da^([l])*g^([l])'(z^([l]))

    (2)dw^([l])=dz^([l])⋅a^([l-1]) 

    (3)db^([l])=dz^([l])  

    (4)da^([l-1])=w^[l]T⋅z^([l])

    (5)dz^([l])=w^([l+1]T) dz^([l+1])⋅ g^([l])'(z^([l])) 

     

    式子(5)由式子(4)带入式子(1)得到,前四个式子就可实现反向函数。

    向量化实现过程可以写成:

    (6)dZ^([l])=dA^([l])*g^[l] '(Z^([l]) )  

    (7)dW^([l])=1/m dZ^([l])⋅A^[l-1]T

    (8)db^([l])=1/m np.sum(dz^([l]),axis=1,keepdims=True)

    (9)dA^([l-1])=W^[l]T.dZ^([l])

     

    总结一下:

    第一层你可能有一个ReLU激活函数,

    第二层为另一个ReLU激活函数,

    第三层可能是sigmoid函数(如果你做二分类的话),输出值为y^,L(y^, y)用来计算损失;这样你就可以向后迭代进行反向传播求导来求dw^([3]),db^([3]) ,dw^([2]) ,db^([2]) ,dw^([1]) ,db^([1])。

    在进行正向和反向传播的时候,对不同层之间用的是for循环。即for(i=1;i<=l;i++) l是层数。正向传播:先算第一层的z、a,再算第二层的,再算第三层的····   反向传播:先算最后一层的da,再算倒数第二层与最后一层连接的dw db,再算前一层的da····  最后一层的da就是dy帽  因为最后一层的a就是y帽。

    在计算的时候,缓存会把z^([1]) z^([2]) z^([3])传递过来,然后回传da^([2]),da^([1]) ,可以用来计算da^([0]),但我们不会使用它,这里讲述了一个三层网络的前向和反向传播,还有一个细节没讲就是前向递归——用输入数据来初始化,那么反向递归(使用Logistic回归做二分类)——对A^([l]) 求导。

  • 相关阅读:
    VC++文件操作之最全篇
    MFC六大核心机制之五、六:消息映射和命令传递
    MFC六大核心机制之四:永久保存(串行化)
    MFC六大核心机制之三:动态创建
    MFC六大核心机制之二:运行时类型识别(RTTI)
    MFC六大核心机制之一:MFC程序的初始化
    VS2010/MFC编程入门之五十四(Ribbon界面开发:使用更多控件并为控件添加消息处理函数)
    VS2010/MFC编程入门之五十三(Ribbon界面开发:为Ribbon Bar添加控件)
    java并发系列(四)-----源码角度彻底理解ReentrantLock(重入锁)、AQS
    java并发系列(三)-----ReentrantLock(重入锁)功能详解和应用演示
  • 原文地址:https://www.cnblogs.com/lau1997/p/12361211.html
Copyright © 2011-2022 走看看