zoukankan      html  css  js  c++  java
  • 神经网络与深度学习笔记 Chapter 2.

     

    转载请注明出处http://www.cnblogs.com/zhangcaiwang/p/6886037.html

    以前都没有正儿八经地看过英文类文档,神经网络方面又没啥基础,结果第一章就花费了我将近一周的晚上。不过还是有收获的,希望英文阅读水平越来越高吧。

    上一章讲解了神经网络如何通过梯度下降学习权重和偏差,但是没有讲解代价函数(cost function)的梯度是怎么求解的。本章中主要讲解一个用来计算代价函数梯度的快速算法:反向传播(backpropagation)算法。

    Warm up: a fast matrix-based approach to computing the output from a neural network

    定义表示第(l-1)层的第k个神经元到第l层的第j个神经元的权重。表示第l层的第j个神经元的bias。表示地l层的第j个神经元的激活值。

    接下来我们要把下面的等式向量化:

                =====》

     其中al表示第l层网络的神经元的激活值构成的向量,wl、bl同理。其中被称为加权输入(weighted input).

    The two assumptions we need about the cost function

    第一个假设是,损失函数可以写为单个训练样例(x1,x2,x3,x4,...,xn)的损失函数的平均值,也就是:,这个假设在本系列文章中的其他损失函数中同样成立。我们做这个假设的原因是因为反向传播实际上让我们计算的是,然后我们通过对每一个训练样例做平均来得到

    第二个假设是,损失函数可以写成神经网络的输出的函数,如下所示:

                

    比如说二次损失函数(quadratic cost function)就满足这个要求,因为对于一个训练样例x的损失函数可以被写成,而它正是输出激活值的函数。

    The Hadamard product, st

     Hadamard乘积是用来定义向量之间的乘积。向量s和向量t的乘积的结果仍为一个向量,且元素为sjtj,也就是有比如:

          

    反向传播的四个基本方程

     理解反向传播就是理解改变权重和bias是如何影响损失函数的。最终,这意味着计算,为了计算它们,我们要先引入一个中间量,它被称为第l层的第j个神经元的误差。定义:

                            

    公式一,输出层误差公式:

         ------------------------>输出层单个神经元误差

        ------------->输出层误差向量形式,是偏导数的向量。

        ------------->输出层误差向量形式。如果单个神经元对单个输入样例的损失函数有的形式,那么很容易有

    公式二,误差传递公式:

        。对于这个公式的前一部分,我们可以直观地认为当误差通过网络反向传播时

    它给了我们一种测量第l层神经元误差的方式。第二部分把误差又进行反向传播并通过了激励函数,这样我们就得到了第l层加权输入中的误差。通过公式一公式二,我们可以计算任意一层的误差,由公式一我们可以得到第L层的误差,用公式二反向传播可以获得l-1层的误差。依次向下进行。。。

    公式三,损失函数对网络中bias的偏导公式: 

         ,这就是说实际上等于损失函数的改变率。该公式可以重写如公式(31):

        ,它的意思是说某一神经元的δ值由该神经元的bias值表示。

    公式四,损失的改变率与网络中的权重的等式:

        ,这个公式表明了,如何通过a和δ计算。它可以被简化重写如(32):

        ,用图表示就是。公式(32)表明,当ain很小的时候,损失函数对权重的偏导数也会很小,我们称之为学习慢(learn slowly),也就是说从低激发值神经元深处的权重学习慢

    由以上分析可知,反向传播通过δ来计算代价函数对权重和偏置的偏导数,进而可以通过梯度下降推导出的公式对权重进行更新。反向传播算法的意义就在于不用通过对权重和bias真正求出偏导数,这省去了很大的麻烦。

        

    参考资料:http://neuralnetworksanddeeplearning.com/chap2.html

  • 相关阅读:
    爬弹幕
    写了这么多行就给我30,呜呜呜
    ticket
    yield求平均数
    协程原理
    爬取一类字二类字的信息和笔顺gif图片
    关于CRF的相关阅读
    embedding size与vocabulary size之间的关系: e = v**0.25
    pandas多个值取数
    转 pandas pivot
  • 原文地址:https://www.cnblogs.com/zhangcaiwang/p/6886037.html
Copyright © 2011-2022 走看看