zoukankan      html  css  js  c++  java
  • 神经网络一丢丢

    @

    终究有一天,还是得接触这个让人捉摸不透的东西。我总感觉他太过神秘,所以对他没有什么好感。无奈,他如此实用,不得不拜访一下。我不管什么CNN和RNN,这些花里胡哨的东西,我感觉就像边角料。
    参考《Pattern Recongition》

    神经网络,就其类别来讲是非线性判别,而非线性判别,主要是因为激活函数。输入层得到输入,经过线性函数(超平面)的分隔,输入的特征被映射为其他一些特征,如果激活函数是简单的0-1函数(虽然没法反向求导了)。就是那样本映射到超体(是这么形容吗?)的顶点上,再经过一层,网络,对上述点进行分隔,幸许就能把样本成功分类了。当然,这些都是简单的情况,而且,俩层神经网络的能力似乎并不够。
    在这里插入图片描述

    神经网络框架

    在这里插入图片描述
    这是一个三层神经网络。

    Backpropagation 反向传播

    在这里插入图片描述

    我不知道有没有别的什么神经网络不用这个算法的,我还没有太深入了解,但我感觉,神经网络最核心的东西就是反向传播,还有框架本身。

    下面,过一遍这个梯度的计算。

    符号说明

    (假定有L层神经元,输入层有k_0=l个结点(神经元),在第r层有k_r个结点,r=1,2,ldots,L.)
    (有N个训练样本,(x(i),y(i)),i=1,2,ldots,N)
    在这里插入图片描述
    在这里插入图片描述
    (w_j^r表示第r层第j个结点)
    在这里插入图片描述
    权重更新,按照普通的梯度下降为:
    在这里插入图片描述
    (f(cdot)为激活函数)

    损失函数(这里以最小平方误差为例)

    在这里插入图片描述
    在这里插入图片描述

    梯度计算 (Delta w_j^r=-mumathop{sum}limits_{i=1}^{N}delta_j^r(i)y^{r-1}(i))

    (首先,y_k^{r-1}(i),是第r-1层第k个结点的输出(激活后),相应的v_k^{r-1}为没有激活的输出。)
    (而w_{jk}^r是连接r-1层第k个结点和r层第j个结点的权重。)
    在这里插入图片描述
    (简便的写法就是v_j^r(i)=w_j^{tmathrm{T}}y^{r-1}(i))
    (其中y_0^{r-1}(i)equiv+1)
    (那么损失函数关于w_j^r的导数(梯度)就是:)
    在这里插入图片描述
    (又)
    在这里插入图片描述
    (记)
    在这里插入图片描述
    (则:)
    在这里插入图片描述

    计算 (delta_j^r(i))

    (r=L)

    在这里插入图片描述
    (所以)
    在这里插入图片描述

    (r < L)

    (因为v_j^{r-1}(i)是第r层所有结点的输入,所以:)
    在这里插入图片描述
    (也就是)
    在这里插入图片描述
    (令delta^{r}=[delta_1^r,delta_2^r,ldots,delta_{k_r}^r]^{mathrm{T}},那么)
    (delta^{r-1}=M^rdelta^r其中M_{jk}^r=frac{partial v_k^r}{partial v_j^{r-1}}又)
    在这里插入图片描述
    (所以M_{jk}^r(i)=w_{kj}^r f^{'}(v_j^{r-1}(i)))

    (所以,总的来说)
    (delta^r=M^{r+1}M^{r+2}ldots M^{L}delta^L)
    (这意味着,对于第r层,我们只要记录w^r(old)和M^r就足够迭代更新了,而且计算M^r的工作可以在前向传递的时候完成,也可以在反向传播的时候再计算。)
    (我想,这也是Pytorch等框架计算梯度的原理,当然这只是猜测,因为我还没有实际上去看。)

  • 相关阅读:
    第三方组件之SinGooCMS.Plugins
    .net 工具集之SinGooCMS.Utility
    轻量级ORM之SinGooCMS.ADO
    Mustache 使用说明
    npm install -g 错误集锦
    获取Rtx用户状态方法
    sudo 运行 npm或node时,出现找不到命令
    install build essential
    安装hadoop 2.2.0
    异步更新界面方法
  • 原文地址:https://www.cnblogs.com/MTandHJ/p/10528227.html
Copyright © 2011-2022 走看看