zoukankan      html  css  js  c++  java
  • 【读书报告--02】神经网络基础学习

    1.线性单元

    定义:使用一个可导的线性函数来替代感知器的阶跃函数,这种感知器就叫做线性单元

    个人理解:感知器还是那个感知器,只是激活函数变成一个可导的线性函数:如f(x)=x

    如下图:线性单元与前面所学的感知器(使用阶跃函数)的对比,只有激活函数改为”可导的线性函数“

    2.监督学习和无监督学习的概念

    监督学习:为了训练一个模型,我们要提供这样一堆训练样本:每个训练样本既包括输入特征x,也包括对应的输出y(也叫做标记,label)

    无监督学习:训练样本中只有x而没有y

    目前只考虑监督学习:

    其中监督学习的所有样本误差的和函数为:

    其中:

    所以可以写成

     由公式可知:模型的训练,实际上就是求取到合适的w,使(式2)取得最小值。这在数学上称作优化问题,而E(W)就是我们优化的目标,称之为目标函数

     个人理解:模型的训练是求取到合适的w,而通过观察误差和函数,实际上模型的训练的过程即对E(w)求取最小值,因此可以通过梯度下降算法优化我们的模型

    3.梯度下降算法  

    公式和介绍:

    因此我们的E(w)可以套入梯度下降的算法,对于神经网络模型训练的权值w

    我们可以写出:

    最终:

    个人见解:

    与上一节的感知器学习对比,权重w的训练更新公式替换成了如上图所示的公式,这样可以更快地训练出合适的w

    总结:1.使用”可导的线性函数“作为感知器的激活函数,此时感知器叫做“线性单元”

    2.监督学习和无监督学习的区别在于训练样本有无y,即实际值

    3.梯度下降的算法可以优化神经网络模型,具体使用在对权值w的训练上

  • 相关阅读:
    个人项目(Word Count Java)
    自我介绍+软工5问
    第六次实践
    第五次实践作业
    第四次实践作业
    第三次实践作业
    第二次实践作业
    第1次实践作业
    第06组 Beta版本演示
    第06组 Beta冲刺(4/4)
  • 原文地址:https://www.cnblogs.com/zjinwei/p/10131844.html
Copyright © 2011-2022 走看看