zoukankan      html  css  js  c++  java
  • 从神经网络到深度学习

     

    监督学习:标注数据
    半监督学习:标注数据和未标注数据
    无监督学习:未标注学习
    监督学习的性能最可靠,用于企业

     

     

     

    通常层间神经元不相通

     

    损失函数:每次都找下山最快的方向(梯度下降法)依赖于网络初始值

    神经网络的缺点:
    局部最优:下山不一定到最低点
    梯度弥散:如:1 0.5 0.25 0.125(接近0)梯度为0时网络更新不动了。层数过多,梯度越来越小
    参数量呈现指数级增加
    尤其后两种,会造成层数过多无法训练

    欠拟合:模型不够复杂,把模型的参数量增加或训练时间更长一些。
    Dropout:每次更新网络时,随机不更新一部分神经元,防止把答案记住
    正则化:对模型复杂度进行约束,不要太复杂
    数据增广:把一个数据变为多个,一张图变为多个。增加训练数据量

    深度学习
    为什么要深度?层数越多,表达能力越强
    卷积是对特征的提取

    全连接数据量太大,不长远
    感受野:一个神经元所关注的区域,

    Max Pooling :只取该区域的最大值作为区域的值
    Mean Pooling :平均池化,对该区域取平均值作为区域的值
    这两个比较常用

     

     

     

     

     

    反卷积变大

     

    随机让一部分神经元坏死,产生误差,由于每次都随机,那么最后所有神经元都能被更新

    Flatten :展平
    Dense:全连接

    越到高层越一致(稀疏)

    深度学习框架
    Keras 适合新手,Caffe 工业性能高
    Pytorch  科研,灵活

    Static :运行流程定义好的,一般是一个输入进去,一个输出出来。 不知道中间的运算过程。但是稳定,适合做产品
    Dynamic :运行中每一步都可随时暂停,都是动态的。出现问题每步都可以调试,适合科研

     

  • 相关阅读:
    RabbitMQ 路由选择 (Routing)
    RabbitMQ 发布/订阅
    RabbitMQ 工作队列
    MySQL中的insert ignore into, replace into等的一些用法总结
    BigDecimal用法详解
    RabbitMQ 入门 Helloworld
    git标签
    git查看提交历史
    RabbitMQ简介
    【计算机视觉】SeetaFace Engine开源C++人脸识别引擎
  • 原文地址:https://www.cnblogs.com/tingtin/p/11900276.html
Copyright © 2011-2022 走看看