zoukankan      html  css  js  c++  java
  • 深度拾遗(00)

    1. 通过深层神经网络首先会选取一些边缘信息(卷积中的核只有3X3 5X5非常小),总之是一些边角之类的低层信息(边缘信息是为了将要观察的事物与周围环境分割开来)
    2. 随着网络深度的增加,卷积核的有效感受野越来越大,也就意味着高层的卷积核能够覆盖更大尺度上的特征

    例如CNN

    CNN就是尺度上不断降维,特征上不断升维。卷积核尺寸不变,但是卷积的对象不断池化,也就相当于卷积核的尺寸扩大了。
    尺度上越降维,大尺度上的特征数量就越多,但是也越稀疏。
    拿汉字举例:小尺度上,无非横竖撇捺几个特征;中等尺度上,各种偏旁部首几百种;大尺度上,就是几千上万个汉字了。
    不断地使用某个尺寸的特征去组合成下一个更大尺度的更多的特征,

    参数训练减少

    很多数学函数用深网络比浅网络要容易学习得多,比如很多个数异或,用深网络,学习到一棵树,计算复杂度为$ log_N $ 。用单隐层学习的话,需要 (2^{n-1})个隐藏单元。
    局部特征关联

  • 相关阅读:
    页面布局
    序列化和反序列化
    虚方法、抽象类
    方法的重载 、重写
    C#委托与事件
    C#中的反射
    SQL用法
    Ubuntu:Unable to locate package ***
    Django 使用mysql 所遇到问题一:Error loading MySQLdb module
    python collection 中的队列
  • 原文地址:https://www.cnblogs.com/pigbreeder/p/8056237.html
Copyright © 2011-2022 走看看