zoukankan      html  css  js  c++  java
  • 深度学习——CNN

    整理自:

    https://blog.csdn.net/woaidapaopao/article/details/77806273?locationnum=9&fps=1

    • 思想
    • filter尺寸的选择
    • 输出尺寸计算公式
    • pooling池化的作用
    • 常用的几个模型,这个最好能记住模型大致的尺寸参数

    1.思想

    改变全连接为局部连接,这是由于图片的特殊性造成的(图像的一部分的统计特性与其他部分是一样的),通过局部连接和参数共享大范围的减少参数值。可以通过使用多个filter来提取图片的不同特征(多卷积核)。


    2.filter尺寸的选择

    通常尺寸多为奇数(1,3,5,7) 


    3.输出尺寸计算公式

    输出尺寸=(N - F +padding*2)/stride + 1 
    步长可以自由选择通过补零的方式来实现连接。


    4.pooling池化的作用

    虽然通过.卷积的方式可以大范围的减少输出尺寸(特征数),但是依然很难计算而且很容易过拟合,所以依然利用图片的静态特性通过池化的方式进一步减少尺寸。 


    5.常用的几个模型,这个最好能记住模型大致的尺寸参数

    名称特点
    LeNet5 –没啥特点-不过是第一个CNN应该要知道
    AlexNet 引入了ReLU和dropout,引入数据增强、池化相互之间有覆盖,三个卷积一个最大池化+三个全连接层
    VGGNet 采用1*1和3*3的卷积核以及2*2的最大池化使得层数变得更深。常用VGGNet-16和VGGNet19
    Google Inception Net
    我称为盗梦空间网络
    这个在控制了计算量和参数量的同时,获得了比较好的分类性能,和上面相比有几个大的改进:
      1、去除了最后的全连接层,而是用一个全局的平均池化来取代它;
      2、引入Inception Module,这是一个4个分支结合的结构。所有的分支都用到了1*1的卷积,这是因为1*1性价比很高,可以用很少的参数达到非线性和特征变换。
      3、Inception V2第二版将所有的5*5变成2个3*3,而且提出来著名的Batch Normalization;
      4、Inception V3第三版就更变态了,把较大的二维卷积拆成了两个较小的一维卷积,加速运算、减少过拟合,同时还更改了Inception Module的结构。
    微软ResNet残差神经网络(Residual Neural Network) 1、引入高速公路结构,可以让神经网络变得非常深
    2、ResNet第二个版本将ReLU激活函数变成y=x的线性函数
  • 相关阅读:
    接口测试-自动化-Java实现-HttpUtil
    接口测试-自动化-Java实现-CommonClass
    接口测试-自动化-Java实现-InterfaceTest
    接口测试-自动化-Java实现-HtmlFile
    接口测试-自动化-Java实现-TestMain
    接口测试-自动化-Java-思路整理后
    接口测试-自动化-Java-思路
    接口测试-自动化-Java-写在前面的话
    HDU 2546 饭卡 (01背包)
    codeforces 615B. Longtail Hedgehog
  • 原文地址:https://www.cnblogs.com/helloworld0604/p/9018513.html
Copyright © 2011-2022 走看看