zoukankan      html  css  js  c++  java
  • 深入解析CNN pooling 池化层原理及其作用

    原文地址:https://blog.csdn.net/CVSvsvsvsvs/article/details/90477062

    池化层作用机理
    我们以最简单的最常用的max pooling最大池化层为例,对池化层作用机理进行探究。其他池化层的作用机理也大致适用这一机理,在这里就不加入讨论。

    图片和以下部分内容来自 CS231n
    从上面左图可以看到,使用了pool操作其实就是降低图片的空间尺寸。右图使用一个 2 × 2的 池化核(filter),以2为步长(stride),对图片进行max pooling,那么会图片就会尺寸就会减小一半。需要注意,这里是因为 stride = 2,所以图片尺寸才会减少一半的。
    CS231n又对池化进行了量化的阐述:
    上图表示的意思就是:
    给定一个图片的三个维度的尺寸, 即【Channel, Height, Width】,以及给定两个超参数池化核尺寸 【F × F】,池化步长【S】,就可以计算池化后的图片尺寸,见上图公式。
    池化核这个filter是不需要保留参数的,不同于conv filter, 每一个pooling filter就是一个固定的函数,比如max pooling,就是取这个filter覆盖区域像素的最大值而已。所以我们在计算卷积层数的时候,不计入池化层。
    对于pooling 层,我们通常不需要使用 padding。这是由于采用pooling通常是为了减少一半的图片尺寸,我们使用 kernel size = 2 * 2,以及stride = 2的池化核。就可以在不padding 的情况下,将尺寸变为一半。
    CS231n还介绍了另外一种常见的池化核, 其步长为 2,kernel size = 3 * 3,  叫做覆盖池化层,其含义也就是在前后两次的滤波窗口之间有一个像素的重叠。该池化核在AlexNet中得到了应用,见ImageNet Classification with Deep Convolutional
    Neural Networks
    It is worth noting that there are only two commonly seen variations of the max pooling layer found  in practice:A pooling layer with F=3,S=2 (also called overlapping pooling), and more commonly F=2,S=2.

    Pooling sizes with larger receptive fields are too destructive.
    CS231n 同时也告诫我们,使用大尺寸的池化核去增大感受野是destructive(破坏性的)。这很容易理解,增大池化核,将损失更多的图片像素信息。
    看到这里,你可能会有两个疑问:
    为什么可以降低图片空间尺寸呢?
    为什么要降低图片的空间尺寸呢?
    这两个问题,其实是触及了池化技术的本质:在尽可能保留图片空间信息的前提下,降低图片的尺寸,增大卷积核感受野,提取高层特征,同时减少网络参数量,预防过拟合。
    先来探讨第一个问题。

    为什么可以降低图片空间尺寸?
    这个问题很简单,等比例缩小图片,图片的主体内容丢失不多,具有平移,旋转,尺度的不变性,简单来说就是图片的主体内容依旧保存着原来大部分的空间信息。

    为什么要降低图片的尺寸?
    我们知道在卷积神经网络中,如果特征抽取后最终输出特征图尺寸太大,将会导致输出结果的特征太多,计算量剧增的同时,将其输入到一个分类器(通常是全连接层Full Connected layer),很容易就会导致过拟合。就像机器学习一样,特征过多的话,我们可能会考虑降维(如PCA)来减少特征,增强拟合能力。
    简单来说:降低尺寸,有助于减少计算量以及特征数量,保留主要特征,增大卷积核感受野,防止过拟合。
    但我们在做卷积的时候,让conv 层的步长stride = 2同样也可以起到降低尺寸的目的啊,为什么需要pooling 层来降低尺寸,这就回到了上文的:池化层不需要保留参数。它采用一个固定的函数进行像素运算,如max pooling filter中采用了max函数,是不需要保留参数的,所以减少了网络的参数量。
    增大感受野是怎么回事,我们知道在实际训练中,我们的卷积核一般就是比较小的,如3 * 3,这些卷积核本质就是在特征图上进行滤波窗口计算并滑动。如果要保持卷积核大小不变,同时增大卷积核覆盖区域(感受野增大,便于提取高层语义),那么就可以对图片尺寸进行下采样。
    当然增大感受野也有其他方式,如膨胀卷积运算,在保证特征图尺寸不变的情况下,可以增大卷积核的感受野。

    不过值得一提的是:在像素信息较为敏感的一些视觉任务中(如分割,检测),一般是较少使用pooling操作来下采样的,通常使用插值(如双线性插值等)或者stride=2的卷积层来进行下采样,尽可能的保留像素信息,这也是pooling操作的缺点,不过使用pooling也有其优点,就有无参数的好处。
    如果你追求更加理论和硬核的pooling解释的话,我推荐你去看一下LeCun在10年ICML的论文:A Theoretical Analysis of Feature Pooling in Visual Recognition。
    ————————————————
    版权声明:本文为CSDN博主「qyhyzard」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
    原文链接:https://blog.csdn.net/CVSvsvsvsvs/article/details/90477062
  • 相关阅读:
    15-数组concat()方法和push比较
    06-使用云储存上传工具
    05-云函数/云数据库的增删改查
    错题1
    c++链表
    8817
    8816
    1177
    1355
    c++期末考
  • 原文地址:https://www.cnblogs.com/lzhu/p/11802188.html
Copyright © 2011-2022 走看看