zoukankan      html  css  js  c++  java
  • 第三十节,目标检测算法之Fast R-CNN算法详解

    Girshick, Ross. “Fast r-cnn.” Proceedings of the IEEE International Conference on Computer Vision. 2015.

    继2014年的RCNN之后,Ross Girshick在15年推出Fast RCNN,构思精巧,流程更为紧凑,大幅提升了目标检测的速度。在Github上提供了源码

    之所以提出Fast R-CNN,主要是因为R-CNN存在以下几个问题:

    • 训练分多步。通过上一篇博文我们知道R-CNN的训练先要fine tuning一个预训练的网络,然后针对每个类别都训练一个SVM分类器,最后还要用regressors对bounding-box进行回归,另外region proposal也要单独用selective search的方式获得,步骤比较繁琐。
    • 时间和内存消耗比较大。在训练SVM和回归的时候需要用网络训练的特征作为输入,特征保存在磁盘上再读入的时间消耗还是比较大的。
    • 测试的时候也比较慢,每张图片的每个region proposal都要做卷积,重复操作太多。

    虽然在Fast RCNN之前有提出过SPPnet算法来解决RCNN中重复卷积的问题,但是SPPnet依然存在和RCNN一样的一些缺点比如:训练步骤过多,需要训练SVM分类器,需要额外的回归器,特征也是保存在磁盘上。因此Fast RCNN相当于全面改进了原有的这两个算法,不仅训练步骤减少了,也不需要额外将特征保存在磁盘上。

    基于VGG16的Fast RCNN算法在训练速度上比RCNN快了将近9倍,比SPPnet快大概3倍;测试速度比RCNN快了213倍,比SPPnet快了10倍。在VOC2012上的mAP在66%左右。

    一 Fast R-CNN思想

    Fast RCNN方法解决了RCNN方法三个问题:

    问题一:测试时速度慢 

    RCNN一张图像内候选框之间大量重叠,提取特征操作冗余。 
    本文将整张图像归一化后直接送入深度网络。在邻接时,才加入候选框信息,在末尾的少数几层处理每个候选框。

    问题二:训练时速度慢 

    原因同上。 
    在训练时,本文先将一张图像送入网络,紧接着送入从这幅图像上提取出的候选区域。这些候选区域的前几层特征不需要再重复计算。

    问题三:训练所需空间大 

    RCNN中独立的分类器和回归器需要大量特征作为训练样本。 
    本文把类别判断和位置精调统一用深度网络实现,不再需要额外存储。

    二 算法简述

    算法的主网络是VGG16

    以下是训练的步骤: 

    • 输入是224*224,经过5个卷积层和2个降采样层(这两个降采样层分别跟在第一和第二个卷积层后面)
    • 进入RoI Pooling层,该层的输入是conv5层的输出和P个候选区域region proposal。
    • 然后再经过两个都是output是4096的全连接层。
    • 最后分别经过output个数是21和84的两个全连接层(这两个全连接层是并列的,不是前后关系),前者是分类的输出,代表每个region proposal属于每个类别(21类)的得分,后者是回归的输出,代表每个region proposal的四个坐标。
    • 最后是两个损失层,分类的是softmaxWithLoss,输入是label和分类层输出的得分;回归的是SmoothL1Loss,输入是回归层的输出和target坐标及weight。

    测试的过程: 
    与训练基本相同,最后两个loss层要改成一个softmax层,输入是分类的score,输出概率。最后对每个类别采用NMS(non-maximun suppression)。

    三 算法详解

    Fast R-CNN的流程图如下,这个网络的输入是原始图片和候选区域,输出是分类类别和bbox回归值。对于原始图片中的候选框区域,和SPPNet中做法一样,都是将它映射到卷积特征的对应区域(即图中的RoI projection),然后输入到RoI pooling layer,可以得到一个固定大小的特征图。将这个特征图经过2个全连接层以后得到RoI的特征,然后将特征经过全连接层,使用softmax得到分类,使用回归得到边框回归。CNN的主体结构可以来自于AlexNet,也可以来自于VGGNet。

    1、ROI池化层

    这里唯一需要解释的就是RoI pooling layer。如果特征图(feature map)上的RoI 大小是h∗w(这里忽略了通道数),将这个特征图划分为h/Hw/W个网格,每个网格大小为H*W,对每个网格做max pooling,这样得到pooling以后的大小就是HW(在文章中,VGG16网络使用H=W=7的参数,上图中绘制的是6x6的)。无论原始的RoI多大,最后都转化为7*7大小的特征图。本文将RoI池化为7*7的输出,其实这一层就是SPP的特例,SPP金字塔只有一层就是这样的。

    因此可以看出Fast RCNN主要有3个改进:

    • 卷积不再是对每个region proposal进行,而是直接对整张图像,这样减少了很多重复计算。
    • 原来RCNN是对每个region proposal分别做卷积,因为一张图像中有2000左右的region proposal,肯定相互之间的重叠率很高,因此产生重复计算。用ROI pooling进行特征的尺寸变换,因为全连接层的输入要求尺寸大小一样,因此不能直接把region proposal作为输入。
    • 将regressor放进网络一起训练,每个类别对应一个regressor,同时用softmax代替原来的SVM分类器。

    2、训练

    网络的训练需要从下面几个方向考虑:1、训练样本是什么;2、损失函数是什么;3、如果提出了新的网络结构,网络结构的反向传播怎么做。此外,还可以关注一下超参数的选取方法,看看作者在超参数选取上有什么好的思路可以借鉴。

    3、训练样本

    从网络的前向传播可以看到,网络需要的输入是图片和region proposal,输出是类别和bbox,那么训练的图片每个候选区需要提前标注好类别和bbox。

    作者使用层次抽样来选取训练图片。对应每个mini-batch而言,大小为128个region proposal(或者叫RoI)。先从训练图片中选取2张图片,每个图片的RoI中选取64个RoI,形成这128个RoI。这样网络前面的卷积计算是可以共享的,降低了训练的复杂度。64个RoI中,25%是有类别的(IoU>0.5u1),剩下75%是背景(IoU[0.1,0.5),u=0)。数据增强使用了水平翻转。测试的时候则每张图像大约2000个RoI。

    4、损失函数

    将分类的loss和回归的loss整合在一起,其中分类采用log loss,即对真实分类(下图中的pu)的概率取负log,而回归的loss和R-CNN基本一样。分类层输出K+1维,表示K个类和1个背景类。

    这是回归的loss,其中tu表示预测的结果,u表示类别。v表示真实的结果,即bounding box regression target。

    参考文章

    [1]目标检测:Fast R-CNN

    [2]Fast RCNN算法详解

    [3]Fast RCNN算法详解

    [4]目标检测:SPP-net

    [5]Girshick, Ross. “Fast r-cnn.” Proceedings of the IEEE International Conference on Computer Vision. 2015.

    [6]基于深度学习的目标检测技术演进:R-CNN、Fast R-CNN、Faster R-CNN(强烈推荐)

    [7]目标检测(3)-SPPNet

    [8]目标检测(4)-Fast R-CNN

  • 相关阅读:
    paip.51cto HTML转码规则
    常用记账软件总结
    paip.为什么软件体积越来越大
    paip.版本控制CVSSVNTFS总结
    paip.提升用户体验导入导出
    paip.手机ROOT过程总结
    PAIP.http post 400错误
    paip.javaaspphp.net互相调用方法大总结
    PAip.英文引擎在项目开发上的作用
    paip.SVN无法提交提示冲突的解决
  • 原文地址:https://www.cnblogs.com/zyly/p/9246418.html
Copyright © 2011-2022 走看看