zoukankan      html  css  js  c++  java
  • 【目标检测】RCNN算法

            Region CNN(RCNN)可以说是利用深度学习进行目标检测的开山之作。作者Ross Girshick多次在PASCAL VOC的目标检测竞赛中折桂,2010年更带领团队获得终身成就奖,如今供职于Facebook旗下的FAIR。


    RCNN算法解决问题:

    1.速度

            经典的目标检测算法使用滑动窗法依次判断所有可能的区域。而RCNN算法则预先提取一系列较可能是物体的候选区域,之后仅在这些候选区域上提取特征并进行判断。

    2.训练集

            经典的目标检测算法在区域中提取人工设定的特征(Haar,HOG)。RCNN算法则需要训练深度网络进行特征提取。可供使用的有两个数据库:

    • ImageNet ILSVC 2012:标定每张图片中物体的类别。一千万图像,1000类。
    • PASCAL VOC 2007:标定每张图片中,物体的类别和位置。一万图像,20类。

            RCNN使用识别库进行预训练,而后用检测库调优参数。最后在检测库上评测。


    算法流程:

    1.  从一张图像中生成1k~2K个候选区域
    2. 对每个候选区域,使用深度网络提取特征
    3. 特征送入每一类的SVM分类器,判别是否属于该类
    4. 使用回归器修正候选框位置


     产生候选区域:

            使用了Selective Search[1]方法从一张图像生成约2000-3000个候选区域。基本思路如下:

    1. 使用一种过分割手段,将图像分割成小区域
    2. 查看现有小区域,合并可能性最高的两个区域。重复直到整张图像合并成一个区域位置
    3. 输出所有曾经存在过的区域,所谓候选区域

            候选区域生成和后续步骤相对独立,实际可以使用任意算法进行。

    [1] J. Uijlings, K. van de Sande, T. Gevers, and A. Smeulders. Selective search for object recognition. IJCV, 2013. 

    A.合并规则:

            优先选择合并一下四种区域:

    1. 颜色(颜色直方图)相近的
    2. 纹理(梯度直方图)相近的
    3. 合并后总面积小的
    4. 合并后,总面积在其BBOX中所占比例大的

            第三条,保证合并操作的尺度较为均匀,避免一个大区域陆续“吃掉”其他小区域

    例:设有区域a-b-c-d-e-f-g-h。较好的合并方式是:ab-cd-ef-gh -> abcd-efgh -> abcdefgh。
    不好的合并方法是:ab-c-d-e-f-g-h ->abcd-e-f-g-h ->abcdef-gh -> abcdefgh。

            第四条,保证合并后形状规则

    例:左图适于合并,右图不适于合并。
    这里写图片描述

            上述四条规则只涉及区域的颜色直方图、纹理直方图、面积和位置。合并后的区域特征可以直接由子区域特征计算而来,速度较快。

    B.多样化与后处理:

            为尽可能不遗漏候选区域,上述操作在多个颜色空间中同时进行(RGB,HSV,Lab等)。在一个颜色空间中,使用上述四条规则的不同组合进行合并。所有颜色空间与所有规则的全部结果,在去除重复后,都作为候选区域输出。

            作者提供了Selective Search的源码,内含较多.p文件和.mex文件,难以细查具体实现。


    特征提取

    A.预处理:

            使用深度网络提取特征之前,首先把候选区域归一化成同一尺寸227×227。
    此处有一些细节可做变化:外扩的尺寸大小,形变时是否保持原比例,对框外区域直接截取还是补灰。会轻微影响性能。

    B.预训练:

            网络结构:基本借鉴Hinton 2012年在Image Net上的分类网络[2],略作简化[3]

            此网络提取的特征为4096维,之后送入一个4096->1000的全连接(fc)层进行分类,学习率0.01。

            训练数据:使用ILVCR 2012的全部数据进行训练,输入一张图片,输出1000维的类别标号。

    [2] A. Krizhevsky, I. Sutskever, and G. Hinton. ImageNet classification with deep convolutional neural networks. In NIPS, 2012

    [3] 有层都是串行的。relu层为in-place操作,偏左绘制

    C.调优训练:

            网络结构:同样使用上述网络,最后一层换成4096->21的全连接网络。学习率0.001,每一个batch包含32个正样本(属于20类)和96个背景。

            训练数据:使用PASCAL VOC 2007的训练集,输入一张图片,输出21维的类别标号,表示20类+背景。考察一个候选框和当前图像上所有标定框重叠面积最大的一个。如果重叠比例大于0.5,则认为此候选框为此标定的类别;否则认为此候选框为背景。


    类别判断

            分类器:对每一类目标,使用一个线性SVM二类分类器进行判别。输入为深度网络输出的4096维特征,输出是否属于此类。由于负样本很多,使用hard negative mining方法。

            正样本:本类的真值标定框。

            负样本:考察每一个候选框,如果和本类所有标定的重叠都小于0.3,认定为负样本。


    位置修正

            目标检测问题的衡量标准是重叠面积:许多看似准确的检测结果,往往因为候选框不够准确,重叠面积很小。故需要一个位置精修步骤。

            回归器:对每一类目标,使用一个线性脊回归器进行精修。正则$ lambda = 10000 $
            输入为深度网络pool5层的4096维特征,输出为xy方向的缩放和平移。

            训练样本:判定为本类的候选框中,和真值重叠面积大于0.6的候选框。


    结果

            论文发表的2014年,DPM已经进入瓶颈期,即使使用复杂的特征和结构得到的提升也十分有限。本文将深度学习引入检测领域,一举将PASCAL VOC上的检测率从35.1%提升到53.7%。

            本文的前两个步骤(候选区域提取+特征提取)与待检测类别无关,可以在不同类之间共用。这两步在GPU上约需13秒。
            同时检测多类时,需要倍增的只有后两步骤(判别+精修),都是简单的线性运算,速度很快。这两步对于100K类别只需10秒。

  • 相关阅读:
    QT两个字符串转化函数,避免文字乱码。
    QT隐藏工具栏上的右键菜单
    QT线程初次使用。遇到的问题。
    QTableView根据标题文字和表格文字自适应宽度
    void QTableView::setColumnWidth ( int column, int width),隐藏列不起作用
    在VS2010中去掉ipch和sdf文件方法
    QT的一个奇怪问题,设置了Qt::Tool后,点击弹出对话框的确定取消按钮,程序直接退出
    上传图片并显示缩略图的最简单方法(c#)
    总结一下散乱的开发点滴(2) (高手勿入)
    在global里捕获黄页并写入异常日志库
  • 原文地址:https://www.cnblogs.com/zhangchao162/p/12386801.html
Copyright © 2011-2022 走看看