zoukankan      html  css  js  c++  java
  • lesson5-图像检测-小象cv

    R-CNN:

    2014,cnn为Alexnet

    训练流程:

    1)在imagenet上对cnn模型pre-train

    2)使用所有ss生成区域对1)进行fine-tune ~softmax改为21维度

    ground-truth:标记的真正的框~lou,阈值0.5~32个正样本,96个负样本

    3)在2)的F7特征上训练线性svm分类器,正样本和负样本阈值分别为所有ground truth和lou小于0.3的ss区域

    注意:输入的正样本U&负样本!所有自己得有定义

    4)在2)的最后一个卷加层con5特征上训练bounding box回归模型

    注意:每个类别训练一个回归模型,将ss提供的bounding box做重新映射即P->G

        两种输入:原本的P和goundtruthG,

          P对应中心位置(x,y)的px。。ph,G对应宽高尺寸(w,h)的Gx。。Gh,txty对应直角坐标系,twth对应极坐标系~所以有log(Gw/Gh)

      测试阶段:校正量d帮助参数还原时在两种坐标系下用法不一

    测试阶段:

    1)selective search提取~2000区域/图片

    2)将所有区域膨胀缩放到227*227

    3)使用finetune过的alxenet计算2套特征,f7~svm~类别分值

     --》非极大值抑制,lou》0.5,获取无冗余的区域子集~迭代~获得新候选区域

     --》对新候选区域的con5特征进行bounding box回归~bbox偏差

        --》bbox偏差来修正区域子集

    缺点:每张图片的~2000区域都会计算cnn特征

    SPP-NET:

    输入整图,所有区域共享卷积计算~在conv5层输出提取所有区域的特征

    SPP空间金字塔池化:

      替换con5的pooling5;一个window(即ss得到的感兴趣区域)内3个level和21个bin~21段定长特征串接后得到增强特征;bin内使用max pooling;

      不同尺寸的区域(ss得到)在conv5输出上提取特征,通过SPP后,映射到尺寸固定的全连接层上(SPP获取定长的特征)~最后一个conv和全连接层之间是全卷积,全尺寸卷积核大小和最后一个全连接层一致

    训练阶段:

    1)在imagenet上对cnn模型pre-train

    2)计算所有ss区域的spp特征 -没有参数训练

    3)使用2)特征finetune心得f6~f8层

    4)计算3)的f7特征

    5)使用4)特征训练svm分类器

    6)使用2)特征训练boundingbox回归~boundingbox回归对应的是SPP层不是和r-cnn一样是con5的pool5

    缺点:

      仍有:特征存储太大;复杂的多阶段训练  训练时间~finetune+特征提取+svm/bbox

      新问题:只能finetue全连接层,共享的图片集运算不可

    fast rcnn:

    实现end-to-end端对端单阶段训练,所以不需要离线存储特征文件~多任务损失函数

    所以层都可以finetune

    spp-net上的新技术:

      1)ROI感兴趣区域池化层,即单一的spp金字塔池化~可以梯度回传~实现end2end 

        ROI池化层取代alexnet的第五个pooling,输出的特征和sppnet类似,只是更短

        ROI梯度回传:非重叠部分类似maxpooling,重叠部分是多个重合区域的偏导之和

      2)所任务损失函数

        分类器loss:交叉熵+softmax~   -logpi  

        回归:偏差要做高斯归一化;物体类别时有回归loss,背景时无回归loss

    训练:因为端对端,所以不需复杂的分阶段训练

      在pre-trained模型上做finetune,初始模型性能最好为vgg

      mini-batch sampling抽样:

        hierarchical sampling分级抽样:

          batch尺寸128(是每个batch中区域的数量不是图片的数量)=每个batch的图片数量2*每个图片的ROI数量64(ss算法得到)  ~为了充分利用卷积层的共享计算,每个图片可以同时共享

          ROI分类基于与goundtruth重叠:物体lou》0.5,背景lou在【0.1,0.5)

    准确性:

      端对端训练finetune的层数,fc6《conv3《conv2,finetune层数越多性能提:升越明显

      训练时多阶段/多任务训练,和测试阶段bbox回归的不同组合使用mAP有差异  

    缺点:ss还是独立的

    Fater rcnn:

    区域建议也应该有conv5决定,应集成~ RPN网络

    faster rcnn=fast rcnn + rpn,取代离线的selective search模块

    进一步共享卷积层计算~因为区域建议也是由最后卷积层得到

    基于attention机制~引导fast r-cnn关注区域

    region proposals量少~300质优高precision高recall

    RPN:  

      一种全卷机网络:3*3,256-d卷积层+relu作为conv5下一次,输出的256维特征分别送入以下

              1*1,4k-d卷积层~输出k组proposal的offset(x,y,w,h)

              1*1,2k-d卷积层~输出k组是/否为物体object

              两者的输出共ROI池化层使用

      参考组anchor box,k=9种三种尺寸/比例;中心和卷积核中心一致(如3*3卷积核);anchor的数量w*h*k,每个像素上都有,所有w*h

      PRN需单独训练

    loss:预测框、anchor框、ground truth框

      也有指示函数~背景设为0

      一个mini-batch只有一个图片,128正样本(与ground truth lou),128负样本

    训练阶段:

      1)训练RPN,IMAGENET上pretrain模型参数-》卷积层初始化

      2)训练fast rcnn网络,IMAGENET上pretrain模型参数-》卷积层初始化,region proposal由1)的RPN生成

      3)调优RPN,fast rcnn的卷积层参数-》卷积层初始化,固定卷积层,finetune剩余层

      4)调优fast rcnn,固定卷积层,finetune剩余层,region proposal由3)得到

      1)2)无卷积层共享


    基于旧形态的cnn结构:Alexnet、vgg
     特点L:全卷积子网络+全连接自网络,分别特征提取+特征分类
     缺点:例如ROI-wise子网络不含隐含层~检测性能和分类性能不一致~检测网络的变换敏感性和分类网络的变换不变性矛盾
           (卷积层越深,不变性越强,对变换越不敏感,因为后面的卷积层所带的位置信息越来越少)
     
    R-FCN区域全卷机神经网络:
     cnn全卷机趋势:resnet、googlenet~只剩1个全连接层
    resnet-101 -》 conv91+ROI池化+conv10 ,resnet-101之前三个全连接层相当于前两个是隐藏层,若完全提出全连接层,木有隐藏层~改进,将conv拆解,中间插入ROI、  

     rcnn在检测中出现不适应性 + 应用两难 
     --》R-FCN,适应全卷积化cnn的结构,提出全卷机化设计
     引入变换敏感性
     1)位置敏感分值图,grid位置信息+类别判别
     2)位置敏感池化,无训练参数 ~不需全连接层就可完成分类任务

     实质:还是卷积层,只是通道信息发生了变化
     resnet-101卷积网,pre-trained模型(imagenet),1*1降维(2048-》1024)
     +RPN网~faster rcnn
     +position-sensitive卷积网,池化后投票

    位置敏感卷积层:
     指,k平方(C+1)conv,~多个通道对位置、类别组合进行编码~不同的通道对应不同的网格位置和类别
     相对位置:k*k个Grid(k=3)~对应ROI-pooling是3*3网格
     位置敏感分值图:每个分类k*k个score map,score map=图片尺寸~score map是卷积的输出通道,3*3ROI池化指针对该通道,比如浅黄色~每一个颜色对应一个vote的一个bin,vote的通道数是C+1
       vote再做均值池化,得到1*1大小通道数为C+1的特征图 --》softmax得到概率值
     位置敏感ROI池化层:w*h的roi拆分从k*k个w/k*h/k的bin,不同颜色的bin对应不同颜色通道层(score map),bin内做均值池化-》输出k*k*(C+1)
    loss:均值投票t:训练时用的anchor~xa和ground truth~x*,测试时用的anchor~xa和预测值x -》回归模型中t和t*即偏差要无限接近
          背景没有回归,标记0
          每个类别一个回归
    训练:
          OHEM(online hard example mining):
     一个图片~1个batch~1个gpu ;一个图片~N个proposal~所有区域loss~loss排序~选前B个,包含正/负样本
           fater rcnn的4步训练法:rpn和r-fcn交替训练,r-fcn把fast rcnn升级了
    性能:r-fcn中卷积核k*k,1*1《3*3《5*5,因为提取的位置信息越精确

    人脸数据集:
     FDDB、IJB-A~指出难检测位置
    行人检测数据集:Caltech

      

      

  • 相关阅读:
    洛谷P3313&BZOJ-3531【SDOI2014】旅行--线段树动态开点+树链剖分
    BZOJ3932【CQOI2015】任务查询系统&洛谷P3168--主席树区间前K小+差分
    博客中的代码CE说明
    栗栗的书架--洛谷P2468【SDOI2010】&BZOJ 1926二分+前缀和+主席树
    hdu1010--Tempter of the Bone(迷宫)
    hdu1242 Rescue DFS(路径探索题)
    hdu 1241--入门DFS
    注意引用的用法
    划分树---hdu4417---区间查找(不)大于h的个数
    程序员能力矩阵
  • 原文地址:https://www.cnblogs.com/rosyYY/p/8830854.html
Copyright © 2011-2022 走看看