zoukankan      html  css  js  c++  java
  • GFL: Generalized Focal Loss

    现有的模型存在两个问题:

    (1)classification score和quality score(包括IoU和centerness score)训练和推理时不一致.训练的时候这两个score是分别训练的,推理的时候将这两个score相乘作为NMS的依据,如下图(a)所示.

    这有可能造成一些错误,如下图所示,在推理过程中,某些负例的cls score很低,但是IoU score又很高,两者相乘得到的乘积比较大,在NMS的时候有可能排在一些正例的前面,从而降低了mAP.

    针对这个问题,解决的方法是在训练时就将classification score和quality score联合起来训练,此时分类标签不再是1,而是一个0~1之间的数,也就是IoU或者centerness score.此时将传统的Focal Loss改成了Quality Focal Loss(QFL):

     

    其中y是标签label(0~1之间的1个数),delta是预测值.

    (2)由于阻挡,影子,模糊等原因,有些GT object的边界不清晰,GT标签不可信,此时用Dirac distribution来处理就受限,解决的办法是采用General distribution,用平坦的分布来表明不清楚和模糊的边界,如下图所示.

    把传统的边界回归问题转化为分类问题,把连续的目标值y的取值范围[y0,yn]离散化为[y0,y1,...,yi,yi+1,...,yn-1,yn],也就是把y分成n+1个单位,也就相当于n+1个类,离y最近的两个类yi+1和yi作为目标,计算下面的Distribution Focal Loss(DFL):

    Generalized Focal Loss(GFL)包括了QFL和DFL两部分,如下图所示.

     通过实验,证明了GFL提高了mAP.

  • 相关阅读:
    MySQL 工具
    MySQL 5.1参数
    CentOS 6.2下二进制安装 MySQL 5.6
    Linux 下hosts文件详解
    CentOS 6.5下二进制安装 MySQL 5.6
    云计算之云数据库
    MySQL 卸载
    Linux dig
    CentOS6.5利用Docker部署ShowDoc
    Myeclipse6.5每次打开properties中文注释都会变成乱码
  • 原文地址:https://www.cnblogs.com/mstk/p/15549231.html
Copyright © 2011-2022 走看看