zoukankan      html  css  js  c++  java
  • (转)YOLOv5的置信度阀值与iou阀值


    conf_thres

    1.   Confidence Threshold,置信度阈值。
    2.   只显示预测概率超过conf_thres的预测结果。
    3.   想让YOLO只标记可能性高的地方,就把这个参数提高。

    iou_thres

    1. Intersect over Union Threshold,交并比阈值。
    2. IOU值:预测框大小∩真实框大小 / 预测框大小∪真实框大小。(预测框与真实框的交集与并集的取值。)
    3. iou_thres在detect.py中:
    •      越大,则容易将对于同一个物品的不同预测结果 当成 对多个物品的多个预测结果,导致一个物品出现了多个预测结果。
    •      越小,则容易将对于多个物品的不同预测结果 当成 对同一个物品的不同预测结果,导致多个物品只出现了一个预测结果。
    •      如下面对甜甜圈的预测一般,多个甜甜圈重叠在一起的图片中:

    图1:iou-thres = 0.65   (将iou阈值设为0.65,检测出了18个甜甜圈。)

    图2:iou-thres = 0  (设为0,检测出了6个甜甜圈,并且检测区域都没有重复。)

    图3:iou-thres = 0.98

    • P
      • Precision,精确率
      • 对类A来说(下面提到的都是被预测成A的):
        • P = 正确数 / 预测总数
        • 或 P = 正确数/ 正确数+错误数
      • 即,预测的东西正确了多少百分比。
    • R
      • Recall,召回率
      • 对类A来说(下面提到的都是被归为A类的):
        • R = 预测正确数 / 真实A类总数。
        • 或 R = 预测正确数 / 被预测到的A + 未被预测到的A
      • 即,预测的东西找到了多少百分比。
    • F1
      • F-Measure,F值,P与R的调和平均
      • F=1/(λ1P+(1−λ)1R),λ = 0.5时,简化为F1
      • F1 = 2*P*R / (P + R)
    • 例:对于一个二分类问题来说:
      • 要对动物进行分类,分为猫与非猫两类。样本中,猫有350份,非猫有150份。
      • 预测出了400份被认为是猫,其中,正确的有300份,错误的有100份。则:
      • P = 300 / 400 = 0.75
      • R = 300 / 350 ≈ 0.86

    PR图

    • 横坐标是R值,纵坐标是P值,曲线表示当召回率为R时,精确率P的大小。
    • 例:
      • 假设测试集图片数量为一百张,且测试了一百张。
      • 当A类的R值设为0.1时,表示以某精确度P2计算,检测到了A类总数的10%。
      • 以此类推,当A类的R值设为1时,表示以某精确度P11计算,检测到了所有的A类标签。
      • 可以看出,随R值的升高,A被预测到的数量也会增加,即那些可能性较低的A类也逐渐被预测出来。
      • 因此,可以判断P值是随着R的升高而降低。
        • P值如果设为100,即要求被标记出来的区域一定属于A类,这种概率非常低,所以可能一个A类都识别不出来,进而导致R值为0。
        • 而若P值设为0.1,则要求被标记出来的区域只要有百分十的概率属于A类即可,那么将有很多A类被标记,R值也进一步提高。
      • 因此,PR图左下方的面积越大,则表示模型对该数据集的效果越好。

    AP

    • Average Precision
    • 以某种方式计算AP值来表达PR图的面积
      • 下面提到的是PASCAL VOC竞赛于2010年前的计算方式,
      • 根据我查到的资料,也是YOLOv3的计算方式(目标检测中常提到的IoU和mAP究竟是什么?)。
      • 但我没有在YOLOv5的github wiki上找到相关资料,也没有在其它地方找到。
    • 使用平均,以R in range(0 : 1 : 0.1)作为IOU,满足这个R值的最大P值作为Pi,求11个Pi的平均数。
      • 这里的R是以0为起点,1为终点,0.1为步长的十一个值,1也算。
      • 即上面解释PR图时的例子里R与P的关系。

    mAP

    • mean Average Precision
    • 每个类的AP值的平均数。
    • 用于表达多类标签预测的性能,如AP一样,mAP越高,性能越好。
    • mAP@.5
      • 当IoU为0.5时的mAP
    • mAP@.5 : .95
      • 当IoU为range(0.5 : 0.95 : 0.05)时的mAP的平均数。

    如何提高mAP
       优化数据集:
          YOLO官方推荐数据集需求:
            每类图片数量:每类大于1500张图片
            每个类的实例:每类实例(标签)大于一万份。
            图像多样性:确保图片来自不同环境。对于现实世界物体的识别,推荐使用来自不同时间、不同季节、不同天气、不同光照度、不同角度、不同来源的图片。
            标签一致性:所有类中所有实例必须都被标签标记,不要遗漏。
            标签准确性:标签能准确标记对象,不要在对象与标记框之间留下缝隙。没有对象可以不用标记(背景图片)。
            背景图片:背景图片是指没有对象的图片,用来减少误报。YOLO推荐0~10%的背景图片来减少误报(COCO数据集包含1000张背景图片,占据总数1%)。
    简单来说:
       增加不同角度/光照度的数据集。
       增加不同环境的数据集。
       增加背景图片(无目标的图片)。
       增加数据集大小。
       确保标签标定准确。


    ————————————————
    版权声明:本文为CSDN博主「MWHLS」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
    原文链接:https://blog.csdn.net/asd123pwj/article/details/117171868

  • 相关阅读:
    Attention中的qkv与机器翻译中的对应关系
    numpy.copy和torch.tensor的cpu/gpu
    F1值的优化macro
    py中函数是传值还是传引用
    scipy.optimize.minimize||非线性规划
    离散label的优化trick
    python Queue/collections.deque
    tf.pad学习
    tensor2tensor-transformer源码学习
    最早的attention论文学习-通过联合学习进行对齐和翻译的神经机器翻译
  • 原文地址:https://www.cnblogs.com/answerThe/p/15616811.html
Copyright © 2011-2022 走看看