zoukankan      html  css  js  c++  java
  • focal loss 两点理解

    博客给出了三个算例。

    可以看出,focal loss 对可很好分类的样本赋予了较小的权重,但是对分错和不易分的样本添加了较大的权重。

    对于类别不平衡,使用了(alpha_t)进行加权,文章中提到较好的值是0.25,说明在训练过程中仍然需要对正样本进行降权。
    正常的理解是训练过程中负样本的数量应该远大于正样本,0.25的值应该是经过大量实验得出的。
    一个合理的解释就是经过权重调整,随着训练的进行,正样本的权重应该逐渐下降。这个解释感觉有点牵强附会了。。。

  • 相关阅读:
    HIHO线段树(成段)
    HIHO 线段树(单点)
    POJ 3468
    HDU 1754
    HDU 1698
    HDU 5119
    HDU 1394
    HDU 1166
    DZY Loves Chessboard
    谷歌Cookies无法写入
  • 原文地址:https://www.cnblogs.com/zi-wang/p/9966175.html
Copyright © 2011-2022 走看看