分类:
1.Test-Agnostic Long-Tailed Recognition by Test-Time Aggregating Diverse Experts with Self-Supervision
url:https://arxiv.org/pdf/2107.09249.pdf
大家都开始整模型融合了,说明多样性+合适的融合方式确实在长尾上很有用。作者说自己的motivation是,test distribution其实有各种各样分布,所以可以用这些专家去进行组合,最终形成一个拟合得最好的。
2. Parametric Contrastive Learning
url:https://arxiv.org/abs/2107.12028
这篇Paper把supervised contrastive learning在long-tailed上做work了。我觉得work的主要原因是构造了propotypes,并且通过re-weight的方式,使得每一个instance都能让其他的每一类参与到优化。相较于原来的方法(Supervised Contrastive Learning),缓解了一些imbanlance的问题。由于存在科学的类别中心。所以需要更强的Aug和更久的训练时间。在Imgenet-LT上,训练400个epoch能达到57.0的点数。X101甚至能上60。