zoukankan      html  css  js  c++  java
  • 自监督(对比学习)资料

    一文梳理无监督对比学习(MoCo/SimCLR/SwAV/BYOL/SimSiam)(微信推文)

    自监督学习(Self-Supervised Learning) 2018-2020年发展综述 (微信推文)

    对比学习(Contrastive Learning)综述(知乎)

    综述文献:

    2020TPAMI-Self-supervised Visual Feature Learning with Deep Neural Networks- A Survey

    2020-A Survey on Semi-, Self- and Unsupervised Learning for Image Classification

    几个经典的自监督学习模型:

    SimLCR

    Chen Ting et al.  ICML2020.

    结论:

    数据增强对表征学习的影响很大,有难度的增强的方法可以使表征学得更好;

    batch size越大(即负样本越多),表征学习效果越好;

    nonlinear projection head有助于提升表征学习质量。

    MoCo

    Kaiming He et al. CVPR2020.

    提出momentum encoder,把batch size和queue size解耦,避免大的batch size,也不需要memory bank去存储所有编码好的样本了。

    BYOL (Bootstrap Your Own Latent

    前人的工作是用同一张图像的一个view的representation去predict另一个view的representation,但这样做容易出现退化解(collapsed solutions, e.g., outputting the same vector for all images),因为很多时候,representation具有view invariance。为了避免退化解,前人的做法是加上negative pair。但是这样就需要较多的negative examples,使得某些negative examples比较接近positive example,to make the discrimination task challenging.

    这篇论文的目的是,能不能去除negative pair,同时避免退化解。

    作者发现如果把其中一个encoder变成随机初始化的固定下来(stop gradient),让另一个encoder的表征和固定住权重的encoder的表征相互靠近,效果就能达到18.8%的准确率。

    然后作者把 “固定住权重” 改为 “权重以momentum的方式更新”。

    SwAV

    motivation是去除负样本。

    对各类样本进行聚类,得到聚类中心,根据每个样本与所有聚类中心的距离,得到样本的新的表示,用这种表示去做对比。

    SimSiam

    This method can be thought of as:

    • “BYOL without the momentum encoder”

    • “SimCLR without negative pairs”

    • “SwAV without online clustering”

  • 相关阅读:
    word2vec
    视频推荐系统
    python基础
    go-elasticsearch
    Docker 部署 go项目
    gohbase
    禅道部署linux
    jmeter 报错 Error occurred during initialization of VM Could not reserve enough space for object heap
    jarvis OJ-DSA
    算法-我的第一本算法书(一)
  • 原文地址:https://www.cnblogs.com/picassooo/p/14810609.html
Copyright © 2011-2022 走看看