zoukankan      html  css  js  c++  java
  • 【论文笔记】2020ICML SimCLR

    论文链接

    论文链接:https://arxiv.org/pdf/2002.05709.pdf

    代码链接:https://github.com/google-research/simclr

    基本思想

    对同一张图像x进行不同的data augmentation,得到多个view,这些view要相互吸引;对于来自不同图像的view,要相互远离。论文相当关键的一部份就是研究了data augmentation对于unsupervised contrastive learning的帮助。

    Data augmentation对于特征学习的重要性

    Data augmentation对于训练好unsupervised contrastive learning的模型非常的关键。一些强力的augmentation技巧可以大幅提升SimCLR,但对于原本supervised的方法却不见得有帮助。论文中提到一个细节:单纯使用random crop其实没什麽效果,要加上color distortion后才会有显著的效果。这是因为原本的 random crop 切出来的图片 在pixel value的分布其实相差不大,主要是在scale与offset上的不同,相当不利于CNN的contrastive learning,而这两种加上color distortion后的 pixel value的分布就会有明显的变化,使得适合作为contrastive learning的学习对象。

    Backbone

    ResNet-50(4x),即网络宽度是ResNet-50的4倍。

    在representation和contrastive loss之间添加全连接层

    通过MLP,也就是全连接层,可以学习出数据的非线性信息,是对上一步的一个增强。通过这一步的学习就可以得出同一类别数据的共同信息特点。在representation与contrastive loss间使用可学习的non-linear projection,避免计算 similarity 的 loss function在训练时丢掉一些重要的feature。论文中使用非常简单的单层MLP,配上ReLU activation function作为non-linear projection。

    SimCLR性能如何?

    在ImageNet数据集上,SimCLR能得到与2012年AlexNet相同的性能,但是仅仅使用了1%的标签,这归功于两点:

    1. 首先在具有残差连接的深度卷积网络上做无监督表征学习。
    2. 之后在具有标签的少量数据集上微调。

    参考资料

    [1] https://zhuanlan.zhihu.com/p/197802321

    [2] 深度学习之父Hinton:下一代神经网络

  • 相关阅读:
    删除使用RMAN命令备份的文件
    查看.Net Framework版本的方法(zz)
    c# Foreach last (zz)
    Visual Studio 2008 QFE (zz)
    打印机的接口
    牛人的PENTAX单反之路
    我新进的宾得K10D机器和镜头
    买车险要有足额第三者责任险
    谈谈P家的SUPERTAKUAMR
    硬盘接口总结
  • 原文地址:https://www.cnblogs.com/picassooo/p/13797807.html
Copyright © 2011-2022 走看看