zoukankan      html  css  js  c++  java
  • 论文阅读笔记(六十五)【ECCV2018】:Deep Cross-Modal Projection Learning for Image-Text Matching

    Introduction

    对于image-text embedding learning,作者提出了 cross-modal projection matching (CMPM) loss 和 cross-modal projection classification (CMPC) loss。前者最小化两个模态特征投影分布的KL散度;后者基于norm-softmax损失,对模态A在模态B上的投影特征进行分类,进一步增强模态之间的契合度。

    The Proposed Algorithm

    Network Architecture

    文本特征:Bi-LSTM + 最大池化策略

    图像特征:MobileNet、ResNet-152

    Cross-Modal Projection Matching

    假设每对输入为,其中 x 表示图像,z 表示文本,表示文本图像匹配,其匹配概率计算为:

    对于一个图像,可能存在多个匹配的文本,在每个mini-batch中,对匹配概率进行正则化,即:,匹配损失为:

    匹配损失中可以看出其本质是KL损失,当正确结果 p 比较低时,希望网络做出的预测 q 也比较低。再加上文本图像换位后得到的损失,CMPM损失计算为:

    Cross-Modal Projection Classification

    传统的softmax计算为:

    Norm-softmax损失为:

    相比之下,norm-softmax采用了权重正则化项,下图直观来说:不同权重向量被归一化到相同长度,分类结果由原先的简化为,使得样本分布与权重向量更加紧密。

    传统的softmax损失对原有的特征进行分类,而CMPC损失对A在B上的投影特征进行分类:

    Experiments

  • 相关阅读:
    Rsync实现文件同步的算法(转载)
    Python模拟登录cnblogs
    负载均衡中四层和七层的介绍(转帖)
    Lvs+Keepalived实现MySQL高可用
    MySQL配置主主及主从备份
    Vim扩展YouCompleteMe插件
    使用Git
    Django回忆录
    Ansible安装配置及使用
    Hive学习之四 《Hive分区表场景案例应用案例,企业日志加载》 详解
  • 原文地址:https://www.cnblogs.com/orangecyh/p/14434071.html
Copyright © 2011-2022 走看看