zoukankan      html  css  js  c++  java
  • 论文阅读笔记(七十六)【TIP2021】:Cross-Modal Knowledge Adaptation for Language-Based Person Search

    Introduction

    作者认为,大部分现有方法都将图文特征平等地投影到相同的特征空间,但现实中图文信息并不完全等价。比如,图像中包含的光照条件、图像分辨率、视角、背景等信息很少会被文字描述到,如下图所示。

    此外,两个相似行人之间的一些关键差异信息很容易被干扰因素影响,如下图所示,(a)中视觉特征中白色T恤是关键信息,但前者在提取特征时很容易被光照因素干扰,同理(b)中很容易被视角因素干扰。因此,需要用文本信息来引导视觉特征的提取,降低视觉特征被干扰因素影响。

    为此,本文提出了一种跨模态知识自适应(Cross-Modal Knowledge Adaptation, CMKA)的方法。

    Proposed Method

    (1) 框架图:

    图像特征提取采用ResNet-50 + 1x1卷积,压缩为1024维特征;

    文本特征提取采用one-hot + bi-LSTM,双向特征进行级联,通过最大池化策略获取1024维特征。

    (2) Cross-Modal Feature Adaptation:

    由于一些图像信息很难被文本描述,因此为了促进提取的视觉特征去适应文本描述,作者设计了cross-modal feature knowledge adaptation (KFA):

    这里仅仅训练图像分支,固定了文本分支的参数。

    (3) Cross-Modal Ranking List Adaptation:

    对于这个损失的个人理解:让两个模态之间的rank list尽量相近,作者为了计算方便,采用最高概率的文本rank list,让对应的图像rank list也有高概率。

    假设batch中第i个样本为query,其余为gallery,排序后候选样本序列为,图像序列按此排列的概率为:

    其中

    同理,文本排列的概率为:

    选择概率最大的文本排列,即:

    训练使得对应的图像排列也概率更大,即cross-modal list-wise knowledge adaptation (LKA):

    同KFA,这里仅仅训练图像分支,固定了文本分支的参数。

    (4) Cross-Modal Class Probability Adaptation:

    此部分的目的是让两个模态的分类分布相近,采用了一个共享全连接层,输出两个模态的d分类分布,即:

    采用softmax进行归一化,即:

    采用KL散度拉进两者的概率分布,即:

    (5) 训练目标:

    除了上述三阶段知识适应性损失,作者也对每个模态内采用了instance loss,即:

    最终损失函数为:

    Experiments

  • 相关阅读:
    LINUX下用PHPIZE安装PHP GD扩展
    LNMP下使用Phabricator(一)
    关于学习
    PHP EXCEL相关
    curl_setopt 注意
    JS代码运行延迟
    ajax跨域
    Bootstrap-下拉菜单
    Bootstrap-基本的按钮组
    Bootstrap-基本的输入框组
  • 原文地址:https://www.cnblogs.com/orangecyh/p/14928456.html
Copyright © 2011-2022 走看看