zoukankan      html  css  js  c++  java
  • Learning to Transfer Examples for Partial Domain Adaptation学习笔记

    Learning to Transfer Examples for Partial Domain Adaptation学习笔记

    tip

    在域分类器以及源域分类器都对源域的样本进行加权。

    使用了额外的域分类器以及源域分类器,保证权重函数中既考虑到标签信息,又考虑到域信息。

    Abstract

    在目标域样本未标注的情况下,部分域适应面临的主要挑战是如何在共享类别中对相关的样本进行迁移以促进正迁移,以及如何忽略源域中不相关的样本以减轻负迁移。作者在本文中提出了一个方法Example Transfer Network (ETN),它联合学习跨域的域不变性表示和一个渐进的加权方案量化源域样本的可转移性。

    Introduction

    以往的方法都是对对抗网络中的样本进行加权,并对属于源域非共享类别中的样本进行降权。但是它们不能消除非共享类别对源域分类器的负面影响。此外,他们评估源域样本的可转移性,而不考虑潜在的区别性和多模态结构。因此它们可能会对齐源域非共享类别与目标域类别的特征,从而产生负迁移。

    作者在本文提出了Example Transfer Network (ETN)。ETN根据源域样本与目标域样本的相似性,使用可转移性权重自动评估源域样本的可转移性,该权重用于衡量这些源域样本对源分类器和域分类器的贡献。特别的,ETN进一步揭示可转移权重的区别性结构。通过这种方式,可以更好地检测和过滤掉不相关的源域样本。

    Partial Domain Adaptation

    选择性对抗网络(SAN)采用多个具有加权机制的对抗网络来选择非共享类别中的源域样本。部分对抗域适配(Partial Adversarial Domain Adaptation)通过仅使用一个对抗网络并进一步将类别级权重添加到源分类器来改进SAN。重要性加权对抗网(IWAN) 使用辅助领域分类器(不涉及领域对抗训练)的Sigmoid输出来导出源域样本来自源域共享类别以及非共享类别的概率,该概率用于加权领域对抗网络中的源域样本。

    这些方法减轻了由源域非共享类别引起的负迁移,并促进了共享类别之间的正迁移。然而,由于非共享类别仅被选择出来用于域分类器,源域分类器仍然用所有类别来训练,它们对于共享类别的性能可能被非共享类别分散。此外,用于获得重要性权重的IWAN的域分类器仅基于特征表示来区分源域和目标域,而不利用源域中的分类信息。这将导致使用非辨别性的重要性权重来区分共享类和异常类。

    本文提出了一种实例转移网络(ETN),它在源分类器上进一步降低非共享类别的无关样本的权重⭐⭐⭐,并采用域分类器来量化实例的可转移性。

    Example Transfer Network

    文中源域表示为(D_s={(x_i,y_i)}^{n_s}_{i=1}),其中(n_s)表示源域样本的数量,源域拥有类别的个数为(|C_s|)。目标域表示为(D_t={x_i}^{n_s+n_t}_{i=n_s+1}),其中(n_t)表示目标域未标注样本的数量,目标域拥有类别的个数为(|C_t|)。目标域的类别空间是源域类别空间的子集:(C_tsub C_s),即(|C_s|>|C_t|).源域与目标域的概率分布分别由p与q表示,且$p_{C_t} eq q (,其中)p_{C_t}(表示源域中属于目标域类别空间)C_t(的样本的分布。本文的目标就是设计一个深度神经网络模型,通过学习可迁移的特征)f=G_f(x)(以及适应分类器)y=G_y(f)$来减小域间差异。

    Transferability Weighting Framework

    域适应的关键就是要减小源域样本域目标域样本之间的域偏移。域对抗网络通过一个 two-player minimax game来学习可迁移的特征,其中包括一个域分类器(G_d)来区别源域与目标域,还有一个特征提取器经过微调后来欺骗域分类器。

    为了得到域不变性特征(f),通过最大化域分类器(G_d)的损失来学习特征提取器(G_f)的参数( heta_f),通过最小化域分类器的损失来学习(G_d)的参数( heta_d)的参数。同时还要最小化标签分类器(G_y)的损失。

    则对抗网络的目标函数为:

    [E( heta_f, heta_y, heta_d)=frac{1}{n_s}sumlimits_{x_iin D_s}L_y(G_y(G_f(x_i)),y_i)-frac{lambda}{n_s+n_t}sumlimits_{x_i in D_scup D_t}L_d(G_d(G_f(x_i)),d_i)(1) ]

    (d_i)表示域标,(L_y)(L_d)都是交叉熵损失。

    但是由于源域非共享类别样本的存在,域对抗网络的性能在部分域适应中相比普通域适应会下降。

    本文提出了一种新的可迁移性加权框架来解决部分域自适应该技术难题。使用(w(x^s_i))表示每个样本(x^s_i)权重以此代表每个样本的可迁移性。那么对于权重较大的源域样本,要增加其对最终模型的贡献来增强正迁移;否则,我们应该减少权重对减轻负迁移。IWAN在域分类器(G_d)中改变了源域样本的权值,这里作者又将权值使用在源域分类器(G_y),这明显地加强了模型区分非共享类别样本的能力。

    此外,目标标签的未知性会使共享类别的识别变得困难。因此,作者认为通过半监督学习来利用未标记的目标样本也是不可或缺的。作者充分利用熵最小化原则。让(hat{y}^t_i=G_y(G_f(x^t_j)in mathbb{R}^{|C_s|})),量化目标样本预测标签的不确定性的熵损失为:

    [H(G_y(G_f(x^t_j)))=-sumlimits^{|C_s|}limits_{c=1}hat{y}^t_{j,c}loghat{y}^t_{j,c} ]

    image-20201113215459393

    (G_f)表示特征提取器,(G_y)表示源域分类器,(G_d)表示域分类器(包括对抗训练),( ilde{G}_d)表示额外的域分类器(不包括对抗训练),量化每个源域样本的可转移性(w)( ilde{G_y})表示额外的域标签分类器,将分类信息编码到辅助域分类器。蓝色部分是本文新提出的。

    通过使用每个源域样本的可迁移性权重对源域分类器(G_y)与域分类器(G_d)进行加权,并结合熵最小化准则,作者提出以下目标:

    image-20201114184952513

    其中(gamma)表示已标注源域样本与未标注目标域样本的权衡参数。

    该模型能够进行端到端的训练,找到鞍点使得参数(hat{ heta}_f,hat{ heta}_y,hat{ heta}_d)满足:

    image-20201114190247498

    Example Transferability Quantification

    在拥有了带权值的框架后,现在的关键就是如何定义每个源域样本的可迁移性权值。作者使用一个额外的域分类器( ilde{G}_d),但是这个域分类器不进行对抗训练,即特征生成器不会欺骗( ilde{G}_d),这种辅助域鉴别器可以通过将每个源域样本(x^s_i)分类到目标域的Sigmoid概率来粗略地衡量源域样本的可迁移性。

    域分类器( ilde{G}_d)通过该假设来区分源域与目标域的样本:源域样本中属于共享类别的样本比非共享类别的样本离目标域样本更接近。但是域分类器对源域与目标域样本的区分只基于域信息,当( ilde{G}_d)训练较好的时候有时还是无法区分源域与目标域的样本。因此作者又将辨别性信息添加到权重设计中,以解决共享类别样本与非共享类别样本的模糊性。

    作者的目标是设计一个既使用了辨别性信息,又使用了域信息的迁移方法$w(x^s_i)$,对源域共享类别的样本与非共享类别的样本分别生成各自的权重。于是作者使用(leaky-softmax)激活函数添加了一个额外的标签预测值(hat{G}_y),特征提取器的特征变换为(|C_s|)即z维,之后向量经过(leaky-softmax):

    [ ilde{sigma}(z)=frac{exp(z)}{|C_s|+sumlimits^{|C_s|}limits_{c=1}}exp(z_c) ]

    其中(z_c)表示向量z的第c维。(leaky-softmax)的输出接近1表示样本来自源域,接近0表示样本来自目标域。

    如果定义( ilde{G}_d)为:

    [ ilde{G}_d(G_f(x_i))=sumlimits^{|C_s|}limits_{c=1} ilde{G}_y^c(G_f(x_i)) ]

    其中( ilde{G}_y^c(G_f(x_i)))表示样本(x_i)属于类别c的概率,则( ilde{G}_d(G_f(x_i)))可以被看做是计算每个样本属于源域的概率:( ilde{G}_d(G_f(x_i)))越小,表示样本越可能来自于目标域。

    对于(|C_s|)个类别的分类问题,作者通过(|C_s|)one-vs-rest二进制分类任务上的多任务损失来训练辅助标签预测器( ilde{G}_y):

    [E_{ ilde{G}_y}=-frac{lambda}{n_s}sumlimits^{n_s}limits_{i=1}sumlimits^{|C_s|}limits_{c=1}[y^s_{i,c}log ilde{G}_y(G_f(x^s_i))]+[(1-y^s_{i,c})log(1- ilde{G}_y^c(G_f(x^s_i)))] ]

    其中(y^s_i)表示源域样本(x^s_i)是否属于类别c的 ground-truth标签

    作者训练( ilde{G}_d)来区分源域与目标域的特征:

    [E_{ ilde{G}_d}=-frac{1}{n_s} sumlimits^{n_s}limits_{i=1}log( ilde{G}_d(G_f(x^s_i)))-frac{1}{n_t}sumlimits^{n_t}limits_{j=1}log(1- ilde{G}_d(G_f(x^t_j))) ]

    ( ilde{G}_d)的训练基于( ilde{G}_y)的输出,这就保证了( ilde{G}_d)是用标签信息域信息训练的,解决了共享类和非共享类之间的模糊性,从而更好地量化了样本的可迁移性。

    最后,源域样本的权重表示为:

    [w(x^s_i)=1- ilde{G}_d(G_f(x^s_i)) ]

    由于源域样本的( ilde{G}_d)的输出更接近1,这意味着非常小的权重,因此对批量为B的每个小批量中的权重进行归一化:

    [w(x)leftarrowfrac{w(x)}{frac{1}{B}sumlimits^Blimits_{i=1}w(x_i)} ]

    Minimax Optimization Problem

    通过之前的可迁移性权重网络框架以及样本的可迁移性量化,用( heta_{hat{y}})表示额外的标签预测器( ilde{G_y})的参数,ETN模型通过最小优化问题找到鞍点,令参数(hat{ heta}_f,hat{ heta}_y,hat{ heta}_d, heta_{hat{y}})满足:

    image-20201114213040103

  • 相关阅读:
    Kth Largest Element in an Array -- LeetCode
    First Missing Positive -- LeetCode
    Path Sum II (Find Path in Tree) -- LeetCode
    Email List
    Divide Two Integers -- LeetCode
    Delete Node in a Linked List
    Compare Version Numbers -- LeetCode
    Broken Code
    Trapping Rain Water (Bar Height) -- LeetCode
    Count and Say (Array Length Encoding) -- LeetCode
  • 原文地址:https://www.cnblogs.com/Jason66661010/p/13974882.html
Copyright © 2011-2022 走看看