论文阅读笔记(七十六)【TIP2021】:Cross-Modal Knowledge Adaptation for Language-Based Person Search

Introduction

作者认为,大部分现有方法都将图文特征平等地投影到相同的特征空间,但现实中图文信息并不完全等价。比如,图像中包含的光照条件、图像分辨率、视角、背景等信息很少会被文字描述到,如下图所示。

此外,两个相似行人之间的一些关键差异信息很容易被干扰因素影响,如下图所示,(a)中视觉特征中白色T恤是关键信息,但前者在提取特征时很容易被光照因素干扰,同理(b)中很容易被视角因素干扰。因此,需要用文本信息来引导视觉特征的提取,降低视觉特征被干扰因素影响。

为此,本文提出了一种跨模态知识自适应(Cross-Modal Knowledge Adaptation, CMKA)的方法。

Proposed Method

(1) 框架图:

图像特征提取采用ResNet-50 + 1x1卷积,压缩为1024维特征;

文本特征提取采用one-hot + bi-LSTM,双向特征进行级联,通过最大池化策略获取1024维特征。

(2) Cross-Modal Feature Adaptation:

由于一些图像信息很难被文本描述,因此为了促进提取的视觉特征去适应文本描述,作者设计了cross-modal feature knowledge adaptation (KFA):

这里仅仅训练图像分支,固定了文本分支的参数。

(3) Cross-Modal Ranking List Adaptation:

对于这个损失的个人理解:让两个模态之间的rank list尽量相近,作者为了计算方便,采用最高概率的文本rank list,让对应的图像rank list也有高概率。

假设batch中第i个样本为query,其余为gallery,排序后候选样本序列为,图像序列按此排列的概率为:

其中

同理,文本排列的概率为:

选择概率最大的文本排列,即:

训练使得对应的图像排列也概率更大,即cross-modal list-wise knowledge adaptation (LKA):

同KFA,这里仅仅训练图像分支,固定了文本分支的参数。

(4) Cross-Modal Class Probability Adaptation:

此部分的目的是让两个模态的分类分布相近,采用了一个共享全连接层,输出两个模态的d分类分布,即:

采用softmax进行归一化,即:

采用KL散度拉进两者的概率分布,即:

(5) 训练目标:

除了上述三阶段知识适应性损失,作者也对每个模态内采用了instance loss,即:

最终损失函数为:

Experiments

原文地址:https://www.cnblogs.com/orangecyh/p/14928456.html