Attract or Distract Exploit the Margin of Open Set论文总结

Attract or Distract Exploit the Margin of Open Set论文总结

该论文研究的问题

该论文研究的是Open set domain adaptation问题,其中源域中没有未知类,而作者将目标域中的未知样本统称为一类:unknown class。文章的目标是在没有目标域标签的情况下,同时处理域转移未知对象的识别(这里的识别只是从目标域中的已知类中区分推离,而不是对未知类进行类别的详细识别)。

 

具体思路

扩大两种边界:

边界一:已知类之间的边界,目标是使已知的类更加可分

1.源域与目标域之间的已知类:

使用语义类别对齐semantic categorical alignment (SCA)),通过将目标域已知类与源域的已知类进行匹配对齐,间接提高二者的可分性。

2.源域之间的已知类:

已知类之间的差别可以使用交叉熵所示来实现,但是作者使用了对比中心损失(contrastive-center loss)来进一步增强类别之间的可分离性。

边界二:未知样本和已知类之间的边界,期望将未知的类推离决策边界

使用了语义对比映射( semantic contrastive mapping (SCM) )将未知类推离边界:设计对比损失,使未知类和已知类之间的差值大于已知类之间的差值

 

由于目标标签不可用,作者使用每次迭代的网络预测作为目标标签的假设来执行语义分类对齐和语义对比映射。

 

论文创新点

我认为文章根本的创新点在于将源域与目标域的样本看作类似点集,通过包裹在SCA、SCM模型中的各种损失函数的设定、类别中心的计算与迭代更新将抽象问题转化为求解类别中心、同一类的边界聚拢、不同类的边界排斥等具体且易理解的操作。

 

三大模型作用

1.预训练对抗网络中的生成器与鉴别器,先通过Adversarial Domain Adaptation初步进行源域各个类别的区分、目标域与源域相应类别的中心对齐、并初步形成目标域中已知样本与未知样本的边界

2.通过Semantic Categorical Alignment,使每个已知类更加集中,源和目标之间的对齐更加准确(通过分类中心对齐损失实现),拉近已知类内部的表示,而加大各个已知类之间的区分(通过对比中心损失实现)

3.使用Semantic Contrastive Mapping,对于目标域中的非中心样本,(使用对比损失函数)鼓励已知样本向其中心靠近,并强制未知样本远离所有已知类的中心

 

原文地址:https://www.cnblogs.com/Jason66661010/p/13575947.html