SiamFC++: Towards Robust and Accurate Visual Tracking with Target Estimation Guidelines

SiamFC++: Towards Robust and Accurate Visual Tracking with Target Estimation Guidelines

2020-06-18 16:37:32

Paperhttps://arxiv.org/pdf/1911.06188v4.pdf 

Codehttps://github.com/MegviiDetection/video_analyst 

 

1. Background and Motivation:  

作者提出如下几个方面的引导,来设计新的孪生网络进行跟踪:

G1. Decomposition of classification and state estimation. 

G2. Non-ambiguous scoring. 

G3. Prior knowledge-free. 

G4. Estimation quality assessment. 

 

2. The Proposed Method

 

2.1. Siamese-based Feature Extraction and Matching

这里作者采用了 Siamese network 来分别提取 template 和 search image 的特征,并且计算其相似性。用两个分支,classification 和 regression branch 来得到两组特征。

 

2.2. Application of Design Guidelines in Head Network

本文服从 G1,设计了两个分支,一个是 regression;一个是 classification。Classification 分支是用于大致定位,而 Regression 分支则是为了得到更加准确地 BBox 位置信息。这部分网络的设计有点借鉴 FCOS 物体检测方法。

 

特征图上每一个位置 (x, y) 都对应了一个图像区域。服从 G2,作者直接分类对应的 image patch 和 回归目标矩形框。换句话说,本文所提出的 SiamFC++ 可以直接将位置看做是训练样本。本文方法直接拓展了 anchor 的约束,属于 anchor-free 的方法。所以,本文的方法并没有利用目标数据分布的先验信息,例如 scale/ratio。这样就符合准则 G3了。

 

作者根据前人的工作得出如下的结论:分类的得分,并没有和定位的准确度很好地对应。作者采用了这种中心先验的做法,并且服从 G4,添加了一个简单但是有效的 quality assessment branch 来进行跟踪效果评估。该输出可以去预测先验空间得分(the Prior Spatial Score, PSS),定义如下:

注意到,这里的 PSS 并不是质量估计唯一的选择。另外,作者也预测了得到的 BBox 和真值的 IoU:

 

2.3. Training Objective

3. Experiments: 

 

 

 

  

原文地址:https://www.cnblogs.com/wangxiaocvpr/p/13158335.html