商汤开源的mmdetection技术报告

前言:让我惊艳的几个库:

  1. ultralytics的yolov3,在一众yolov3的pytorch版本实现算法中脱颖而出,收到开发人员的欢迎,比别的库明显好的点在于,与darknet相似度达到极高的水平,支持自定义cfg文件的加载,简直完美。
  2. michuanhaohao的reid-strong-baseline, 这个库很严谨的将代码划分为几个部分,每个部分只做一小部分的工作,其中使用到了ignite, pytorch的一个高阶抽象库,感觉在遇到问题的时候比较难去debug。
  3. open-mmlab的mmdetection, 这个库不仅开源,还有一个技术报告,感觉写的实在太好了。现在一搜索mmdetection全都是配置,运行相关的,这用你讲解么,人家readme上写的很详细,感觉关键还是在于他设计以及整合所有目标检测,分割的框架,这个才是关键。

这篇博客记录一下读mmdetection技术报告的关键内容以及翻译。

来源:MMDetection: Open MMLab Detection Toolbox and Benchmark

1. 简介

mmdetection是一个目标检测工具箱,包含了很多单阶段,多阶段检测和目标分割的算法。该开源库内容上包括训练,测试,模型权重下载等。mmdetection包含了使用不同方法实现的基线,可以用来作为已有算法的复现。

mmdetection主要特征有:

  • 模块化设计,将检测或者分割任务分解成几个模块,通过模块的组合即可完成相应的任务。
  • 开箱即用,实现了多种目标检测和分割算法,易于配置和使用。
  • 效率很高,相比其他几个benchmark(Detectron, markrcnn-benchmark, SimpleDet), mmdetection对GPU的占用要低一点。
  • SOTA, 达到了目前最先进的水平。

mmdetection中还涉及了分享他们对训练目标检测器的一些体验和实践(感谢open-mmlab)

2. 支持的算法

  • Single-stage Methods:

    • SSD, RetinaNet, GHM, FCOS, FSAF

    • 没有YOLO官方解释是说YOLOv3源码不是主流的backbone,也没有基于主流的深度学习框架,pipline与其他方法不太相同。

      Maybe some historical reasons. YOLO is firstly implemented with neither mainstream backbones or mainstream DL frameworks, and the pipeline is different from other methods, so it is not as popular as SSD or Faster R-CNN and their variants.

  • Two-stage Methods:

    • Fast R-CNN, Faster R-CNN, R-FCN, Mask R-CNN, Grid R-CNN
    • Mask Scoring R-CNN, Double Head R-CNN
  • Multi-stage Methods:

    • Cascade R-CNN, Hybird Task Cascade
  • 通用的模块和方法:

    • Mixed Precision Trainning, fp16的意思就是floating point
    • Soft NMS, OHEM, DCN, DCNv2, Train from Scratch
    • StratchDet, M2Det, GCNet, Generalized Attention
    • SyncBN, Group Normalization, Weight Standardization
    • HRNet, Guided Anchoring, Libra R-CNN

以上的算法以及涉及到的文章原论文中都有链接,大部分的文章都有必要读一下,理解一下其中的精髓,即便不实现,也要看看。

3. 框架与架构

这部分主要讲的是整个库设计的框架,进行模块化,抽象程度比较高。如果不知道这个框架,感觉直接读源码还是有点吃力的。

在mmdetection中,将所有的检测器进行抽象成以下几个类(class):

  1. backbone: 骨干网络,用于从图片中提取特征
  2. Nect: (脖子很形象)用于连接backbone和head, 主要是对backbone提取得到的feature map进行修正或者组合,常见的就是FPN(FPN中核心就是多维度特征组合的方法, 将三个尺度得到的feature map进行组合)
  3. DenseHead(AnchorHead/AnchorFreeHead): 对特征图的密集位置进行操作(dense location),包括:AnchorHead, AnchorFreeHead。
  4. ROIExtractor: 从单个或者多个feature map中提取ROI, 最经典的是RoIPooling
  5. RoIHead (BBoxHead/MaskHead): 将ROI提取得到的feature作为输入, 进行基于任务的预测,如:预测坐标和类别,bbox预测与回归,mask预测。

示意图如下:

  • 单阶段检测器

    主要看SSD, RetinaNet, YOLO等思想,端到端的解决方案。

    以YOLOv3为例:(mmdetection没有实现yolo,具体实现可以看一下ultralytics的yolov3)

    • Backbone是darknet53。
    • Nect是YOLOv3进行的特征融合操作,将当前层与浅层特征进行融合。
    • DenseHead就是YOLO层,输入为Nect融合特征后得到的特征,输入就是回归的bbox以及类别
  • 两阶段检测器

    经典例子是Faster R-CNN, 这里附上一个cascade R-CNN论文中的图示。(最左侧就是Faster R-CNN)

    R-CNN细节讲解博客:http://www.telesens.co/2018/03/11/object-detection-and-classification-using-r-cnns/

    • conv : 代表backbone, 进行特征提取操作。
    • H0, C0, B0 组成的整体: 代表DenseHead,对特征图的密集位置进行操作
    • H1, C1, B1组成的整体就是ROIHead
    • pool: 功能上就是ROIExtractor, 从单个或者多个feature map中提取ROI
  • 总结一下,每个部分大概做啥:

    模块 功能/作用
    Backbone 提取图片特征
    Neck 将提取得到的特征进行融合或者直接用提取的特征
    DenseHead 类似RPN,也类似yololayer, 从特征图中得到框的信息,类的信息
    ROIExtractor 结合DenseHead提出的框以及Neck得到的特征进行特征提取
    RoIHead 将从ROIExtractor中提取得到的内容进行任务的预测

    4. 训练pipline

技术报告中提出了一个可供目标检测,图像分类,语义分割使用的训练pipline。为了让这个pipline更加灵活和简单,首先定义了一个最小的训练流程,然后提供了挂钩机制(hooking mechanism),可以将上图右侧的一些功能加载到基础训练流程中。挂载到几个时间点上:

  • before run

  • before train epoch

  • before train iter

  • after train iter

  • after train epoch

  • before val epoch

  • after val epoch

  • before val iter

  • after val iter

这就是基础架构


还有一系列实验结果在论文中,在model zoo中也可以找到:https://github.com/open-mmlab/mmdetection/blob/master/docs/MODEL_ZOO.md

6. 相关链接

model zoo: https://github.com/open-mmlab/mmdetection/blob/master/docs/MODEL_ZOO.md

github库地址:https://github.com/open-mmlab/mmdetection

安装:https://github.com/open-mmlab/mmdetection/blob/master/docs/INSTALL.md

常用命令:https://github.com/open-mmlab/mmdetection/blob/master/docs/GETTING_STARTED.md

目标检测框架mmdetection入门:https://zhuanlan.zhihu.com/c_1159526395804725248

原文地址:https://www.cnblogs.com/pprp/p/11830898.html