YOLO家族之新篇YOLOV4

一、什么是YOLOV4

       YOLOV4是基于原有YOLO目标检测架构,采用了近年来CNN领域最优秀的优化策略。

从数据处理,主干网络,模型训练,激活函数,损失函数等各个方面都有着不同程度的优化。

二、YOLOV4的改进总结

       1、开发了一个简单高效的目标检测算法,降低了训练门槛:仅使用一块GPU:1080TI,就可以训练一个又快又准的检测器;

       2、验证了最新的Bag-of-Freebies和Bag-of-Specials在训练过程中对YOLOV4的影响;

       3、优化了一些最新提出的算法:CBN,PAN,SAM,使YOVOV4可在一块GPU上训练。

三、常用改进方法介绍

      1、模型结构        

一个完整的网络模型一般包含四部分:

1)输入部分:算法的输入,整个图像,一个PATCH或图像金字塔

2)主干网络:提取图像的特征,浅层特征如:边缘,颜色,纹理等。可以使用设计好并训练好的网络:VGG16,19,RESNET50,RexNeXt101,Darknet53,当然,还有一些轻量级的网络:MobileNet1,2,3 ,ShuffleNet1,2

3)瓶颈部分:特征增强,对主干网提取到的特征进行加工,增强。典型的有:SPP,ASPP,RFB,SAM,还有FPN,PAN,NAS-FPN,BiFPN,ASFF,SFAM。

4)检测头:算法项的输出。

   如想得到HeatMap(CenterNet),就增加一些反卷积;

   如想得到BBOX,就接CONV来输出结果,如:YOLO,SSD;

  如想输出多任务(MaskRCNN)那就输出三个Head:分类Classification ,回归Regression ,分割Segmentation

2、训练策略

  2.1  Bag-of-freebies

  在不增加模型复杂度的情况下,使用一些比较有用的训练策略来提升准确率,如:Data augmentation

  2.1.1 数据增强

  增加训练样本的多样性,使模型有更高的鲁棒性。

    [1]逐像素pixel-wise

   (1)几何增强:随机翻转,随机裁剪,拉伸,旋转

     (2)色彩增强:对比度增强,亮度增强,HSV空间增强(较关键)

    [2]逐块block-wise

      (1) 在图像中随机裁剪矩形区域,用0填充(cutout)

      (2) 随机裁剪多个矩形区域(grid mask)

      (3)在Heatmap上裁剪并填充(dropout,dropconnect,dropblock)

    [3] Mixup

      将两个图像按不同比例相加,a*0.1+b*0.9=c。

 2.1.2 解决数据不平衡

     数据不平衡分两种:

      一、背景和要识别物体之间的不均衡

          如:在两阶段方法中,RPN阶段会生成很多ROI,里面有太多背景,有用的框很少;

     二、类别不平衡

         识别物体间不同类别间的不平衡,涉及到一个长尾分布。需要使用OHEM(困难样本挖掘)或Focal loss,或Label smooth

  2.1.3 修改Loss函数

     最早是MSE,现在是NMS(IOU),然后是GIOU Loss。

  2.2 Bag-of=Specials

    通过增加少量的计算,能有效增加物体检测的准确率。

  2.2.1  增大感受野

   SPP:解决输入尺寸不一致,按比例1,2,4或1,2,3三个尺度划分Pooling,输出相同大小FeatureMap

   ASPP:在SPP前加了Atrous或Dilated

  RFB:在同一个FeatureMap下,引入不同dilated ratio的空洞卷积,提取到不同的感受野,最后进行融合

  2.2.2 注意力机制

   channel attention:SENet,在FeatureMap层中同时引入一个1x1xC的weights,可以对每个channel上的特征加入不同权重,提高特征学习能力。

  Spatial attention:在HW维度上加入attention。

  Channel+Spatial:channel attention和spatial attention融合。

  2.2.3 特征融合或特征集成

  skip connection:在Encoder-decoder中比较多,如:UNet,融合底层和高层的特征信息;

  hyper-column:就像InceptionV4结构,使用不同的kernel-size的卷积来集成特征;

  FPN,ASFF,BiFPN:将不同阶段的不同尺度的特征进行融合。EfficientDet中BiFPN连接最密集;

  2.2.4 激活函数

  一个好的激活函数既能使得梯度传播更高效,同时不会占用额外的计算资源。

  ReLU

  LReLU、PreLU、 SELU、ReLU6、Swish、Hard-Swish、Mish

  2.2.5后处理

  NMS,SoftNMS,DIoU NMS

四、本文改进方法

   1、 数据增强:Mosaic

  

   将4张训练图片混合成一张的新的数据增强方法,可以丰富图像的上下文信息,增强模型的鲁棒性,另外也减少了对Mini-batch处理size的需求。

    2、自对抗训练 Adversarial training

  一种新的数据扩充技术,分两阶段:第一阶段,神经网络先改变原始图像而不是网络权值,对自身执行对抗性攻击,改变原始图像,从而造成图像上没有目标的假象;第二阶段,训练神经网络对修改后的图像进行正常的目标检测。

   3、CmBN

    是CBN的修改版本,定义为跨微批量标准化,仅收集单个批次中的小批之间的统计信息

  4、SAM(Spatial Attention Module)改进

   将SAM从空间上的attention修改为点上的attention,并将PAN的short-cut连接改为拼接,如下图:

 

五、YOLOV4的架构

    Backbone:CSPDarknet53

    Neck:SPP,PAN

    Head:YOLOV3

  YOLOV4的调试Trick:

   BoF:

      Bakbone:CutMix和Mosaic数据增强,DropBlock正则化,类标签平滑;

      Detector:CIoU Loss,DropBlock正则化,自对抗训练,最优超参数;

   BoS:

      Bakbone:Mish,CSP(跨级部分连接),MiWRC(多输入加权残差连接)

      Detector:SPPBlock,SAMBlock,PAN(路径聚合网络),DIOU-NMS 

六、实验与超参数

1、分类

   ImageNet图像分类,超参数如下:

  训练步骤:8,000,000

  批量尺寸:128,小批量尺寸:32

  采用多项式衰减学习速率调整策略,初始学习率为:0.1

  warmup:1000

  momentum:0.9,weight decay:0.005

2、检测

  训练步骤:500500

  初始学习率:0.01,4,000,000步后和4,500,000步后分别乘以0.1

  momentum:0.9,weight:0.0005

  批量大小:64,小批量大小:8或4

七、原作信息

   论文链接:

   https://arxiv.org/pdf/2004.10934.pdf

   代码链接:

    https://github.com/AlexeyAB/darknet

   已训练好的模型文件:

  https://pan.baidu.com/s/189L8HHBIUpQ5tzleKw1BvA    提取码: kd6b

上一篇:

  yolo模型的特点与各版本性能对比

下一篇:

  YOLOV5,待更新。。。

原文地址:https://www.cnblogs.com/jimchen1218/p/13672098.html