模型压缩-L1-norm based channel pruning(Pruning Filters for Efficient ConvNets)

论文笔记——PRUNING FILTERS FOR EFFICIENT CONVNETS

论文地址:https://arxiv.org/abs/1608.08710

路人实现代码:https://github.com/tyui592/Pruning_filters_for_efficient_convnets

                         https://github.com/slothkong/DNN-Pruning

主要思想

这篇文章主要讲了对filters的裁剪,裁剪方法是计算L1范数,然后裁剪掉较少的,多少取决于加速比。

实现效果

  1. VGG-16 34%加速
  2. ResNet-101 38%加速

具体实现

  1. 对于每一个kernel matrix按列绝对值求和
  2. 对求和结果排序
  3. 裁剪掉m个filters(对应内核矩阵的列),以及对应的输出(Xi+1层中),它又是下一层的输入,所以也得去掉对应的输入filters(对应内核矩阵的行)
  4. 剩余的kernel weights保留

实现细节


在跨越多层裁剪的过程中,可能出现kernel matrix裁剪交叉的情况,两种处理方法:

  1. Independent pruning 假设蓝色是确定要裁剪的,然后计算绿色的L1时,要考虑黄色的值,跟之前的裁剪无关。
  2. Greedy pruning 也就是计算绿色的L1时,不考虑已经被裁剪的黄色值
    结果:
    第二种的准确率辉更高。

残差网络的处理:

  1. 第一层随意裁剪(根据需求),因为它只会影响Xi+1的输入,但是不会影响最后的输出。
  2. residual block里面的裁剪需要注意,因为裁剪需要和shortcut layer保持一致,才能累加。
  3. 因为identical feature maps比added residual maps更重要,所以后者的裁剪结果应该由前者决定。

Prune and Retrain 方法

  1. 裁剪所有层后再继续训练网络
  2. 裁剪一层,重新训练一下
    结果:
    显然第二种好啊,第一种太暴力了,可能造成无法修复的裁剪
原文地址:https://www.cnblogs.com/hansjorn/p/11762332.html