经典神经网络对比

  LeNet-5(1998) AlexNet(2012) VGGNet(2014) GoogLeNet(2014) ResNet(2015) DenseNet(2017)
输入层 32*32*1  224*224*3  224*224*3  224*224*3  224*224*3  
卷积层 3  5  13      
卷积核 5*5  11*11,5*5,3*3  3*3,1*1  5*5,3*3,1*1  7*7,3*3,1*1  3*3,1*1
池化层 2  3  5      
池化核 2*2  3*3  2*2  3*3;全局平均池化:7*7  3*3  2*2
全连接层 2  3  3      
输出层 10(0-9每个数字的概率)  1000(ImageNet图像分类)   1000(ImageNet图像分类)  1000(ImageNet图像分类)  1000(ImageNet图像分类)  
网络层次 5  8  16 or 19  22  152  121
结构 3卷积(2池化)+2全连接  5卷积(3池化)+3全连接  5卷积组(5池化)+2全连接图像特征+1全连接分类特征  2单独卷积层(2池化)+9inception结构+1全局平均池化+1全连接(softmax)  “瓶颈残差模块”:依次由1*1,3*3,1*1三个卷积层堆积而成,提高计算效率

 dense block:BN-ReLU-Conv(1×1)-BN-ReLU-Conv(3×3);

每个DenseBlock的之间层由BN−>Conv(1×1)−>averagePooling(2×2)组成

特点

CNN开山之作,定义了CNN

的基本组件,确立了其基本

架构

 原始图片为256*256,使用了数据增广随机剪裁为224*224;拥有更深的网络,使用多CPU训练,RELU,dropout,LRN,局部响应归一化  采用了Pre-training的方式(先训练一部分网络,确保这部分网络稳定后,再在这基础上逐渐加深;卷积层使用了更小的filter尺寸和间隔,增加了非线性表达能力,减少了参数量  引入Inception结构代替单纯的卷积+激活传统操作,中间层增加辅助LOSS单元(目的是计算损失时让低层的特征也有很好的区分能力),帮助网络收敛,最后的全连接层全部替换为全局平均池化,减少参数,精度更高,训练更快  

层数非常深;
引入残差单元来解决退化问题

 密集连接,缓解了梯度消失的问题,加强特征传播,鼓励特征复用,极大地减少了参数量,减少了计算量;缺点:内存占用非常高
结构图          
             

原文地址:https://www.cnblogs.com/xiaowa/p/13471004.html