深度神经网络Google Inception Net-V3结构图

深度神经网络Google Inception Net-V3结构图

前言

Google Inception Net在2014年的 ImageNet Large Scale Visual Recognition Competition (ILSVRC)中取得第一名,该网络以结构上的创新取胜,通过采用全局平均池化层取代全连接层,极大的降低了参数量,是非常实用的模型,一般称该网络模型为Inception V1。随后的Inception V2中,引入了Batch Normalization方法,加快了训练的收敛速度。在Inception V3模型中,通过将二维卷积层拆分成两个一维卷积层,不仅降低了参数数量,同时减轻了过拟合现象。

一、多少层?

Inception V3究竟有多少层呢?某书籍上说42层,某书籍上说46层。参考实现的源代码,仔细数一数,应该是47层。

 
层次结构图.png

5(前面)+
3(block1_module1)+3(block1_module2)+3(block1_module3)+
3(block2_module1)+5(block2_module2)+5(block2_module3)+5(block2_module4)+5(block2_module5)+
4(block3_module1)+3(block3_module2)+3(block3_module3)
= 47层

Tips:上面的这张层次结构图出现在某些帖子和书籍中,根据实现的源码,标注的红色方框处应该是5个卷积层,而不是4个。

二、详细网络结构

详细的网络结构及其子网络结构如下。

 
总体结构图 .png
 
block1_module1.png
 
block1_module2.png
 
block1_module3.png
 
block2_module1.png
 
block2_module2.png
 
block2_module3,4.png
 
block2_module5.png
 
block3_module1.png
 
block3_module2.png
 
block3_module3.png

这么复杂精巧的网络结构是怎么设计出来的呢?是不断的进行数值实验吗?
还是靠爱... ...


 
 
 
 
 
 
原文地址:https://www.cnblogs.com/xiaoboge/p/10457161.html