深度学习面试题

深度学习面试题之CNN

1、介绍下卷积操作的作用

卷积网络中的卷积核参数是通过网络训练出来的

通过卷积核的组合以及随着网络后续操作的进行,卷积操作可获取图像区域不同类型特征;基本而一般的模式会逐渐被抽象为具有高层语义的“概念”表示,也就是自动学习到图像的高层特征。

2、CNN结构特点

局部连接,权值共享,池化操作,多层次结构。

1、局部连接使网络可以提取数据的局部特征

2、权值共享大大降低了网络的训练难度,一个Filter只提取一个特征,在整个图片(或者语音/文本) 中进行卷积

3、池化操作与多层次结构一起,实现了数据的降维,将低层次的局部特征组合成为较高层次的特征,从而对整个图片进行表示。

3、CNN的特点以及优势

CNN使用范围是具有局部空间相关性的数据,比如图像,自然语言,语音

局部连接:可以提取局部特征。
权值共享:减少参数数量,因此降低训练难度(空间、时间消耗都少了)。可以完全共享,也可以局部共享(比如对人脸,眼睛鼻子嘴由于位置和样式相对固定,可以用和脸部不一样的卷积核)
降维:通过池化或卷积stride实现。
多层次结构:将低层次的局部特征组合成为较高层次的特征。不同层级的特征可以对应不同任务

4、CNN权值共享问题

首先权值共享就是滤波器共享,滤波器的参数是固定的,即是用相同的滤波器去扫一遍图像,提取一次特征,得到feature map。在卷积网络中,学好了一个滤波器,就相当于掌握了一种特征,这个滤波器在图像中滑动,进行特征提取,然后所有进行这样操作的区域都会被采集到这种特征,就好比上面的水平线。

5、什么是感受野

后一层神经元在前一层神经元的感受空间;

注意:小卷积核(如33)通过多层叠加可取得与大卷积核(如77)同等规模的感受野,此外采用小卷积核有两个优势:

1、小卷积核需多层叠加,加深了网络深度进而增强了网络容量(model capacity)和复杂度(model complexity)
2、增强了网络容量的同时减少了参数个数。

6、简单说说CNN常用的几个模型

深度学习面试题之CNN_第1张图片

7、CNN是什么,CNN关键的层有哪些?

CNN是卷积神经网络,其关键层有:
① 输入层,对数据去均值,做data augmentation等工作
② 卷积层,局部关联抽取feature
③ 激活层,非线性变化
④ 池化层,下采样
⑤ 全连接层,增加模型非线性
⑥ 高速通道,快速连接
⑦ BN层,缓解梯度弥散2、什么是CNN的池化pool层?
池化,简言之,即取区域平均或最大

8、pooling层作用

增加特征平移不变性。汇合可以提高网络对微小位移的容忍能力。

减小特征图大小。汇合层对空间局部区域进行下采样,使下一层需要的参数量和计算量减少,并降低过拟合风险。

最大汇合可以带来非线性。这是目前最大汇合更常用的原因之一。

9、卷积层和池化层有什么区别

1、卷积层有参数,池化层没有参数

2、经过卷积层节点矩阵深度会改变,池化层不会改变节点矩阵的深度,但是它可以缩小节点矩阵的大小。

10、卷积层参数数量计算方法

假设输入层矩阵维度是3,第一层卷积层使用尺寸为 5 ∗ 5 55 5∗5、深度为16的过滤器(卷积核尺寸为 5 ∗ 5 55 5∗5、卷积核数量为16),那么这层卷积层的参数个数为 5 ∗ 5 ∗ 3 ∗ 16 + 16 = 1216 个 553*16+16=1216个 5∗5∗3∗16+16=1216个

11、卷积层输出大小计算

卷积中的特征图大小计算方式有两种,分别是‘VALID’和‘SAME’,卷积和池化都适用,除不尽的结果都向下取整。公式: O = ( W − F + 2 P ) / S + 1 O = (W-F+2P)/S+1 O=(W−F+2P)/S+1,输入图片(Input)大小为 I = W ∗ W I=WW I=W∗W,卷积核(Filter)大小为 F ∗ F FF F∗F,步长(stride)为S,填充(Padding)的像素数为P。

1、SAME填充方式:填充像素。conv2d函数常用。

2、VALID填充方式:不填充像素,Maxpooling2D函数常用。"SAME"卷积方式,对于输入5x5图像,图像的每一个点都作为卷积核的中心。最后得到5x5的结果,通俗的来说:首先在原图外层补一圈0,将原图的第一点作为卷积核中心,若一圈0不够,继续补一圈0。如下图所示:
深度学习面试题之CNN_第2张图片

自律, 坚定, 随和, 坚强, 为了自己想要的,去奋斗
原文地址:https://www.cnblogs.com/xiaowututu/p/13905238.html