5.4 池化层

池化层

但实际图像里,我们感兴趣的物体不会总出现在固定位置:即使我们连续拍摄同一个物体也极有可能出现像素位置上的偏移。这会导致同一个边缘对应的输出可能出现在卷积输出Y中的不同位置,进而对后面的模式识别造成不便。

在本节中介绍池化(pooling)层,它的提出是为了缓解卷积层对位置的过度敏感性。

二维最大池化层和平均池化层

同卷积层一样,池化层每次对输入数据的一个固定形状窗口(又称池化窗口)中的元素计算输出.池化层直接计算池化窗口内元素的最大值或者平均值。该运算也分别叫做最大池化或平均池化。在二维最大池化中,池化窗口从输入数组的最左上方开始,按从左往右、从上往下的顺序,依次在输入数组上滑动。当池化窗口滑动到某一位置时,窗口中的输入子数组的最大值即输出数组中相应位置的元素。池化窗口形状为(p imes q)的池化层称为(p imes q)池化层,其中的池化运算叫作(p imes q)池化。

把池化层的前向计算实现在pool2d函数里

#导包
from mxnet import nd
from mxnet.gluon import nn
#定义函数,mode是选择使用最大化还是平均池
def pool2d(X, pool_size, mode='max'):
    #得到池化层的shape
    p_h, p_w = pool_size
    #初始化输出数组Y
    Y = nd.zeros((X.shape[0] - p_h + 1, X.shape[1] - p_w + 1))
    #循环赋值
    for i in range(Y.shape[0]):
        for j in range(Y.shape[1]):
            if mode == 'max':
                Y[i, j] = X[i: i + p_h, j: j + p_w].max()
            elif mode == 'avg':
                Y[i, j] = X[i: i + p_h, j: j + p_w].mean()
    return Y

构造输入数组X来验证二维最大池化层的输出

X = nd.array([[0, 1, 2], [3, 4, 5], [6, 7, 8]])
pool2d(X, (2, 2))

实验一下平均池化层:

pool2d(X, (2, 2), 'avg')

填充和步幅

同卷积层一样,池化层也可以在输入的高和宽两侧的填充并调整窗口的移动步幅来改变输出形状。
通过nn模块里的二维最大池化层MaxPool2D来演示池化层填充和步幅的工作机制
先构造一个形状为(1, 1, 4, 4)的输入数据,前两个维度分别是批量和通道。

X = nd.arange(16).reshape((1, 1, 4, 4))
X

默认情况下,MaxPool2D实例里步幅和池化窗口形状相同。

pool2d = nn.MaxPool2D(3)
pool2d(X)  # 因为池化层没有模型参数,所以不需要调用参数初始化函数

可以手动指定步幅和填充:

pool2d = nn.MaxPool2D(3, padding=1, strides=2)
pool2d(X)

也可以指定非正方形的池化窗口,并分别指定高和宽上的填充和步幅

pool2d = nn.MaxPool2D((2, 3), padding=(1, 2), strides=(2, 3))
pool2d(X)

多通道

在处理多通道输入数据时,池化层对每个输入通道分别池化,而不是像卷积层那样将各通道的输入按通道相加.这意味着池化层的输出通道数与输入通道数相等。
下面将数组XX+1在通道维上连结来构造通道数为2的输入。

X = nd.concat(X, X + 1, dim=1)
X
#output:
[[[[ 0.  1.  2.  3.]
   [ 4.  5.  6.  7.]
   [ 8.  9. 10. 11.]
   [12. 13. 14. 15.]]

  [[ 1.  2.  3.  4.]
   [ 5.  6.  7.  8.]
   [ 9. 10. 11. 12.]
   [13. 14. 15. 16.]]]]
<NDArray 1x2x4x4 @cpu(0)>

池化后,发现输出通道数仍然是2。

pool2d = nn.MaxPool2D(3, padding=1, strides=2)
pool2d(X)
#output:
[[[[ 5.  7.]
   [13. 15.]]

  [[ 6.  8.]
   [14. 16.]]]]
<NDArray 1x2x2x2 @cpu(0)>
原文地址:https://www.cnblogs.com/strategist-614/p/14455434.html