零填充(Zero-padding)

零填充(Zero-padding):有时,在输入矩阵的边缘使用零值进行填充,这样咱们就能够对输入图像矩阵的边缘进行滤波。零填充的一大好处是可让咱们控制特征图的大小。使用零填充的也叫作泛卷积,不适用零填充的叫作严格卷积。这个概念在下面的参考文献Understanding Convolutional Neural Networks for NLP中介绍的很是详细。spa

一直觉得所谓的全0填充就只是在外侧多加一行和一列0
直到今天,我看到这段话code

# 声明第一层卷积层的变量并实现前向传播过程。这个过程经过使用不一样命名空间来隔离不 # 同层的变量,这可让每一层中的变量命名只须要考虑在当前层的做用,而不须要担忧重 # 名的问题。和标准LeNet-5模型不大同样,这里定义的卷积层输入为28×28×1的原始MNIST # 图片像素。由于卷积层中使用了全0填充,因此输出为28×28×32的矩阵

我怎么也想不通,28×28×1,通过5×5的卷积计算以后,输出怎么仍是28。
…仔细翻了翻书本…
当padding='SAME’时blog

输出层矩阵的长度,等于,输入层矩阵长度除以长度方向上的步长,也就是说28/1向上取整=28…图片

当padding='VALID’时get

全0填充的含义,不是在右(下)多加一行(列)0。
具体加多少0要根据实际状况决定!

io

相关文章
相关标签/搜索