从39x39x3的原始图像 不填充且步长为1的状况下通过3x3的10个filter卷积后 获得了网络
37x37x10的数据 不填充且步长为2的状况下通过5x5的20个filter卷积后 获得了3d
17x17x20的数据 不填充且步长为2的状况下通过5x5的40个filter卷积后 获得了blog
7x7x40的最终结果原理
将7x7x40的卷积层所有展开做为输入特征,创建一个输入层单元数为1960的神经网络便可神经网络
1.Conv卷积层如上图所见im
2.Pool池化层d3
3.FullyConnected全链接层数据
池化层的做用:缩减模型大小,提升计算速度,加强提取特征的鲁棒性filter
最大池化层,顾名思义,就是把每次filter的卷积过程换为对区域内的全部数字求最大值的过程,如上图所示,在指定filter大小和步长s后能够获得最终的结果为2x2,而后每次求不一样区域内的最大值便可。img
平均池化层,这种池化层的应用要比最大池化层少。通常应用于很深的网络中,好比上浅层的信道层的网络等,原理与最大池化层相同,只是每次对filter的区域求平均值。
注意:
通常而言,池化层的超参数只有filter的大小f和步长s,在池化层中通常不用填充padding,所以p通常为0。
堆叠的池化层操做与卷积操做相同,对每一个信道单独求max/average而后堆叠便可。