一、池化层的做用网络
在卷积神经网络中,卷积层之间每每会加上一个池化层。池化层能够很是有效地缩小参数矩阵的尺寸,从而减小最后全连层中的参数数量。使用池化层便可以加快计算速度也有防止过拟合的做用。 性能
二、为何max pooling要更经常使用?设计
一般来说,max-pooling的效果更好,虽然max-pooling和average-pooling都对数据作了下采样,可是max-pooling感受更像是作了特征选择,选出了分类辨识度更好的特征,提供了非线性,根据相关理论,特征提取的偏差主要来自两个方面:(1)邻域大小受限形成的估计值方差增大;(2)卷积层参数偏差形成估计均值的偏移。通常来讲,average-pooling能减少第一种偏差,更多的保留图像的背景信息,max-pooling能减少第二种偏差,更多的保留纹理信息。average-pooling更强调对总体特征信息进行一层下采样,在减小参数维度的贡献上更大一点,更多的体如今信息的完整传递这个维度上,在一个很大颇有表明性的模型中,好比说DenseNet中的模块之间的链接大多采用average-pooling,在减小维度的同时,更有利信息传递到下一个模块进行特征提取。io
三、哪些状况下,average pooling比max pooling更合适?ast
average-pooling在全局平均池化操做中应用也比较广,在ResNet和Inception结构中最后一层都使用了平均池化。有的时候在模型接近分类器的末端使用全局平均池化还能够代替Flatten操做,使输入数据变成一位向量。神经网络
max-pooling和average-pooling的使用性能对于咱们设计卷积网络仍是颇有用的,虽然池化操做对于总体精度提高效果也不大,可是在减参,控制过拟合以及提升模型性能,节约计算力上的做用仍是很明显的,因此池化操做时卷积设计上不可缺乏的一个操做。map
四、1x1的卷积核有什么做用?数据
1*1的卷积核在NIN、Googlenet中被普遍使用,交互
做用:
1. 实现跨通道的交互和信息整合
2. 进行卷积核通道数的降维和升维
3.对于单通道feature map 用单核卷积即为乘以一个参数,而通常状况都是多核卷积多通道,实现多个feature map的线性组合参数
四、能够实现与全链接层等价的效果。如在faster-rcnn中用1*1*m的卷积核卷积n(如512)个特征图的每个位置(像素点),其实对于每个位置的1*1卷积本质上都是对该位置上n个通道组成的n维vector的全链接操做。