TensorFlow学习 max-pooling和average-pooling之间的异同(待总结)

池化操作时在卷积神经网络中经常采用过的一个基本操作,一般在卷积层后面都会接一个池化操作,但是近些年比较主流的ImageNet上的分类算法模型都是使用的max-pooling,很少使用average-pooling,这对我们平时设计模型时确实有比较重要的参考作用,但是原因在哪里呢? 通常来讲,max-pooling的效果更好,虽然max-pooling和average-pooling都对数据做了下采
相关文章
相关标签/搜索