CNN的常见问题

1、卷积核是否一定越大越好? 早期的卷积神经网络如LeNet-5、AlexNet,用到一些较大卷积核 ( 11 ∗ 11 和 5 ∗ 5 ) (11*11和5*5) (11∗11和5∗5),是因为其受限于当时的计算能力和模型结构的设计,无法将网络叠加的很深,因此需要较大卷积核以获取较大的感受域。但是这种较大的卷积核反而导致计算量的增加,不利于训练更深的模型,相应的计算性能也会降低。 后来的过堆叠2
相关文章
相关标签/搜索