matconvnet 实现 Batch Normalization和dropout

  采用matconvnet常常会出现如下情况,即训练出现了过拟合。针对过拟合常用的方法有正则化和dropout,以及batch normalization。 目前认为,卷积层后可以用batch normalization,不需要用dropout。而全连接层,参数较多,dropout效果较好。 以matconvnet中mnist数据集为例,opts.batchNormalization定义是否ba
相关文章
相关标签/搜索