AlexNet论文

Response Normalization用于1,2层,Maxpooling层用于1,2,5,Relu用于所有层 1、作者使用ReLu,大大加快了训练速度,数倍于saturating neurons,如tanh,sigmoid 2、使用Local Response Normalization 3、使用Overlapping Pooling stride=3,size=2 防止过拟合: 为防止过拟
相关文章
相关标签/搜索