ALexNet与VGG16初学总结

ALexNet与VGG16初学总结 - Alexnet - VGG16 - Alexnet (一)创新点: 1.成功使用ReLU作为CNN的激活函数,并验证其效果在较深的网络超过了Sigmoid,成功解决了Sigmoid在网络较深时的梯度弥散问题。2.训练时使用Dropout随机忽略一部分神经元,以避免模型过拟合。3.在CNN中使用重叠的最大池化。此前CNN中普遍使用平均池化,AlexNet全部使
相关文章
相关标签/搜索