消失的梯度问题(vanishing gradient problem)

784节点输入层+单30节点隐藏层+10节点输出层在《神经网络的优化方式》中已经表现的很好了,达到了96.35%的准确率,如果增加神经网络的隐藏层深度效果会如何呢? 双30节点隐藏层,准确率96.84%; 三30节点隐藏层,准确率96.39%; 四30节点隐藏层,准确率96.38%。 整个测试效果分析下来,隐藏层深度的提高对准确率没有什么影响。但是这真的颠覆了我们对深度学习的理解,难道不是深度越高
相关文章
相关标签/搜索