DeepLearning.ai学习笔记——改善深层神经网络:超参数调试、正则化以及优化(二)

1.梯度消失/梯度爆炸(Vanishing/Exploding gradients) 产生原因:在训练神经网络的时候,导数或者坡度会突变,这与深度网络中权重的设置或者层数的设置哟很大关系,权重过大或者过小会造成后续的激活函数指数级进行递减或者爆炸式增长。 解决办法:对于神经网络权重值进行初始化。 2.神经网络的权重初始化 设置某层的权重矩阵为w_[l] = np.random.randn(shap
相关文章
相关标签/搜索