Deep learning II - I Practical aspects of deep learning - Vanishing/Exploring gradients 梯度消失/爆炸

Vanishing/Exploring gradients 梯度消失/爆炸 如图所示,由于深度神经网络深度较大,当每一层的 w w 都小于1或者都大于1时,最终的输出值会成指数级较小或上升,造成梯度消失或者爆炸,从而使得梯度下降变得困难 1. 为了不让 z z 太大,当 n n 越大时, w w 的值应该越小 2. 针对 ReLU R e L U ,初始化 w[l]=np.random.randn
相关文章
相关标签/搜索