神经网络参数初始化

    神经网络参数的初始化,在网络层数很深的情况下变得尤为重要。如果参数初始化的过小,很可能导致网络每一层的输出为都接近于0,那么可以这样认为每一层的输入都会很接近于0,在进行反向传播的时候,假如我们要更新某一层的参数W,该层的输出是g(WX)暂且先不考虑偏置项,则求W的梯度就会是:上一层的梯度 * 该层对g的梯度 * X,由于每层的输入都很小所以梯度就会很小,从而导致参数更新很慢,随着层数的增
相关文章
相关标签/搜索