激活函数选取不当为什会造成梯度消失

下图为四层神经网络,它包括输入层,输出层,两个隐层 假设输入层到第一个隐层的权值为,偏置值为。两个隐层之间的权值为,偏置值为。第二个隐层到输出层的权值为,偏置值为。现在假设输入的值为,输出为,标签值为。前一层的输出为后一层的输入则输出层输出为: (f为激活函数) 代价函数我们使用常用的方差函数: 我们知道利用梯度下降法更新权值的公式为: 现在我们想更新的权值,根据权值更新公式则和链式法则有: 假设
相关文章
相关标签/搜索