反向传播:视频及笔记

通过损失函数更新参数。 推荐视频 我们希望预测结果的误差越小越好。 我们可以调节的有W,B,上一层神经元对应的活跃度。 反向传播:根据结果调节W,B。 沿当前w的某个参数做调节,使得整个误差减小的效率最高。 越活跃的神经元,越应该调节它的权重,调节的程度比较大。 我们根据下一层的每个神经元对上一层的神经元进行调节,把他们加和,得到下一层所有神经元对上一层神经元的整体调节效果。 这个方式就是梯度下降
相关文章
相关标签/搜索