反向传播的工作原理(深度学习第三章)

https://www.youtube.com/watch?v=Ilg3gGewQ5U What is backpropagation really doing? 梯度向量的每一项大小是在告诉大家,代价函数对于每一个参数有多敏感。 对于改变激活值,可以有三种方法: 1.增加偏置 2.增加权重 3.改变上一层的激活值 对于梯度下降,我们不知看每个参数是该增大还是减小,我们还看哪个参数的性价比最高。
相关文章
相关标签/搜索