Learning representations by back-propagating errors

这篇文章清晰地阐释了backpropagation的过程。 backpropagation的精髓就在于chain rule。同时利用神经网络的结构,使得gradient descent的过程就如同反向的神经网络一般。 假设我们有如下一个神经网络 其中 最终的loss function被定义为 gradient descent所做的事情就是不断调整W的取值,使得最终的loss function最小化
相关文章
相关标签/搜索