CS231N-Lecture4 Backpropagation&Neural Network

一、概述 上一集结束之后,学到了score function,可以用SVM或者Softmax计算loss,可以在loss中增加regularization来获取更加合理的W,并且最后可以用Analytic Gradient(微积分)的方式计算loss function相对于W的gradient来更新W。如下图。 这一集讲了如何使用链式法则来反向传播gradients,来更新W和b,这个gradie
相关文章
相关标签/搜索