【李宏毅 深度学习】Backpropagation

这节讲的实质上是 使用Gradient Descent实现Neural Network时是真么做的。 Gradient Descent的过程之前的帖子已写,这里不再赘余。 但是这种逐个求偏微分的方法效率太低了,试想一下如果一个Neural Network有七八层,每层1000个neuron,那就有上百万个参数,计算起来时相当困难且费时的。 Backpropagation并不是区别于Gradient
相关文章
相关标签/搜索