如何直观地解释 back propagation 算法?

简单的理解,它的确就是复合函数的链式法则,但其在实际运算中的意义比链式法则要大的多。 多层神经网络的本质就是一个多层复合的函数。借用网上找到的一幅图[1],来直观描绘一下这种复合关系。 其对应的表达式如下: 上面式中的Wij就是相邻两层神经元之间的权值,它们就是深度学习需要学习的参数,也就相当于直线拟合y=k*x+b中的待求参数k和b。 和直线拟合一样,深度学习的训练也有一个目标函数,这个目标函数
相关文章
相关标签/搜索