BP算法(Background Propagation Alogorithm), 即误差逆传播算法,是训练多层前馈神经网络的一种最经典的算法,通过BP算法可以学得网络的权重和阈值,且具有可靠的收敛性。
首先对所用的符号和变量做约定,这里采用《机器学习》中的命名
训练集:
即输入的x有d个属性,输出y有l个属性,均以向量表示
输入层到隐层的权重以
隐层神经元输入和输出层神经元输入如图所示
通过前向传播确定误差,再利用反向传播减少误差
优化基于梯度下降法(gradient decenet)进行,对参数的更新方式为(其中
将输入值传入神经网络,逐层将信号前传,计算输出层的结果
计算输出值
根据优化策略,减小输出误差需要计算误差关于其输入权的梯度,即
利用求导的链式法则(Chain Rule),可以将其展开为
这个表达式初看上去有点复杂,我们可以一步一步来计算它。
这一项是误差对输出求偏导,由上文提到的均方误差公式可以直接求导计算,结果为
这一项是输出对输入求偏导,即对输出层的激励函数求偏导,在这里选用sigmoid函数作为激励函数
sigmoid函数:
因此,该项导数可直接写出,为
这一项是输入对权重求偏导,由图中
综上,输出层神经元的误差为
对于隐层神经元,输入权梯度为
同样地,**函数也为sigmoid,可以快速写出第二项导数
第一项继续运用链式法则,先求误差对输入的偏导
需要注意的是,隐层神经元不能直接确定对误差的影响,因此对所有输出神经元都需要考虑输入
(在输出层时只考虑一个待求神经元的输入)
最终求得的导数
BP算法的精髓在于逐层反向更新权重,基于梯度下降的学习使它具有可靠的学习能力,但也同时会被梯度下降算法固有的缺陷所影响,包括
问题1和2涉及到梯度下降法的优化问题,解决的方法有
问题3解决方法有