上一篇博客介绍了深度学习的历史和思想,本篇博客将介绍在神经网络计算中经常使用的反向传播算法。web
目录算法
在学习反向传播算法以前从新回归一下梯度降低算法,在神经网络求解最优化Loss function所使用的方法就是梯度降低算法,反向传播算法可以在神经网络计算中更高效地计算。
网络
在神经网络中,由于有着多个隐藏层,因此在计算偏导数的过程当中要使用到链式求导法则。svg
Backpropagation的目的是极小化Loss function
,便是每一笔data的loss function
之和,所以计算
的偏微分等价于计算每一笔
的偏微分,再将之加总。如今对一个观测拿出红色三角区域部分进行分析。
学习
根据链式求导法则
,其中
,所以
能够很轻松计求解。
优化
接下来咱们开始计算
部分,以下图所示,
atom
如今开始计算 和 ——spa
从后面逆向算,先算
,此时
,依此类推能够一直算到第一层。
.net