(LXTML笔记)Neural Network

神经网络的话,向前计算是容易地,基本上就是矩阵的乘法加上一点点激活函数的变换,所以这里不做笔记。 Backprop on NNet 下面对学习过程做一点笔记,backprop实际上就是偏导的链式法则 我们考虑的是平方误差,即 对于输出层,如下图绿框所示,我们对 en e n 关于第 L L 层的权重做偏导 对于中间的隐含层,如红色框所示做偏导,有暂时不知道 ∂en∂s(l)j ∂ e n ∂ s
相关文章
相关标签/搜索