4.神经网络与深度学习(三)—BP算法

引言: 在上节课中,我们知道梯度下降算法的核心是要重复对w,b求偏导数,这样我们就能够让代价函数一直减小,最后让实际输出值尽量拟合预计输出值,那么我们怎么去求w和b的偏导数呢?这节课,我们就来讲一下。 1)基本规则 既然我们想求出每个位置相应的w和b,我们就需要先将每个位置的w和b清晰的表示出来。请看下图: 这里你可能会奇怪,为什么下标先写2,再写4呢?按照常理来说,第二层的第四个神经元应该放在前
相关文章
相关标签/搜索