2020李宏毅学习笔记——9. Backpropagation

课程目的: 主要讲了,神经网络Backpropagation算法的推导过程 1.为什么Backpropagation 首先:当我们要用gradient descent来train一个neural network,要怎么做?开始时参数特别多,计算初始参数的微分,然后不断更新参数 在神经网络中的梯度下降算法和之前求线性回归方程中用的没有太大的区别,都是不断的计算微分,然后更新参数,最终找到一个最优解。
相关文章
相关标签/搜索