Pytorch optimizer.step() 和loss.backward()和scheduler.step()的关系与区别 (Pytorch 代码讲解)

由于有人问我optimizer的step为何不能放在min-batch那个循环以外,还有optimizer.step和loss.backward的区别;那么我想把答案记录下来。html 首先须要明确optimzier优化器的做用, 形象地来讲,优化器就是须要根据网络反向传播的梯度信息来更新网络的参数,以起到下降loss函数计算值的做用,这也是机器学习里面最通常的方法论。python 从优化器的做用
相关文章
相关标签/搜索