pytorch中 backward 机制理解

backward只能被应用在一个标量上,也就是一个一维tensor,或者传入跟变量相关的梯度。特别注意Variable里面默认的参数requires_grad=False,因此这里咱们要从新传入requires_grad=True让它成为一个叶子节点。 python 对其求偏导: web import torch from torch.autograd import Variable a = V
相关文章
相关标签/搜索