PyTorch基础系列(三)——深刻理解autograd:Variable属性方法【最新已经和tensor合并为一类】

torch.autograd.backward(variables, grad_variables, retain_variables=False) 当前Variable对leaf variable求偏导。html 计算图能够经过链式法则求导。若是Variable是 非标量(non-scalar)的,且requires_grad=True。那么此函数须要指定gradient,它的形状应该和Vari
相关文章
相关标签/搜索