Pytorch中的backward

首先声明Pytorch的backward机制: y.backward()时,如果y是标量(scalar),则不需要为backward()传入任何参数; 如果y是张量(tensor),需要传入一个与y同形的Tensor(张量) ①y是scalar标量 ②y是Tensor张量 ①如果直接像标量那样计算 就会报错显示:RuntimeError: grad can be implicitly create
相关文章
相关标签/搜索