pytorch 0.3到0.4迁移

1. 弃用Variables 2. .data改用.detach x.detach()返回一个requires_grad=False的共享数据的Tensor,而且,若是反向传播中须要x,那么x.detach返回的Tensor的变更会被autograd追踪。相反,x.data()返回的Tensor,其变更不会被autograd追踪,若是反向传播须要用到x的话,值就不对了。web 3. .data[0
相关文章
相关标签/搜索