pytorch变量间的内存共享

我们在使用pytorch时,经常会用一个变量对另外一个变量赋值,但是某些操作得到的结果只是原变量的引用,内存是共享的,修改一个变量,其他变量的值也会受影响。有些操作是拷贝的操作。 使用 b=a[:,:5,5] b=a[0] b=a[…,0] 等操作得到的a是b的一个引用,内存是共享的,当b的值被某些操作修改后,a的值也会改变, c=b.unsqueeze(0).expand(10,4) , Ten
相关文章
相关标签/搜索