pytorch--How to free CPU RAM after `module.to(cuda_device)`?

How to free CPU RAM after module.to(cuda_device)? 大家在使用pytorch的时候,可能会发现一个问题,就是呢,我们使用module.to(cuda_device) 语句后,模型转到了gpu,显存增长了但是同样内存也增长了,一般不管网络多大,最少涨2G。我在lenet测试了,在maskrcnn-benchmark项目均测试过,效果都是这样子。 这里经
相关文章
相关标签/搜索