报错:RuntimeError: CUDA error: all CUDA-capable devices are busy or unavailable

运行程序时报错: 定位的错误是:D=torch.nn.DataParallel(discriminator(n_filters=32)).cuda(gpu_id) 本来以为是因为服务器上有4块显卡,GPU1,GPU2,GPU3的计算能力都是2.0,但是GPU0的计算能力是>3的,所以认为是调用的时候为每个GPU都分配一定的任务,所以才报错的.  但是 看其他框架下的代码直接使用XX.cuda()也
相关文章
相关标签/搜索