pytorch .detach() .detach_() 和 .data用于切断反向传播

参考:https://pytorch-cn.readthedocs.io/zh/latest/package_references/torch-autograd/#detachsourcehtml 当咱们再训练网络的时候可能但愿保持一部分的网络参数不变,只对其中一部分的参数进行调整;或者值训练部分分支网络,并不让其梯度对主网络的梯度形成影响,这时候咱们就须要使用detach()函数来切断一些分支的
相关文章
相关标签/搜索