pytorch在不一样的层使用不一样的学习率

pytorch在不一样的层使用不一样的学习率 有时候咱们但愿某些层的学习率与整个网络有些差异,这里我简单介绍一下在pytorch里如何设置,方法略麻烦,若是有更好的方法,请务必教我:python 首先咱们定义一个网络:web class net(nn.Module): def __init__(self): super(net, self).__init__()
相关文章
相关标签/搜索