ValueError: optimizer must support momentum with `cycle_momentum` option enabled

-> 错误如题; -> 错误是在使用PyTorch自带的循环学习率API<torch.optim.lr_schedualr.CyclicLR>以及使用Adam优化器时出现的; -> 具体原因:原因在报错信息中可得知,当CyclicLR的参数cycle_momentum为True,优化器必须是支持momentum参数的。因为cycle_momentum参数默认就是True而Adam优化器本身不带mo
相关文章
相关标签/搜索