torch.optim是一个实现了多种优化算法的包,大多数通用的方法都已支持,提供了丰富的接口调用,将来更多精炼的优化算法也将整合进来。
为了使用torch.optim,需先构造一个优化器对象Optimizer,用来保存当前的状态,并可以根据计算获得的梯度来更新参数。
要构建一个优化器optimizer,你必须给它一个可进行迭代优化的包含了全部参数(全部的参数必须是变量s)的列表。 而后,您能够指定程序优化特定的选项,例如学习速率,权重衰减等。python
optimizer = optim.SGD(model.parameters(), lr = 0.01, momentum=0.9) optimizer = optim.Adam([var1, var2], lr = 0.0001) self.optimizer_D_B = torch.optim.Adam(self.netD_B.parameters(), lr=opt.lr, betas=(opt.beta1, 0.999))
- 1
- 2
- 3
Optimizer还支持指定每一个参数选项。 只需传递一个可迭代的dict来替换先前可迭代的Variable。dict中的每一项均可以定义为一个单独的参数组,参数组用一个params键来包含属于它的参数列表。其余键应该与优化器接受的关键字参数相匹配,才能用做此组的优化选项。算法
optim.SGD([
{'params': model.base.parameters()}, {'params': model.classifier.parameters(), 'lr': 1e-3} ], lr=1e-2, momentum=0.9)
- 1
- 2
- 3
- 4
如上,model.base.parameters()将使用1e-2的学习率,model.classifier.parameters()将使用1e-3的学习率。0.9的momentum做用于全部的parameters。
优化步骤:
全部的优化器Optimizer都实现了step()方法来对全部的参数进行更新,它有两种调用方法:数组
optimizer.step()
- 1
这是大多数优化器都支持的简化版本,使用以下的backward()方法来计算梯度的时候会调用它。闭包
for input, target in dataset: optimizer.zero_grad() output = model(input) loss = loss_fn(output, target) loss.backward() optimizer.step()
- 1
- 2
- 3
- 4
- 5
- 6
optimizer.step(closure)
- 1
一些优化算法,如共轭梯度和LBFGS须要从新评估目标函数屡次,因此你必须传递一个closure以从新计算模型。 closure必须清除梯度,计算并返回损失。函数
for input, target in dataset: def closure(): optimizer.zero_grad() output = model(input) loss = loss_fn(output, target) loss.backward() return loss optimizer.step(closure)
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
Adam算法:学习
adam算法来源:Adam: A Method for Stochastic Optimization大数据
Adam(Adaptive Moment Estimation)本质上是带有动量项的RMSprop,它利用梯度的一阶矩估计和二阶矩估计动态调整每一个参数的学习率。它的优势主要在于通过偏置校订后,每一次迭代学习率都有个肯定范围,使得参数比较平稳。其公式以下:优化
其中,前两个公式分别是对梯度的一阶矩估计和二阶矩估计,能够看做是对指望E|gt|,E|gt^2|的估计;
公式3,4是对一阶二阶矩估计的校订,这样能够近似为对指望的无偏估计。能够看出,直接对梯度的矩估计对内存没有额外的要求,并且能够根据梯度进行动态调整。最后一项前面部分是对学习率n造成的一个动态约束,并且有明确的范围。spa
class torch.optim.Adam(params, lr=0.001, betas=(0.9, 0.999), eps=1e-08, weight_decay=0)
- 1
参数:.net
params(iterable):可用于迭代优化的参数或者定义参数组的dicts。 lr (float, optional) :学习率(默认: 1e-3) betas (Tuple[float, float], optional):用于计算梯度的平均和平方的系数(默认: (0.9, 0.999)) eps (float, optional):为了提升数值稳定性而添加到分母的一个项(默认: 1e-8) weight_decay (float, optional):权重衰减(如L2惩罚)(默认: 0)
- 1
- 2
- 3
- 4
- 5
step(closure=None)函数:执行单一的优化步骤 closure (callable, optional):用于从新评估模型并返回损失的一个闭包
- 1
- 2
torch.optim.adam源码:
import math from .optimizer import Optimizer class Adam(Optimizer): def __init__(self, params, lr=1e-3, betas=(0.9, 0.999), eps=1e-8,weight_decay=0): defaults = dict(lr=lr, betas=betas, eps=eps,weight_decay=weight_decay) super(Adam, self).__init__(params, defaults) def step(self, closure=None): loss = None if closure is not None: loss = closure() for group in self.param_groups: for p in group['params']: if p.grad is None: continue grad = p.grad.data state = self.state[p] # State initialization if len(state) == 0: state['step'] = 0 # Exponential moving average of gradient values state['exp_avg'] = grad.new().resize_as_(grad).zero_() # Exponential moving average of squared gradient values state['exp_avg_sq'] = grad.new().resize_as_(grad).zero_() exp_avg, exp_avg_sq = state['exp_avg'], state['exp_avg_sq'] beta1, beta2 = group['betas'] state['step'] += 1 if group['weight_decay'] != 0: grad = grad.add(group['weight_decay'], p.data) # Decay the first and second moment running average coefficient exp_avg.mul_(beta1).add_(1 - beta1, grad) exp_avg_sq.mul_(beta2).addcmul_(1 - beta2, grad, grad) denom = exp_avg_sq.sqrt().add_(group['eps']) bias_correction1 = 1 - beta1 ** state['step'] bias_correction2 = 1 - beta2 ** state['step'] step_size = group['lr'] * math.sqrt(bias_correction2) / bias_correction1 p.data.addcdiv_(-step_size, exp_avg, denom) return loss
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
- 32
- 33
- 34
- 35
- 36
- 37
- 38
- 39
- 40
- 41
- 42
- 43
- 44
- 45
- 46
- 47
- 48
- 49
Adam的特色有: 一、结合了Adagrad善于处理稀疏梯度和RMSprop善于处理非平稳目标的优势; 二、对内存需求较小; 三、为不一样的参数计算不一样的自适应学习率; 四、也适用于大多非凸优化-适用于大数据集和高维空间。